Von MPLS-Netzwerken, über CDN bis zu SD-WAN

Cloud 2.0: Die Zukunft des Mittelstandes

| Autor / Redakteur: Ingo Wupper * / Florian Karlstetter

Mit Cloud Computing ändern sich auch die Anforderungen an die Netzwerk-Infrastruktur.
Mit Cloud Computing ändern sich auch die Anforderungen an die Netzwerk-Infrastruktur. (Bild: gemeinfrei (geralt / pixabay) / Pixabay)

Bislang galten geschlossene Netzwerke als der heilige Gral der Unternehmenstechnologie. Doch der allmähliche Übergang vom dedizierten Datacenter zur Public Cloud zeigt: Netzwerke folgen letztendlich immer einer Applikation. Der Treiber ist daher nicht das Netzwerk, sondern dieses ist nur ein Mittel zum Zweck.

Schließlich muss auch die IT auf die Unternehmensziele einzahlen, daher ist es das letztendliche Ziel des Netzwerkes, eine Vielzahl an Applikationen abzubilden, die wiederum die Firmenprozesse abbilden. Und dies mit einer möglichst hohen Kosteneffizienz, Zuverlässigkeit und Geschwindigkeit.

Die wohl größte Veränderung der letzten fünf Jahre ist die Nutzung von Cloud-Applikationen – zunächst Hype, inzwischen Realität in allen Unternehmen. Kunden die vorher ausschließlich „on premises“ gearbeitet haben, also ihre Applikationen entweder am Standort oder im eigenen Datacenter gehostet haben, sind massenhaft umgezogen in die Cloud. Das wird auch über die entsprechenden Entwicklungen und Lizenzmodelle von den Applikationsherstellern so forciert.

Beispiel Office 365

Das wohl prominenteste Beispiel ist Microsoft Office 365. Historisch gesehen war das eigene Rechenzentrum der zentrale Unternehmenspunkt aus der IT-Sicht, auf den alle Standorte eines Unternehmens weltweit zugriffen. Je nach Unternehmensgröße gab es zwar auch eine teils zergliederte Rechenzentrumsstruktur, beispielsweise eines für Asien oder die USA etc. und auch teilweise Applikationen, die nur für einen Teil der Unternehmensstandorte gehostet wurden, aber alles in allem war es ein geschlossenes Netzwerk. Das waren die Zeiten der reinen MPLS-Netze mit ihren geschlossenen Nutzergruppen.

Der Übergang vom MPLS ins Internet musste – damals wie heute – vor unerwünschten Zugriffen gesichert werden. Dies führte häufig zu Architekturen, dass die Kunden, je nach Netzwerkgröße, beispielsweise einen –- oder einen pro Region –- zentralen Internetzugang für das gesamte Netzwerk geschaffen haben. Die Internetdaten aller Standorte über das MPLS-Netzwerk wurden zu diesem einen Gateway im Datacenter geschickt, gingen von dort ins Internet, die Antwort ging aus dem Internet wieder zum zentralen Datacenter zurück und wurde schließlich über das MPLS-Netzwerk verteilt. Ein Verfahren, welches aufgrund der langen Transportwege der Daten für die Endanwender auch sehr langsam war. Das heißt aus Gründen der Sicherheit – weil zur Risikominimierung möglichst wenig Übergänge zum Internet betrieben werden sollten – wurden Daten von Internetwebseiten über ein hochpreisiges MPLS-Netz transportiert. Verglichen mit Bandbreite im Internet, kann eine MPLS-Anbindung, je nach Region und Anschluss-Bandbreite ein Vielfaches teurer sein. Das war im Grunde die Architektur eines Unternehmensnetzes vor fünf bis sieben Jahren, in welchem der Internet-Firmenzugang im Wesentlichen auf das Erreichen von Webseiten und E-Mail abzielte.

Seit etwa 2012 hat sich diese Situation jedoch gedreht. Aufgrund der Tatsache, dass Enterprise Applikationsanbieter wie Cornerstone OnDemand, Workday oder Salesforce ihre Applikationen ausschließlich als Cloudlösung zur Verfügung stellen und Plattformen wie Microsofts Azure oder Amazons EC2 ihren Kunden eine hohe Flexibilität und Skalierbarkeit ermöglichen, änderten sich die Anforderungen an das Unternehmensnetz. So wurden auch – zunächst unbemerkt – viele Firmen zur Nutzung der Cloud gedrängt, auch weil die Lizenzmodelle der großen Softwareanbieter die Cloud preislich sehr attraktiv machten. Cloud wurde zum Business Case. Und die Anbieter verschärften den Druck, indem sie bestimmte Features auch nur noch über die Cloud zugänglich machten.

Unternehmen, die nach wie vor MPLS-Netzwerke nutzen, können die Daten zu den Cloud Anbietern über bestimmte MPLS Gateways zu den Rechenzentren der Cloudanbieter transportieren. Kunden können solch eine Express-Route nutzen, wodurch u.a. AWS- oder Microsoft-Rechenzentren direkt mit dem MPLS-Netzwerk verbunden sind. Der Kunde muss dann keine gesonderte Anbindung mehr zu den Cloud-Rechenzentren realisieren, sondern kann diese über die Netzwerkinfrastruktur des Providers nutzen. Häufig wären solche, dedizierten Zugänge auch gar nicht mehr möglich. Dennoch müssen am Ende alle Daten durch diese Gateways. Diese Private-Clouds könnten sich jedoch in Zukunft in reine Public-Clouds verwandeln, sodass alle Applikationen übers Internet genutzt und erreicht werden können.

Content Delivery Networks

Die großen Cloudanbieter schaffen dabei CDN-Infrastrukturen (Content Delivery Network), was letztlich nichts anderes ist als ein Cloudanbieter-spezifisches Internet im Internet, welches nur dazu dient, beispielsweise zu erkennen, aus welchem Land gerade dieser oder jener Request gestellt wird und diese Anfrage vom nächsten Cloud-Server möglichst optimal zu beantworten. Konkret: Wo steht der Desktop-Computer, der gerade Office 365 öffnen möchte und wie kann auf dem kürzesten Wege der nächste Server von Microsoft erreicht werden, um diesen Office 365-Request in der richtigen Sprache zu beantworten? Es wird also eine Erkennung durchgeführt, anschließend liefert Microsoft über CDN den Inhalt Office 365 von dem Server, der am nächsten ist. Dieses Verfahren kann jedoch nicht angewandt werden, wenn die Express-Route gewählt wird. Dort läuft letztendlich alles über die dedizierten Gateways zu häufig nur einem oder zwei der physikalischen Datacentern von den Private Cloudanbietern.

Bestimmte Cloudinfrastrukturen können für Kunden in Zukunft daher nur noch öffentlich verfügbar sein. Das bedeutet automatisch die Bedeutung des MPLS-Netzes wird in den nächsten Jahren weiter sinken. Denn je mehr Applikationen in die öffentliche Cloud abwandern, desto wichtiger wird das Internet – das Netz ist nicht mehr eine geschlossene Usergruppe.

Dennoch wird MPLS auf absehbare Zeit nicht vollständig verschwinden, weil bisher noch nicht jede Applikation dafür geeignet ist, rein im Internet betrieben zu werden. Vielmehr braucht man eine Architektur, die einerseits noch das MPLS-Netz nutzt und gleichzeitig muss es mit der bestmöglichen Performance internetfähige Applikationen an jedem Standort verfügbar machen. Man braucht also ein Hybrid-Netzwerk-Design. In diesem Prozess stellt sich dann jeweils Frage, wohin ein bestimmtes Paket geschickt werden soll oder ob es Datenpakete gibt, die man früher über das MPLS-Netz geschickt und daher hohe (und teure) Bandbreiten genutzt hat, die man aber eigentlich über das günstigere Internet schicken kann – sofern man es intelligent identifiziert.

Die Vorzüge von SD-WAN-Infrastrukturen

Moderne Architekturen, wie sie beispielsweise von GTT für Kunden realisiert werden, nutzen hierfür Software Defined Technologie zusammen mit virtualisierten Netzwerkfunktionen („Network Function Virtualization“), direkt am Übergang des Unternehmensstandorts in das Firmennetz. Anstelle der altbekannten Router kommen Plattformen zum Einsatz, welche virtuelle Server bereitstellen. Darin arbeiten bei GTT virtualisierte Netzwerkfunktionen wie SD-WAN oder beispielsweise Next Generation Firewalls zur Absicherung der Internetanbindung direkt am Standort.

Ingo Wupper, VP Sales – Strategic Enterprise Business bei GTT Communications.
Ingo Wupper, VP Sales – Strategic Enterprise Business bei GTT Communications. (Bild: Sabine Kristan FOTOGRAFIE / GTT)

Konfiguriert– in SD-WAN Sprache: Orchestriert ¬– wird das Ganze schließlich über graphische Oberflächen, auf denen man letztendlich die Software kontrolliert, und die Software die Art und Weise definiert, wie Networking stattfindet. Das System trifft am Ende eine Entscheidung, an welche der zur Verfügung stehenden Anschlüsse an diesen Standort, das Datenpaket auf bestmöglichem Weg geschickt wird. Im Software-Defined-Umfeld misst man die Performance jeder Leitung zu jeder anderen Leitung im Netzverbund (in diesem Fall: Im Unternehmensnetzwerk) in Echtzeit und trifft dann eine Entscheidung, über welche Leitungen dieses Datenpaket jetzt versandt wird. Aufgrund dessen lässt sich prognostizieren: SD-WAN ist der Schlüssel für die Cloud 2.0.

Der Autor: Ingo Wupper, VP Sales – Strategic Enterprise Business bei GTT Communications (ehemals als Interoute bekannt).

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46057689 / Service Level Management)