Schlüsselfaktor Netzwerk WAN-Optimierung als zentrales Element von Cloud Computing

Autor / Redakteur: Dave Greenfield, Produktmarketing-Manager bei Silver Peak / Florian Karlstetter

Unternehmen, die Cloud-Computing-Dienste nutzen wollen, übersehen häufig einen wichtigen Punkt: die zentrale Rolle des Netzwerks, speziell der Weitverkehrsverbindungen, über die Cloud-Services bereitgestellt werden. Hohe Paketverlustraten, inakzeptable Latenzzeiten sowie eine unzureichende Bandbreite machen in vielen Fällen die Vorteile von Cloud-Services wieder zunichte.

Firmen zum Thema

In vielen Außenstellen von Firmen und öffentlichen Einrichtungen stehen nur WAN-Verbindungen mit niedriger Bandbreite zur Verfügung. Um beim Zugriff auf Cloud-Dienste solche Links optimal auszunutzen, ist das Ausfiltern redundanter Daten erforderlich, Stichwort Deduplizierung.
In vielen Außenstellen von Firmen und öffentlichen Einrichtungen stehen nur WAN-Verbindungen mit niedriger Bandbreite zur Verfügung. Um beim Zugriff auf Cloud-Dienste solche Links optimal auszunutzen, ist das Ausfiltern redundanter Daten erforderlich, Stichwort Deduplizierung.
(Bild: Silver Peak)

Einen Ausweg bieten WAN-Optimierungslösungen. Sie stellen sicher, dass Netzwerkverbindungen in der erforderlichen Qualität bereitstehen.

Es ist mittlerweile unbestritten, dass der Einsatz von Cloud Computing Unternehmen, öffentlichen Auftraggebern und Organisationen Vorteile bringt, beispielsweise eine höhere Effizienz und Flexibilität. Zudem lassen sich mithilfe von Cloud-Services die IT-Kosten reduzieren.

Dass dies keine bloßen Marketing-Aussagen sind, belegt unter anderem eine Studie der Beratungsgesellschaft Experton Group. Sie untersuchte über einen Zeitraum von drei Jahren hinweg die Kosten von Cloud-Computing-Projekten in mittelständischen Firmen in Deutschland. Das Ergebnis: Im Vergleich zu Anwendungen, die ein Unternehmen über das eigene Rechenzentrum bereitstellt, ergeben sich bei der Nutzung von Cloud-Ressourcen Einsparungen von durchschnittlich 22,6 Prozent. Und laut einer Studie der Marktforschungsgesellschaft IDC Deutschland von 2013 nutzt bereits über die Hälfte (55 Prozent) der deutschen Unternehmen Cloud-Services oder implementiert solche Dienste. Weitere 27 Prozent der Firmen beschäftigen sich mit der Einführung von Cloud-Computing.

Cloud-Computing ist wie das Wetter

Bei vielen Cloud-Computing-Projekten stehen Aufgaben im Mittelpunkt wie die Geschäftsprozesse anpassen oder Schnittstellen für den Zugriff auf Cloud-Services einrichten. Zu wenig Beachtung findet häufig ein anderes wichtiges Element: die Netzwerkinfrastruktur. Hohe Datenpaket-Verlustraten (Packet Loss Rates, PLR), zu große Latenzzeiten und Netzwerkverbindungen mit einer unzureichenden Bandbreite können höchst negative Folgen haben. Dazu zählen niedrige Datentransferraten und eine mangelhafte Zuverlässigkeit.

Vor allem bei Weitverkehrsverbindungen (WAN, Wide Area Network) treten solche Faktoren regelmäßig auf. Anwender reagieren darauf oft damit, dass sie weitere Server bereitstellen beziehungsweise beim Cloud-Service-Provider buchen oder WAN-Strecken mit höherer Bandbreite ordern. Doch diese Maßnahmen helfen nicht weiter. Wer die genannten Probleme nicht in den Griff bekommt, läuft Gefahr, ein Cloud-Computing-Projekt, salopp gesagt, in den Sand zu setzen.

Bildergalerie
Bildergalerie mit 6 Bildern

Die Herausforderungen im Zusammenhang mit Cloud Computing lassen sich mit dem Wetter vergleichen. Eine Gemeinsamkeit ist, dass Vorhersagen nur begrenzt möglich sind. So sieht sich eine Cloud-Infrastruktur mit Anforderungen konfrontiert, die im Vorfeld schwer abzuschätzen sind. Das gilt für das Datenaufkommen und die Anforderungen von Anwendungen bezüglich der Netzwerk-Performance. Schwankungen dieser beiden Werte können die Effizienz von Netzwerken sowie Rechenzentren und Außenstellen beeinträchtigen, die auf IT-Ressourcen in einer Cloud zugreifen.

Extreme Verkehrsspitzen möglich

Ähnlich wie ein Spaziergänger oder Bergwanderer muss auch ein Firmennetzwerk mit "schlechtem Wetter" rechnen. Im Netzwerkbereich sind das extreme Schwankungen des Datenverkehrs. Sie sind darauf zurückzuführen, dass bei Cloud Computing zentral gehostete IT-Dienste über ein "Shared" WAN bereitgestellt werden. Das heißt: Daten und Anwendungen lagern an einer zentralen Stelle (im Cloud-Rechenzentrum), während viele Nutzer von unterschiedlichen Orten (Firmenstandorten, Home Office, unterwegs via Mobilgerät) aus darauf zugreifen, und dies zu unterschiedlichen Zeiten.

Bildergalerie
Bildergalerie mit 6 Bildern

Eine solche IT-Umgebung erschwert es, verlässliche Aussagen über die Auslastung des Netzes zu treffen. Das wiederum macht eine Cloud-Umgebung empfindlich für Schwankungen der Bandbreite, der Latenzzeiten und der Netzwerkqualität in WANs. Und ebenso wie schlechtes Wetter oder gar Stürme lassen sich solche Lastspitzen in einer Cloud-Computing-Umgebung nicht einfach "abstellen". Vielmehr müssen sich IT-Fachleute darauf vorbereiten.

Drei zentrale Faktoren: Bandbreite, Latenz und Netzwerkqualität

Bei der Anbindung an Cloud-Services müssen insbesondere folgende Elemente berücksichtigt werden:

  • die Bandbreite, insbesondere die der WAN-Verbindungen,
  • die Latenzzeiten, die durch die Distanzen zwischen Cloud-Rechenzentrum und den Standorten der User hervorgerufen werden, sowie
  • die Qualität der Datenübertragung. Sie hängt maßgeblich von der Paketverlustrate ab.

Das Zusammenspiel dieser drei Faktoren ist kompliziert. Mehr Bandbreite hilft beispielsweise in vielen Fällen nicht weiter. Das gilt vor allem für Cloud-Computing-Umgebungen, in denen wegen großer Übertragungsentfernungen hohe Latenzzeiten auftreten. Das Gleiche ist dann der Fall, wenn Datenpakete wegen Überlastung der WAN-Links in der falschen Reihenfolge übermittelt werden oder von Übermittlungssystemen wie Routern und Switches "weggeworfen" werden. Diese Phänomene treten vor allem bei Internet- und MPLS-Verbindungen (Multi-Protocol Label Switching) auf.

Eine Paketverlustrate von 2 Prozent oder höher ist vor allem dann problematisch, wenn sie in Verbindung mit großen Latenzzeiten von 100 Millisekunden auftritt. Kostspielige WAN-Links mit größerer Bandbreite zu ordern, hilft in diesem Fall nicht weiter. Das lässt sich mathematisch nachweisen: Auch bei WAN-Links mit nominell höherer Bandbreite sind der tatsächliche Durchsatz, wenn Paketverlustrate und Latency zu hoch sind. Das heißt, die Ausgaben für Weitverkehrsverbindungen mit höherer Kapazität sind reine Geldverschwendung.

Der Ausweg: Das WAN für die Cloud fit machen

Ein probates Mittel, um das Netzwerk, speziell WAN-Verbindungen, für die neuen Anforderungen durch Cloud-Computing fit zu machen, besteht im Einsatz von WAN-Optimierung. Mithilfe dieser Technologie lässt sich der Datenverkehr im Netz um mehr als 90 Prozent reduzieren. Damit erhalten Anwender den nötigen Spielraum, um vorhandene und künftige Anwendungen zu unterstützen.

Virtual WAN Optimization

Bei der Auswahl eines WAN-Optimierungssystems sollten Anwender darauf achten, dass der Anbieter neben physischen Appliances auch virtualisierte Versionen zur Verfügung stellt. Dies ist wichtig, weil Virtualisierung einer der zentralen Trends im Rechenzentrum ist. Virtual WAN Optimization ist die Voraussetzung dafür, um große Datenvolumina zu transferieren, beispielsweise Virtual Machines oder große Datenbestände im Rahmen von Data Replication. Zudem stellen solche Lösungen sicher, dass Daten und Anwendungen in Cloud-Umgebungen jederzeit verfügbar sind.

Ergänzendes zum Thema
Virtual WAN Appliances versus Hardware-basierte Lösungen

WAN-Optimierungssysteme für den Einsatz in Cloud-Computing-Umgebungen stehen in zwei Varianten zur Verfügung: als Hardware-Appliances und als virtualisierte, softwarebasierte "Virtual Appliances,.

Im Vergleich zu Hardware-Systemen bieten virtualisierte WAN-Optimierungslösungen mehrere Vorteile. Sie lassen sich beispielsweise einfacher in IT-Infrastrukturen integrieren, die stark durch Virtualisierung geprägt sind. Zudem sind sie preisgünstiger, weil die Kosten für die Hardware entfallen. Weitere Vorzüge sind der geringere Platzbedarf (kein Einschub im Rack wird blockiert), der niedrigere Strombedarf und die einfachere und schnellere Implementierung (kein Hardware-Setup notwendig).

Speziell für Unternehmen mit Niederlassungen im Ausland kommt ein weiterer Faktor hinzu: Es muss keine Hardware zu den Außenstellen verschickt werden. In einigen Regionen ist dies ein zeitaufwändiger und kostspieliger Vorgang, Stichwort Zollformalitäten.

Nicht zu unterschätzen ist außerdem der Faktor Flexibilität: Bei hardwaregestützten WAN-Appliances ist der Anwender an die Upgrade-Zyklen des Herstellers gebunden. Kündigt dieser beispielsweise nach drei bis vier Jahren eine Modellreihe ab, steht ein Umstieg auf eine neue Version an. Dieser Wechsel ist bei hardwaregestützten Lösungen deutlich kostspieliger und komplizierter als bei Virtual Appliances.

Zudem steht den IT-Abteilungen von Unternehmen und Organisationen mit Virtual WAN Optimization ein Werkzeug zur Verfügung, mit dem sie die Netzwerke im Rechenzentrum und in Cloud-Umgebungen vor unerwünschten Effekten schützen können. Dazu zählen

  • plötzlich auftretende Überlastsituationen durch hohes Verkehrsaufkommen,
  • Bandbreiten-Engpässe, weil redundante Daten mehrfach übermittelt werden sowie
  • zu hohe Verzögerungszeiten, wenn Nutzer von weit entfernten Standorten aus auf Cloud-Ressourcen zugreifen.

Zudem sind die Virtual WAN Appliances von führenden Herstellern wie Silver Peak mit "Bursting"-Mechanismen ausgestattet. Sie federn geplante oder bekannte Nachfragespitzen bei Cloud-Computing-Anwendungen ab. In jedem Fall muss eine WAN-Optimierungs-Appliance eine Lösung für alle genannten Probleme bieten, und das in Echtzeit. Erreichen lässt sich das mithilfe von mehreren Optimierungstechnologien.

Die wichtigsten Echtzeit-Optimierungstechniken

Eines dieser WAN-Optimierungsverfahren ist der Einsatz von Protokoll-Beschleunigungstechniken. Sie verringern die Latenzzeiten auf Werte von deutlich unter 100 Millisekunden. Die Latency hängt in erster Linie von der Länge der Übertragungsstrecke ab. Bei einer WAN-Strecke zwischen zwei (Cloud-)Rechenzentren in Europa und den USA beträgt sie etwa 100 bis 200 ms. Für zeitkritische Anwendungen wie das Replizieren von Daten ist das zu viel. Mit WAN-Optimierung können diese Werte auf einen Bruchteil reduziert werden. Ein weiterer Vorteil: Bei synchroner Datenreplikation, etwa zwischen einem Firmen-Rechenzentrum und dem Data-Center eines Cloud-Service-Providers, können wegen der Latenzzeiten ohne WAN-Optimierung nur rund 150 Kilometer überbrückt werden, bei Einsatz dieser Technik bis zu 1000 Kilometer.

Bildergalerie
Bildergalerie mit 6 Bildern

Zweiter Ansatz: Paketverluste auf ein erträgliches Maß reduzieren

Je nach Anwendung, die über ein Cloud-Rechenzentrum bereitgestellt wird, muss die Paketverlustrate (Packet Loss Rate) unter 1 Prozent liegen. Idealer Weise sollte sie etwa 0,1 Prozent betragen. Das ist auch für anspruchsvolle Applikationen akzeptabel wie die Bereitstellung von virtualisierten Desktops oder den Zugriff auf Echtzeit-Datenbanken.

Zu hohe Paketverlustraten treten auf, wenn Router und Switches überlastet sind und deshalb Datenpakete wegwerfen. Eine weitere Ursache ist die fehlerhafte Konfiguration von WAN-Links. Um die PLR in Cloud-Computing-Umgebungen zu minimeren, setzen Virtual WAN Optimiziation Appliances mehrere Verfahren ein. Eines ist Forward Error Correction (FEC). Dabei wird zusammen mit einer bestimmten Zahl von Paketen ein Fehlerkorrektur-Paket mit übertragen. Die Netzwerksysteme beim Empfänger können damit Datenpakete rekonstruieren, die auf dem Transport verloren gingen.

Wird zusammen mit jeweils zehn normalen Datenpaketen ein Fehlerkorrektur-Paket übermittelt (FEC-Rate von 1:10), sinkt die Packet Loss Rate von 1 Prozent auf 0,09 Prozent. Allerdings steigt durch FEC die Belastung der WAN-Leitung, weil mehr Datenpakete übertragen werden müssen. Daher lohnt sich das Verfahren erst dann, wenn die Paketverlustrate mindestens 1 bis 2 Prozent beträgt.

Pakete in der richtigen Reihenfolge übermitteln

Ergänzend zu FEC kann Packet Order Correction (POC) zum Zuge kommen. POC prüft in Echtzeit und für alle Network Flows, ob die Pakete in der richtigen Reihenfolge beim Empfänger eintreffen. Wenn nicht, korrigiert dies das WAN-Optimierungssystem. Nach Erfahrungswerten von Silver Peak lassen sich mit FEC und POC die Paketverlustraten auf 0 bis 0,1 Prozent verringern.

Ergänzendes zum Thema
Virtual WAN Appliances versus Hardware-basierte Lösungen

WAN-Optimierungssysteme für den Einsatz in Cloud-Computing-Umgebungen stehen in zwei Varianten zur Verfügung: als Hardware-Appliances und als virtualisierte, softwarebasierte "Virtual Appliances,.

Im Vergleich zu Hardware-Systemen bieten virtualisierte WAN-Optimierungslösungen mehrere Vorteile. Sie lassen sich beispielsweise einfacher in IT-Infrastrukturen integrieren, die stark durch Virtualisierung geprägt sind. Zudem sind sie preisgünstiger, weil die Kosten für die Hardware entfallen. Weitere Vorzüge sind der geringere Platzbedarf (kein Einschub im Rack wird blockiert), der niedrigere Strombedarf und die einfachere und schnellere Implementierung (kein Hardware-Setup notwendig).

Speziell für Unternehmen mit Niederlassungen im Ausland kommt ein weiterer Faktor hinzu: Es muss keine Hardware zu den Außenstellen verschickt werden. In einigen Regionen ist dies ein zeitaufwändiger und kostspieliger Vorgang, Stichwort Zollformalitäten.

Nicht zu unterschätzen ist außerdem der Faktor Flexibilität: Bei hardwaregestützten WAN-Appliances ist der Anwender an die Upgrade-Zyklen des Herstellers gebunden. Kündigt dieser beispielsweise nach drei bis vier Jahren eine Modellreihe ab, steht ein Umstieg auf eine neue Version an. Dieser Wechsel ist bei hardwaregestützten Lösungen deutlich kostspieliger und komplizierter als bei Virtual Appliances.

Ebenso wie in traditionellen IT-Umgebungen ist es bei Cloud Computing notwendig, dass zeitkritische Anwendungen wie Videos oder Vorrang vor weniger wichtigen Applikationen erhalten. Dazu muss eine Virtual WAN Optimization Appliance so genannte Quality-of-Service-Verfahren (QoS) bereitstellen. Sie identifizieren beispielsweise Video-Datenpakete. Diese werden anschließend mit Vorrang durch das Netz transportiert als weniger kritische Daten und Dienste wie Office-Anwendungen und E-Mail.

Dritte Technik: Weg mit Daten-Dubletten

Ergänzend dazu komprimieren und deduplizieren virtualisierte WAN-Optimierungslösungen, wie etwa die Systeme der Reihe VRX und VX von Silver Peak, die Daten, bevor diese über eine WAN-Verbindung übermittelt werden. Dadurch wird die zur Verfügung stehende Bandbreite optimal genutzt.

Bildergalerie
Bildergalerie mit 6 Bildern

Dank des Deduplizierens auf der IP-Ebene arbeitet jede Anwendung effizienter. Deduplication identifiziert mehrfach vorhandene Datenblöcke. Besonders effizient sind WAN-Optimierungssysteme, die eine Deduplizierung auf der Byte-Ebene durchführen. Dabei wird jedes Byte einer Datei daraufhin überprüft, ob es mit anderen Datenblöcken identisch ist, die bereits übermittelt wurden. Sind identische Muster vorhanden, werden statt der "echten" Datenpakete nur Pointer (Zeiger) übertragen. Sie verweisen auf bereits übertragene Datenpakete im Cache-Speicher der Virtual Optimization Appliance am Zielort.

Als Zwischenspeicher der Pakete können herkömmliche Festplatten oder schnellere Solid State Drives (SSDs) verwendet werden. In der Praxis lässt sich durch Deduplizierung und Datenkompression der Datenverkehr auf WAN-Strecken je nach Datentyp um bis zu 99 Prozent reduzieren. Dieser Wert gilt jedoch nur für Daten, an denen in der Regel wenige Änderungen durchgeführt werden, etwa Konstruktionszeichnungen oder Handbücher.

Auch andere Anwendungen profitieren von WAN-Optimierung

Von WAN-Optimierung profitieren nicht nur Cloud-Anwendungen, sondern alle Geschäftsanwendungen. Dies wirkt sich günstig auf den Return on Investment (ROI) von WAN-Appliances aus. Letztlich erlaubt es WAN Optimization, mehr Daten in kürzerer Zeit zwischen IT-Ressourcen in einer Cloud und den Nutzern zu übertragen. Das macht es für Unternehmen und Organisationen einfacher, Daten und Anwendungen in Cloud-Umgebungen zu verlagern und von den Vorteilen dieser Technologie zu profitieren.

Der Transfer von Daten zwischen einem Cloud-Rechenzentrum und Usern oder zwischen mehreren Rechenzentren läuft circa um den Faktor 20 schneller ab, wenn WAN-Optimierung zum Zuge kommt. Die Zahl der redundanten, sprich überflüssigen Datenübermittelungen sinkt um etwa 50 Prozent.

Ergänzendes zum Thema
Virtual WAN Appliances versus Hardware-basierte Lösungen

WAN-Optimierungssysteme für den Einsatz in Cloud-Computing-Umgebungen stehen in zwei Varianten zur Verfügung: als Hardware-Appliances und als virtualisierte, softwarebasierte "Virtual Appliances,.

Im Vergleich zu Hardware-Systemen bieten virtualisierte WAN-Optimierungslösungen mehrere Vorteile. Sie lassen sich beispielsweise einfacher in IT-Infrastrukturen integrieren, die stark durch Virtualisierung geprägt sind. Zudem sind sie preisgünstiger, weil die Kosten für die Hardware entfallen. Weitere Vorzüge sind der geringere Platzbedarf (kein Einschub im Rack wird blockiert), der niedrigere Strombedarf und die einfachere und schnellere Implementierung (kein Hardware-Setup notwendig).

Speziell für Unternehmen mit Niederlassungen im Ausland kommt ein weiterer Faktor hinzu: Es muss keine Hardware zu den Außenstellen verschickt werden. In einigen Regionen ist dies ein zeitaufwändiger und kostspieliger Vorgang, Stichwort Zollformalitäten.

Nicht zu unterschätzen ist außerdem der Faktor Flexibilität: Bei hardwaregestützten WAN-Appliances ist der Anwender an die Upgrade-Zyklen des Herstellers gebunden. Kündigt dieser beispielsweise nach drei bis vier Jahren eine Modellreihe ab, steht ein Umstieg auf eine neue Version an. Dieser Wechsel ist bei hardwaregestützten Lösungen deutlich kostspieliger und komplizierter als bei Virtual Appliances.

Davon profitieren zum einen Applikationen aus den Bereichen Disaster Recovery, Datenreplizierung und Backup. Denn je schneller ein Unternehmen Daten in einem Ausfall- oder Cloud-Rechenzentrum sichern kann, desto anspruchsvollere Recovery Point Objectives (RPOs) kann die IT-Abteilung definieren und einhalten. Zum anderen stehen Cloud-Anwendungen schneller, in besserer Qualität und über größere Distanzen hinweg zu Verfügung, wenn die Bandbreite der WAN-Links besser genutzt wird und deren Qualität steigt.

Fazit: Zuverlässiges Netzwerk ist die Basis für Cloud-Computing

Unternehmen und öffentliche Einrichtungen, die in vollem Maße von den Vorteilen profitieren wollen, die Cloud-Computing bietet, benötigen eine leistungsfähige und zuverlässige Netzwerk-Infrastruktur. Das schließt hochwertige Weitverkehrsverbindungen mit ein. Bereits in der Planungsphase sollte daher der Faktor "Netzwerk" berücksichtigt werden.

Wer das nicht tut, läuft Gefahr, dass sich die Investitionen in ein Cloud-Projekt nicht auszahlen oder ein solches Vorhaben komplett scheitert. Und das kann sich heutzutage kein Unternehmen mehr leisten.

(ID:42492233)