Veränderungen, Latenz, Kapazität Die unerwarteten Effekte der Cloud

Ein Gastbeitrag von Marcus Gerstmann* 5 min Lesedauer

Anbieter zum Thema

Öffentliche Cloud-Netzwerke sind zu einem wichtigen Bestandteil der täglichen Infrastruktur von Unternehmen geworden. Während die Kosten ein einfaches Unterscheidungsmerkmal bei der Auswahl eines Anbieters sein können, gibt es noch andere Merkmale, die bei der Optimierung der Leistung in Ihrer eigenen Umgebung zu berücksichtigen sind.

Die Konnektivitätsarchitekturen der Public Cloud entwickeln sich ständig weiter und sind erheblichen Änderungen durch den Anbieter unterworfen.(Bild:  ktsdesign - stock.adobe.com)
Die Konnektivitätsarchitekturen der Public Cloud entwickeln sich ständig weiter und sind erheblichen Änderungen durch den Anbieter unterworfen.
(Bild: ktsdesign - stock.adobe.com)

In vielen Unternehmen hat die Cloud-Nutzung inzwischen einen hohen Reifegrad erreicht, um die Agilität und Digitalisierung voranzutreiben. Während in der Vergangenheit die Strategien zur Kostendämpfung in der Cloud dominierten, steht nun die Performance bei cloud-bezogenen Architektur- und Konfigurationsentscheidungen im Mittelpunkt.

Bislang basiert die Auswahl eines Cloud-Providers zumeist auf ihren Eigenschaften für die Ausführung bestimmter Arten von Workloads. Weitere Punkte sind die Schaffung von Wettbewerb zwischen mehreren Cloud-Anbietern, um plötzliche Kostensteigerungen zu verhindern, sowie Datensouveränität. Diese erlaubt die vollständig selbstbestimmte Kontrolle über die Erhebung, Speicherung, Nutzung und Verarbeitung der eigenen Daten. Das ist nicht nur zur Vermeidung von unerwünschtem Zugriff und Datendiebstahl nötig, sondern auch zur Compliance mit Vorschriften wie der DSGVO.

Grundlage für Entscheidungen muss erweitert werden

Das Hauptaugenmerk liegt also auf dem Cloud-Anbieter und seinen unmittelbaren Leistungen. Um jedoch umfassender von der Cloud zu profitieren, muss die Entscheidungsgrundlage neben der Cloud-Architektur selbst auf die Infrastruktur ausgeweitet werden, welche die Cloud-Umgebung unterstützt.

So zeigt zum Beispiel der „Cloud Performance Report 2022“ von Cisco ThousandEyes wichtige Architekturunterschiede zwischen AWS, Microsoft Azure und Google Cloud. Die Ergebnisse basieren auf unabhängigen Netzwerkmessungen, die über einen Zeitraum von drei Jahren gesammelt wurden. Demnach unterscheiden sich die Verbindungsarchitekturen der drei großen Cloud-Provider darin, wie sie Service-Endpunkte ankündigen, Underlay-Pfade verschleiern und gemeinsam genutzte Infrastruktur für ihr Backbone nutzen, also den Traffic optimieren und priorisieren. Diese Unterschiede können erhebliche Auswirkungen auf die Performance und den Betrieb beim Kunden haben.

Zudem entspricht die Art und Weise, wie ein Cloud-Provider sein Netzwerk entwirft und skaliert, möglicherweise nicht dem Use Case eines Unternehmens. IT-Führungskräfte sollten wissen, wo sie in Bezug auf diese Präferenzen und Priorisierungen stehen und ob sie davon betroffen sein könnten. Diese Erkenntnisse decken sich mit den Erfahrungen vieler Unternehmen, die drei unerwartete Effekte ihrer Cloud-Entscheidungen erleben.

Folge Nr. 1: Ständige Veränderungen

In Cloud-Umgebungen ist der Wandel die einzige Konstante. Das stellt erhebliche Anforderungen an Anwendungs-, Betriebs- und Infrastrukturteams, die häufig die Menge an Änderungen unterschätzt haben.

Diese Veränderungen werden nicht vom Eigentümer der Anwendung vorgenommen. Die modulare, API-zentrierte Natur moderner Applikationen und die breite Einführung von SaaS für Unternehmen führen zu einem weiten Netz von Abhängigkeiten, in dessen Zentrum die Cloud steht. Änderungen an APIs, Diensten oder Codebibliotheken von Drittanbietern können die davon abhängigen Anwendungen erheblich beeinträchtigen – und dies geschieht regelmäßig.

Auch die Cloud-Provider arbeiten ständig daran, ihre Präsenz zu erweitern und ihre Kapazitäten auszubauen. Kein Anbieter ist dabei vor Problemen aufgrund von Wartungsarbeiten gefeit. Während große Ausfälle für Schlagzeilen sorgen, können die häufiger auftretenden kleineren Performance- und Verfügbarkeitsprobleme schwer zu erkennen sein. Dennoch haben sie möglicherweise erhebliche Auswirkungen auf die User Experience. IT-Teams brauchen daher Transparenz und Übersicht, um die Dynamik der Cloud im Griff zu behalten, und sollten auf Probleme jeder Größenordnung vorbereitet sein.

Folge Nr. 2: Höhere Latenzzeiten kontrollieren

In den relativ stabilen Umgebungen klassischer Infrastrukturen lassen sich Latenzzeiten gut kontrollieren. Die herkömmliche Reaktion auf eine hohe Latenz besteht im Verringern der Entfernung und der Anzahl der erforderlichen Hops, um den Datenverkehr von Punkt A nach Punkt B zu transportieren. Das gilt zum Beispiel für den Weg zwischen einem Büro und dem Einstiegspunkt in die Cloud. Ein kürzerer Weg bedeutet in der Regel eine geringere Entfernung und damit eine niedrigere Latenz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Bei cloud-basierten Prozessen ist die Sache aber komplizierter. Die Konnektivitätsarchitekturen der Public Cloud entwickeln sich ständig weiter und sind erheblichen Änderungen durch den Anbieter unterworfen. Die Entscheidungen von Cloud-Providern können dabei den Hin- und Rückweg des Datenverkehrs um Millisekunden verlängern. Die Unternehmenskunden haben darauf keinen Einfluss. Das Problem der Latenz liegt damit in der Anwendungsarchitektur selbst und den gestiegenen Erwartungen der User.

Das Ziel kann daher nicht mehr lauten, die Latenzzeit so kurz wie möglich zu halten. Stattdessen sollte die Performance so hoch sein, dass sie den Anforderungen der Anwendung und der NutzerInnen entspricht. Eine niedrige Latenz lässt sich erreichen, indem Workloads in einer einzigen Cloud-Region gehostet werden, die sich in der Nähe der meisten User befindet. Dies ist jedoch möglicherweise nicht optimal, wenn die lokale Region höhere Kosten verursacht oder aufgrund der Abhängigkeit von einem Land potenzielle Probleme bei der Ausfallsicherheit entstehen.

Im Vergleich dazu könnte eine höhere Latenz akzeptabel sein, wenn Kosten und Performance in einem ausgewogenen Verhältnis zueinander stehen. Zudem sollte die Anwendung so konzipiert sein, dass sie auch bei höherer Latenz zuverlässig funktioniert, ohne dass es zu einer Beeinträchtigung der Benutzerfreundlichkeit kommt.

Folge Nr. 3: Schwankende Kapazitäten

Bei einer geringeren Kapazität denken Unternehmen häufig an ihre Cloud-Verbindung und unmittelbaren Engpässe beim Ein- und Ausgang. In Wirklichkeit befindet sich die Ursache für Kapazitätsengpässe aber möglicherweise weiter entfernt, zum Beispiel bei den Verkabelungssystemen für den weltweiten Datenverkehr.

Die großen Cloud-Provider haben zwar alle beträchtliche Investitionen in Infrastrukturprojekte getätigt, etwa in Unterwasserkabelsysteme. Sie müssen aber immer noch einige gemeinsame physische Verbindungen nutzen, sei es unterseeisch oder terrestrisch, um den Datenverkehr zwischen verschiedenen Teilen ihrer Netzwerke zu übertragen. Die vertraglich vereinbarte oder gemietete Kapazität dieser Kabel ist je nach Anbieter unterschiedlich. Die Kabel selbst kommen in speziellen Anlandezonen an Land. Erst kürzlich hat die ENISA in einer Zusammenfassung dargelegt, wie wichtig das Unterwasser-Ökosystem ist und welche Risiken angesichts der heutigen Abhängigkeit vom Internet zu bewältigen sind.

Auch die Netzleistung kann im Laufe der Zeit und in verschiedenen Regionen erheblich schwanken. Einige Cloud-Anbieter versuchen, den Datenverkehr ganz in der Nähe des Ursprungsortes und unabhängig vom Zielort in ihre Netze einzuspeisen. Andere leiten den Datenverkehr über das Internet und bringen ihn erst in der Nähe ihrer physischen Standorte ins eigene Netz. Diese Unterschiede können sich erheblich auf die bereitgestellte Kapazität für die Kunden auswirken.

Der Konnektivitäts-Check muss sein

Angesichts dieser Variationen müssen Unternehmen, welche die Cloud nutzen und ihre Wahl optimieren wollen, ihre Konnektivität end-to-end überwachen können. Dies ist unabhängig davon, ob der Datenverkehr innerhalb oder außerhalb eines Public Cloud-Anbieters stattfindet. Dabei sind je nach Bedarf regionale Leistungsbedingungen, Routenvielfalt, Internet-Souveränität, Rechtskonformität und Unternehmensrichtlinien zu berücksichtigen.


* Der Autor Marcus Gerstmann ist Leader DACH & Zentraleuropa für Cisco ThousandEyes.

Bildquelle: Cisco ThousandEyes

(ID:49827555)