Öffentliche Cloud-Netzwerke sind zu einem wichtigen Bestandteil der täglichen Infrastruktur von Unternehmen geworden. Während die Kosten ein einfaches Unterscheidungsmerkmal bei der Auswahl eines Anbieters sein können, gibt es noch andere Merkmale, die bei der Optimierung der Leistung in Ihrer eigenen Umgebung zu berücksichtigen sind.
Die Konnektivitätsarchitekturen der Public Cloud entwickeln sich ständig weiter und sind erheblichen Änderungen durch den Anbieter unterworfen.
(Bild: ktsdesign - stock.adobe.com)
In vielen Unternehmen hat die Cloud-Nutzung inzwischen einen hohen Reifegrad erreicht, um die Agilität und Digitalisierung voranzutreiben. Während in der Vergangenheit die Strategien zur Kostendämpfung in der Cloud dominierten, steht nun die Performance bei cloud-bezogenen Architektur- und Konfigurationsentscheidungen im Mittelpunkt.
Bislang basiert die Auswahl eines Cloud-Providers zumeist auf ihren Eigenschaften für die Ausführung bestimmter Arten von Workloads. Weitere Punkte sind die Schaffung von Wettbewerb zwischen mehreren Cloud-Anbietern, um plötzliche Kostensteigerungen zu verhindern, sowie Datensouveränität. Diese erlaubt die vollständig selbstbestimmte Kontrolle über die Erhebung, Speicherung, Nutzung und Verarbeitung der eigenen Daten. Das ist nicht nur zur Vermeidung von unerwünschtem Zugriff und Datendiebstahl nötig, sondern auch zur Compliance mit Vorschriften wie der DSGVO.
Grundlage für Entscheidungen muss erweitert werden
Das Hauptaugenmerk liegt also auf dem Cloud-Anbieter und seinen unmittelbaren Leistungen. Um jedoch umfassender von der Cloud zu profitieren, muss die Entscheidungsgrundlage neben der Cloud-Architektur selbst auf die Infrastruktur ausgeweitet werden, welche die Cloud-Umgebung unterstützt.
So zeigt zum Beispiel der „Cloud Performance Report 2022“ von Cisco ThousandEyes wichtige Architekturunterschiede zwischen AWS, Microsoft Azure und Google Cloud. Die Ergebnisse basieren auf unabhängigen Netzwerkmessungen, die über einen Zeitraum von drei Jahren gesammelt wurden. Demnach unterscheiden sich die Verbindungsarchitekturen der drei großen Cloud-Provider darin, wie sie Service-Endpunkte ankündigen, Underlay-Pfade verschleiern und gemeinsam genutzte Infrastruktur für ihr Backbone nutzen, also den Traffic optimieren und priorisieren. Diese Unterschiede können erhebliche Auswirkungen auf die Performance und den Betrieb beim Kunden haben.
Zudem entspricht die Art und Weise, wie ein Cloud-Provider sein Netzwerk entwirft und skaliert, möglicherweise nicht dem Use Case eines Unternehmens. IT-Führungskräfte sollten wissen, wo sie in Bezug auf diese Präferenzen und Priorisierungen stehen und ob sie davon betroffen sein könnten. Diese Erkenntnisse decken sich mit den Erfahrungen vieler Unternehmen, die drei unerwartete Effekte ihrer Cloud-Entscheidungen erleben.
Folge Nr. 1: Ständige Veränderungen
In Cloud-Umgebungen ist der Wandel die einzige Konstante. Das stellt erhebliche Anforderungen an Anwendungs-, Betriebs- und Infrastrukturteams, die häufig die Menge an Änderungen unterschätzt haben.
Diese Veränderungen werden nicht vom Eigentümer der Anwendung vorgenommen. Die modulare, API-zentrierte Natur moderner Applikationen und die breite Einführung von SaaS für Unternehmen führen zu einem weiten Netz von Abhängigkeiten, in dessen Zentrum die Cloud steht. Änderungen an APIs, Diensten oder Codebibliotheken von Drittanbietern können die davon abhängigen Anwendungen erheblich beeinträchtigen – und dies geschieht regelmäßig.
Auch die Cloud-Provider arbeiten ständig daran, ihre Präsenz zu erweitern und ihre Kapazitäten auszubauen. Kein Anbieter ist dabei vor Problemen aufgrund von Wartungsarbeiten gefeit. Während große Ausfälle für Schlagzeilen sorgen, können die häufiger auftretenden kleineren Performance- und Verfügbarkeitsprobleme schwer zu erkennen sein. Dennoch haben sie möglicherweise erhebliche Auswirkungen auf die User Experience. IT-Teams brauchen daher Transparenz und Übersicht, um die Dynamik der Cloud im Griff zu behalten, und sollten auf Probleme jeder Größenordnung vorbereitet sein.
Folge Nr. 2: Höhere Latenzzeiten kontrollieren
In den relativ stabilen Umgebungen klassischer Infrastrukturen lassen sich Latenzzeiten gut kontrollieren. Die herkömmliche Reaktion auf eine hohe Latenz besteht im Verringern der Entfernung und der Anzahl der erforderlichen Hops, um den Datenverkehr von Punkt A nach Punkt B zu transportieren. Das gilt zum Beispiel für den Weg zwischen einem Büro und dem Einstiegspunkt in die Cloud. Ein kürzerer Weg bedeutet in der Regel eine geringere Entfernung und damit eine niedrigere Latenz.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Bei cloud-basierten Prozessen ist die Sache aber komplizierter. Die Konnektivitätsarchitekturen der Public Cloud entwickeln sich ständig weiter und sind erheblichen Änderungen durch den Anbieter unterworfen. Die Entscheidungen von Cloud-Providern können dabei den Hin- und Rückweg des Datenverkehrs um Millisekunden verlängern. Die Unternehmenskunden haben darauf keinen Einfluss. Das Problem der Latenz liegt damit in der Anwendungsarchitektur selbst und den gestiegenen Erwartungen der User.
Das Ziel kann daher nicht mehr lauten, die Latenzzeit so kurz wie möglich zu halten. Stattdessen sollte die Performance so hoch sein, dass sie den Anforderungen der Anwendung und der NutzerInnen entspricht. Eine niedrige Latenz lässt sich erreichen, indem Workloads in einer einzigen Cloud-Region gehostet werden, die sich in der Nähe der meisten User befindet. Dies ist jedoch möglicherweise nicht optimal, wenn die lokale Region höhere Kosten verursacht oder aufgrund der Abhängigkeit von einem Land potenzielle Probleme bei der Ausfallsicherheit entstehen.
Im Vergleich dazu könnte eine höhere Latenz akzeptabel sein, wenn Kosten und Performance in einem ausgewogenen Verhältnis zueinander stehen. Zudem sollte die Anwendung so konzipiert sein, dass sie auch bei höherer Latenz zuverlässig funktioniert, ohne dass es zu einer Beeinträchtigung der Benutzerfreundlichkeit kommt.
Folge Nr. 3: Schwankende Kapazitäten
Bei einer geringeren Kapazität denken Unternehmen häufig an ihre Cloud-Verbindung und unmittelbaren Engpässe beim Ein- und Ausgang. In Wirklichkeit befindet sich die Ursache für Kapazitätsengpässe aber möglicherweise weiter entfernt, zum Beispiel bei den Verkabelungssystemen für den weltweiten Datenverkehr.
Die großen Cloud-Provider haben zwar alle beträchtliche Investitionen in Infrastrukturprojekte getätigt, etwa in Unterwasserkabelsysteme. Sie müssen aber immer noch einige gemeinsame physische Verbindungen nutzen, sei es unterseeisch oder terrestrisch, um den Datenverkehr zwischen verschiedenen Teilen ihrer Netzwerke zu übertragen. Die vertraglich vereinbarte oder gemietete Kapazität dieser Kabel ist je nach Anbieter unterschiedlich. Die Kabel selbst kommen in speziellen Anlandezonen an Land. Erst kürzlich hat die ENISA in einer Zusammenfassung dargelegt, wie wichtig das Unterwasser-Ökosystem ist und welche Risiken angesichts der heutigen Abhängigkeit vom Internet zu bewältigen sind.
Auch die Netzleistung kann im Laufe der Zeit und in verschiedenen Regionen erheblich schwanken. Einige Cloud-Anbieter versuchen, den Datenverkehr ganz in der Nähe des Ursprungsortes und unabhängig vom Zielort in ihre Netze einzuspeisen. Andere leiten den Datenverkehr über das Internet und bringen ihn erst in der Nähe ihrer physischen Standorte ins eigene Netz. Diese Unterschiede können sich erheblich auf die bereitgestellte Kapazität für die Kunden auswirken.
Der Konnektivitäts-Check muss sein
Angesichts dieser Variationen müssen Unternehmen, welche die Cloud nutzen und ihre Wahl optimieren wollen, ihre Konnektivität end-to-end überwachen können. Dies ist unabhängig davon, ob der Datenverkehr innerhalb oder außerhalb eines Public Cloud-Anbieters stattfindet. Dabei sind je nach Bedarf regionale Leistungsbedingungen, Routenvielfalt, Internet-Souveränität, Rechtskonformität und Unternehmensrichtlinien zu berücksichtigen.
* Der Autor Marcus Gerstmann ist Leader DACH & Zentraleuropa für Cisco ThousandEyes.