Die Privatisierung der Cloud Die Cloud in der Cloud oder die Cloud im Haus

Von Anna Kobylinska und Filipe Pereira Martins* Lesedauer: 8 min |

Anbieter zum Thema

„Geteilte Freude ist doppelte Freude“ – doch sicher nicht in der Public Cloud. In Sachen IT-Infrastrukturen hört der Spaß nämlich dort auf, wo die eigene Souveränität hinterfragt werden muss. Cloud-Anbieter versuchen sich auf die Quadratur des Kreises. Ob das klappt, wird sich zeigen,

Ob der Druck verhandene Ressourcen besser zu nutzen, gesetztliche Vorschriften, schlechte Erfahrungen, Kosten oder unbeherrschbare Komplexität „schuld“ haben, steht nicht fest. Dennoch manifestiert sich eine Trend zur „Privatisierung“ von (public) clouds.
Ob der Druck verhandene Ressourcen besser zu nutzen, gesetztliche Vorschriften, schlechte Erfahrungen, Kosten oder unbeherrschbare Komplexität „schuld“ haben, steht nicht fest. Dennoch manifestiert sich eine Trend zur „Privatisierung“ von (public) clouds.
(Bild: Negro Elkha - stock.adobe.com)

Etablierte Anbieter von Rechenzentrumsinfrastrukturen – von Dell mit „Apex“ über HPE mit „GreenLake“ bis hin zu Lenovo mit „Truscale Services“ und Fujitsu mit „Uscale“– haben ihre Produktportfolios auf cloud-ähnliche Betriebsmodelle größtenteils bereits umgestellt und positionieren sich neben VMware als Vorreiter der Private- und Hybrid-Cloud. Public-Cloud-Hyperscaler wollen sich das nicht länger bieten lassen: Im Gegenzug „privatisieren“ sie lieber ihre Clouds.

Public-Cloud-Anbieter wagen sich – oder drängen, das hängt eben von der Perspektive ab – immer stärker in das Segment der Private Clouds hinein. Cloud-Repatriation von Arbeitslasten setzt diese Anbieter zusätzlich unter Druck. AWS hat es auch schon im Hyperscale-Maßstab erlebt, zum Beispiel bei der groß angelegten Cloud-Rückführung von Dropbox.

Das Beispiel Dropbox

Dropbox konnte seinerzeit durch die medienwirksame Repatriation der eigenen Cloud-Arbeitslasten in nur zwei Jahren fast 75 Millionen US-Dollar einsparen. Das Unternehmen hatte im Jahre 2016 einen Großteil der eigenen IT-Aktivitäten von der öffentlichen Cloud auf eine „kostengünstigere, maßgeschneiderte Infrastruktur in Co-Location-Einrichtungen“ verlagert.

Die Bruttomargen im Zeitraum um diese Migration stiegen von 33 Prozent im Jahre 2015 auf 67 Prozent im Jahre 2017 – in erster Linie als direktes Resultat eben dieser Infrastrukturoptimierung. Das hat dann offenbar anderen zu denken gegeben.

In der Zwischenzeit hat sich der Trend der Rückführung verfestigt und widerspiegelt sich stets in neuen Umfragen (siehe dazu den ersten Bericht zur Privatisierung der Cloud: „Zurück aus den Wolken: Trends, Gründe und Hintergründe “).

Kalte Füße

Die Verantwortlichen nennen für den Rückzug aus der Public Cloud eine Vielzahl von Gründen. Je nachdem, wen man dazu jetzt genau befragt, treten unterschiedliche Beweggründe in den Vordergrund.

Gründe für die Rückführung von Arbeitslasten aus der Public Cloud laut einer Umfrage, die IDC im Auftrag von HPE im Juli 2021 durchgeführt hat (Mehrfachnennungen zulässig).
Gründe für die Rückführung von Arbeitslasten aus der Public Cloud laut einer Umfrage, die IDC im Auftrag von HPE im Juli 2021 durchgeführt hat (Mehrfachnennungen zulässig).
(Bild: IDC im Auftrag von HPE)

Doch alle aktuellen Erhebungen haben eines gemeinsam: Ein Großteil der Cloud-Nutzer sucht für kritische Daten und Arbeitslasten ein Domizil an einer weniger exponierten Stelle als die gemeinsam genutzte Infrastrukturen einer öffentlichen Cloud.

Public-Cloud-Hyperscaler wollen natürlich ihren hart erkämpften „Kuchen“ – die Petabytes an Daten und die Zettaflops an Arbeitslasten – weder an Cloud-Repatriation-Initiativen noch (umso weniger) an ihre Mitbewerber aus dem Segment der Private Cloud verlieren. Stattdessen „privatisieren“ sie ihre Clouds.

Die begehrte Spitzenposition als Markt- und Technologieführer im Gartners Magic Quadrant for Cloud Infrastructure and Services hat im Oktober 2022 einmal wieder AWS erklettert – bereits zum zwölften Mal in Folge.
Die begehrte Spitzenposition als Markt- und Technologieführer im Gartners Magic Quadrant for Cloud Infrastructure and Services hat im Oktober 2022 einmal wieder AWS erklettert – bereits zum zwölften Mal in Folge.
(Bild: Gartner)

Eine private Cloud ist eine virtualisierte IT-Umgebung, deren Rechen-, Netzwerk- und Speicherressourcen exklusiv einer einzigen Organisation zur Verfügung stehen. Eine solche IT-Umgebung bringt die Vorteile der Cloud-nativen Bereitstellung von Infrastrukturkomponenten und -Diensten mit einer hohen Isolation und Kontrolle unter einen Hut. Soweit zur Theorie.

Hochfliegende Idealbilder und die Realität liegen jedoch zum Teil noch etwas auseinander.

Virtual Private Clouds

Die Hyperscaler AWS, Microsoft und Google bieten Unternehmenskunden verschiedene Möglichkeiten zur „Privatisierung“ ihrer Cloud-Ressourcen im Rahmen der öffentlichen Cloud-Dienste, vor allem durch die Bereitstellung von VM-Serverinstanzen, HPC-Clustern, Containern und anderen Cloud-Diensten im Rahmen einer softwaredefinierten Private-Cloud. Amazon und Google nennen diesen Dienst „Virtual Private Cloud“ (VPC), Microsoft spricht von einem „Azure Virtual Network“ (kurz: ein VNet).

Bei dem AWS VPC handelt es sich um eine Sammlung von Cloud-Funktionen, die ein isoliertes virtuelles Netzwerk schaffen, in dem sich dann virtuelle Maschinen, die so genannten EC2-Instanzen, ausführen lassen. Der Nutzer kann hier unter anderem mit privaten und öffentlichen IP-Adressen hantieren (IP Address Manager), Gateways konfigurieren und eigene Routing-Tabellen stricken.

Mit Subnetzen und Bastion-Hosts können Kunden eine höhere Isolation anstreben. Unternehmen können hierzu eine Vielzahl von Virtuellen Appliances aus dem Amazon Marketplace beziehen und als eigene EC2-Instanzen provisionieren. Die Bereitstellung von DNS übernimmt ein Dienst namens „Route53“.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ein Azure Virtual Network bietet eine Reihe von Netzwerkfunktionen, die sich mit jenen von AWS und Google weitgehend decken. Zu diesen Funktionen gehören DNS-Dienste, dynamisches Routing über Azure Route Server, Möglichkeiten der Anpassung von DHCP-Blöcken, Virtual-Network-Peering, Gateways mit Netzwerkadressübersetzung, diverse Zugriffskontrollen und dergleichen anderes.

Bei der Initialisierung von Cloud-Instanzen ist eine Bereitstellung auf dedizierter Hardware möglich. Dies soll neben einer höheren Leistung eine physische – statt rein logischer – Isolation der Arbeitslasten ermöglichen. Mit einem VPC-Feature namens Ingress-Routing in AWS können Cloud-Nutzer die gleichen Netzwerksicherheitsrichtlinien in der Cloud durchsetzen wie in ihrem Rechenzentrum On-Premises, also den Datenverkehr zum Beispiel durch eine IDS-Appliance (Intrusion Detection System) oder durch dieselbe Firewall-Appliance wie im Rechenzentrum senden.

Wie immer steckt der Teufel im Detail

Die „Privatisierung“ einer Public Cloud bedeutet generell viel Kleinarbeit. Der Teufel steckt im Detail. Dies trifft insbesondere auf das Routing des privaten Netzwerkverkehrs durch die öffentliche Infrastruktur des Hyperscalers zu.

So lässt sich beispielsweise auf AWS der gesamte Datenverkehr zu und von einem Internet-Gateway oder Virtual Private Gateway in EC2 mit einer Funktion namens Ingress-Routing an eine konkrete „ENI“-Netzwerkschnittstelle (Elastic Network Interface) einer bestimmten Amazon-EC2-Instanz leiten. Hier muss es zusätzlich wie gewohnt die Einschränkungen der so genannten Sicherheitsgruppe passieren, einer Sammlung deterministischer Beschränkungen des Datenverkehrs auf IP-Basis. Das Äquivalent einer EC2-Sicherheitsgruppe auf AWS EC2 trägt auf Azure die Bezeichnung „NSG“ (Network Security Group).

Eine optionale Sicherheitsebene für den VPC bilden die so genannten Netzwerk-Zugriffskontrolllisten (Netzwerk-ACLs); sie können die in Sicherheitsgruppen festgelegten Regeln auf Subnetze und andere Ressourcen anwenden. Die Dienstbereitschaft einer so „privatisierten“ Cloud-Umgebung steht und fällt mit jeder auch so kleinen Konfigurationsentscheidung. Mögliche Unzulänglichkeiten der Netzwerkkonfiguration lassen sich mit AWS-eigenen Tools untersuchen.

Sicherheit und Compliance

Mit einem Dienst namens Network Access Analyzer können AWS-Nutzer beispielsweise ihre spezifischen Anforderungen an die Netzwerksicherheit und Compliance festlegen und deren Einhaltung überwachen. Der Dienst identifiziert unerwünschte Netzwerkzugriffe und Verbesserungsmöglichkeiten für den Sicherheitsstatus der Cloud-Ressourcen. Er kann den Verantwortlichen helfen, die Compliance der Infrastruktur nachzuweisen.

In einem Marketplace haben die Nutzer zusätzlich die Möglichkeit, kommerzielle IT-Beratung von Drittanbietern in Anspruch zu nehmen. Doch im Endeffekt tickt unter der Haube eines VPC stets ein zum Teil doch gemeinsam genutzter Infrastrukturunterbau, der von Grund auf für den Betrieb einer Public Cloud konzipiert wurde.

Logische Isolation durch „softwaredefinierte Sicherheit“ will eine On-Premises-Bereitstellung approximieren, aber man darf nicht vergessen: die Umsetzung der Kontrollmechanismen erfolgt beim Cloud-Anbieter, hauptsächlich in Software. Im Zweifelsfalle zieht der Nutzer der Public Cloud den Kürzeren.

VMware Cloud, Red Hat Open Shift & Co.

Marktplätze der Cloud-Anbieter – Amazons AWS Marketplace und Microsofts Azure Marketplace – sind für viele Unternehmen der Schlüssel zu einem höheren Grad von Nachvollziehbarkeit bei der „Cloud-Privatisierung“. Die hier verfügbaren Lösungen reichen von Firewalls über Container-Orchestrierer wie „Red Hat Openshift“ bis hin zu Multi-Cloud- und Hybrid-Cloud-Management-Plattformen wie „VMware Cloud on AWS“.

Ein konkretes Beispiel: Red Hat OpenShift auf AWS kann containerisierte Arbeitslasten auf EC2-Clustern orchestrieren, zum Beispiel in der ARM-Edition auf EC2-Instanzen vom Typ „m6g.xlarge“. Mit VMware Cloud on AWS können Unternehmen die „vSphere“-Arbeitslasten aus ihrer Private-Cloud auf AWS erweitern, indem sie diese auf „i3.metal“-Instanzen in EC2 provisionieren.

Für eine sichere Anbindung der semi-privaten Cloud an das eigene Rechenzentrum gibt es Dienste wie „Azure Express Route“ (Microsoft), „Direct Connect“ (AWS), „S2S“-VPNs (Azure), Client VPN (AWS) und andere.

Mit Technik wie „Azure Stack“, „AWS Outposts“, „Google Anthos“ & Co. wagen die Hyperscaler „Private“ Implementierungen ihrer Public-Cloud auf On-Premises-Infrastrukturen. Auch „IBM Cloud Satellite“ und „Oracle Private Cloud Appliance“ befolgen eine ähnliche Zielsetzung; auch diese Lösungen sind interoperabel hauptsächlich mit ihren eigenen Clouds.

Die „Oracke Cloud Appliance“.
Die „Oracke Cloud Appliance“.
(Bild: Oracle)

Oracle Private Cloud Appliance ist ein „hochgradig skalierbares, integriertes System“ mit APIs und Management-Tools für die Entwicklung containerisierter, Cloud-native Anwendungen mithilfe von Architekturmustern und Tools und die Bereitstellung in Infrastructure-as-Code-Umgebungen über Private Clouds und Public Clouds hinweg. Die Appliance ist kompatibel mit Oracle Cloud Infrastructure.

IBMs Cloud Satellite erweitert die On-Premises-Infrastruktur auf IBMs Cloud und schafft so eine Illusion von „Cloud-Privatisierung“ vor Ort.

Dell Apex und HPE GreenLake for Private Cloud Enterprise

Dell und HPE befolgen den entgegengesetzten Ansatz. Mit Apex bietet Dell eigene Hardware, Dienste und andere verwandte Lösungen in einem Cloud-ähnlichen nutzungsbasiertem Verbrauchsmodell an. Die Bereitstellung erfolgt wahlweise an der Edge, im Rechenzentrum oder in einer Co-Location-Einrichtung. Das Angebot umfasst hauptsächlich „Poweredge“-Server, Storage-Lösungen aus der Reihe „Powerscale“ und Dell Networking-Switches.

Mit „Dell Apex“ in der Edition „Flex on Demand“ reservieren Unternehmen die gewünschte Kapazität und einen Buffer; der monatliche Gesamtverbrauch wird dann mit automatischen Tools gemessen und nutzungsabhängig abgerechnet; die Kosten sind auf 85 Prozent der installierten Gesamtkapazität gedeckelt.
Mit „Dell Apex“ in der Edition „Flex on Demand“ reservieren Unternehmen die gewünschte Kapazität und einen Buffer; der monatliche Gesamtverbrauch wird dann mit automatischen Tools gemessen und nutzungsabhängig abgerechnet; die Kosten sind auf 85 Prozent der installierten Gesamtkapazität gedeckelt.
(Bild: Dell Technologies)

HPE hatte einen Vorsprung in Sachen Marktpräsenz gegenüber Dell und hat seine „Edge-to-Cloud“-Plattform HPE GreenLake zu einem wahren Ökosystem ausgebaut. HPE GreenLake umfasst neben der grundlegenden Infrastruktur und Software im As-a-Service-Modell zahlreiche Lösungen von Ökosystempartnern, zusammengestrickt zu einer einheitlichen Hybrid-Cloud-Plattform um eine leistungsstarke API. Im Juni 2022 hat der Anbieter eine Variante der Plattform namens „HPE GreenLake for Red Hat Openshift Container Platform“ und im November 2022 „HPE GreenLake für VMware“ angekündigt.

Der Inklusionsansatz von HPE hat in der Vergangenheit das eine oder andere Lizenz-Management-Problem verursacht, doch unterm Strich war GreenLake ein durchschlagender Erfolg. Die On-Premises-Variante von HPE GreenLake wächst schneller als das ganze Marktsegment der Public Cloud. Während die drei führenden Hyperscaler jedes Quartal so zwischen 40 und 45 Prozent im Vergleich zum Vorjahr zulegen, spricht HPE von Wachstumsraten jenseits von 100 Prozent.

Wachsende Anzahl von Services und Partnern

Anfang Dezember 2022 hat HPE neue Anwendungs-, Analytics- und Entwickler-Dienste für seine Cloud-Plattform angekündigt. „HPE GreenLake for Private Cloud Enterprise“ ist eine automatisierte, skalierbare Private Cloud, die von HPE betrieben wird. Sie ermöglicht die Bereitstellung von physischen Servern, virtuellen Maschinen und Containern aus einem gemeinsamen Ressourcenpool und bringt so Cloud-native und traditionelle Anwendungen unter einen Hut.

Mit Amazon Elastic Kubernetes Service (Amazon EKS) Anywhere hat HPE GreenLake for Private Cloud Enterprise jetzt eine weitere Option der Container-Bereitstellung hinzugewonnen. Kunden können damit in ihren eigenen Rechenzentren dieselben Container-Runtimes wie in der Public Cloud ausführen und so ihre Anwendungen zwischen der privaten und der öffentlichen Cloud hin-und-her portieren.

Virtuelle Maschinen, Container und physische Server lassen sich im Selbstbedienungsverfahren über eine Konsole, via API, eine Befehlszeilenschnittstelle oder per Infrastructure as Code verwalten. Entwickler können in ihrem Arbeitsbereich aus einer Vielzahl von Betriebssystemen, containerisierten Anwendungen und Toolchain-Integrationsdiensten wählen.

Das Fazit des Autorenduos

Viele Elemente einer Private Cloud lassen sich mittlerweile auch in der Public Cloud umsetzen. Die „Privatisierung“ der Public-Cloud-Dienste lässt sich jedoch auch „andersherum aufzäumen“: HPE hat es mit GreenLake ja vorgemacht.

Um die Leistung geschäftskritischer Anwendungen zu verbessern, bietet HPE GreenLake für Private Cloud Enterprise sechs optimierte Instanzen (General Purpose, Compute, Memory und Storage) mit einer verbrauchsabhängigen Abrechnung.

Tools für die Nutzungs- und Kostenanalyse von Diensten der drei Hyperscaler im Public-Cloud-Umfeld sollen die Workflow-Platzierung erleichtern. Die neuen Werkzeuge beinhalten Showback-Reporting und ein Dashboard für die Kapazitätsplanung und Budgetierung des Verbrauchs in einer hybriden Cloud-Umgebung.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:48980958)