Wie Hyperscaler die Nachzügler für sich gewinnen wollen Die Auffahrt in die Cloud

Von Filipe Pereira Martins und Anna Kobylinska* |

Anbieter zum Thema

Auf einmal wollen auch die letzten Unternehmen in die Cloud. Altlasten-Anwendungen auf Mainframes und On-Premises-Servern bremsen den Ansturm aber aus, da sie nicht cloud-typisch skalieren können. Cloud-Anbieter wie IBM oder AWS wollen ihren Nutzern den Umstieg versüßen.

Die Hyperscaler wollen mit speziellen Lösungen Unternehmen den Weg in die Cloud – genauer gesagt in ihre Cloud – erhellen.
Die Hyperscaler wollen mit speziellen Lösungen Unternehmen den Weg in die Cloud – genauer gesagt in ihre Cloud – erhellen.
(Bild: © hxdyl - stock.adobe.com)

Die Ergebnisse der Flexera-Studie „State of the Cloud Report 2020“ zeigt, dass Unternehmen ihre Multi-Cloud- und Hybrid-Cloud-Strategien weiterhin beharrlich verfolgen. Im Durchschnitt soll jedes Unternehmen bereits mehr als zwei öffentliche und zwei private Clouds einsetzen. Die Firmen wollen ihre Cloud-Ausgaben dieses Jahr sogar um nahezu 50 Prozent steigern, die Mehrheit davon auf Grund der COVID-Krise. Jedes fünfte der befragten Unternehmen investiert jährlich über 12 Millionen US-Dollar in öffentliche Cloud-Dienste. Im Durchschnitt sei jedoch jeder dritte Euro dieser Summe „verschwendet“, wie beinahe jeder dritte Teilnehmer der Umfrage glaubt. Nahezu drei von vier wollen daher bei der Optimierung ihres Cloud-Engagements vorrangig Kosten senken.

An Herausforderungen scheint es deren allerdings mehr als genug zu geben. Denn Altlasten-Anwendungen lassen sich nicht so einfach auf Cloud-Dienste übertragen. Unternehmen müssen daher Wege finden, bei der Auffahrt auf die Cloud die Sackgasse des Legacy-Stacks hinter sich zu lassen.

Aber so einfach ist das nicht. Denn Altlasten-Anwendungen schlagen sich nicht gut in der Cloud. Buzzwords wie Refactoring und Replatforming haben die eine oder andere Cloud-Ambition vorzeitig beendet und dem Management einen Schrecken eingejagt. Sogar soweit, dass kürzlich Amazon AWS damit anfing, die Software vielsprechender neuer Kunden in mühsamer Kleinarbeit an die eigene Cloud-Plattform anzupassen.

Red Hat OpenShift von IBM und „NewCo“

Im Oktober 2020 hat der blaue Riese mit dem Spin-Off des Service-Geschäfts in eine neue Geschäftseinheit, Codename NewCo, dem Exodus der Unternehmens-IT in die Cloud noch weiter Nachdruck verliehen. IBMs Kunden sollen so von der Mainframe in die Cloud „stolpern“, ohne es richtig zu merken. IBM will sie hier mit einer hybriden Cloud-Strategie über bestehende Hardware einbinden und so bis zum nächsten Upgrade-Zyklus bei der Stange halten.

Großunternehmen setzen laut Flexera-Report in ihren Cloud-Strategien im Jahre 2020 überwiegend auf die Multi-Cloud in einer hybriden Bereitstellung aus Private- und Public-Clouds.
Großunternehmen setzen laut Flexera-Report in ihren Cloud-Strategien im Jahre 2020 überwiegend auf die Multi-Cloud in einer hybriden Bereitstellung aus Private- und Public-Clouds.
(Bild: Flexera)

Mit der Akquisition des Linux-Pioniers Red Hat hat IBM eine sichere und moderne hybride Cloud-Plattform erworben: Red Hat OpenShift. IBM ließ sich den Zuschlag für die Linux-Schmiede satte 34 Milliarden US-Dollar kosten. Zum Vergleich: Das Hybrid-Cloud-Geschäft von IBM ist momentan gerade einmal 21 Milliarden US-Dollar schwer. Die Integration von OpenShift in IBMs Portfolio schreitet seither schnell voran. Der Turnaround-Plan konzentriert sich auf den Ausbau von Diensten rund um die Künstliche Intelligenz und das Cloud Computing – denn dort kann die Cloud ihre Stärken am meisten ausspielen.

Was Amazon mit Outposts, Microsoft mit Azure Stack und Google mit Anthos vorgemacht haben, möchte auch IBM seinen Kunden bieten können: eine schmerzfreie Auffahrt in die Cloud.

Ein „Außenposten“ für die Wolke

AWS Outposts ist Amazons Auffahrt in die Cloud. Auf Outposts können Unternehmen bereits direkt vor Ort einige AWS-Dienste ausführen und von hier aus die Cloud-Dienste ihrer AWS-Region in Anspruch nehmen. Bei AWS Outposts handelt es sich um ein vollständig verwaltetes Service-in-einem-Rack-System mit einer garantierten Leistung und Verfügbarkeit. Es setzt sich aus genau derselben Hardware zusammen, die in den Rechenzentren von AWS steht. Es nutzt genau dieselbe Kontrollebene, stellt dieselben APIs bereit und ist mit demselben SDK nutzbar wie die übrige AWS-Cloud.

AWS Outposts integriert sich in die Cloud-Region des Kunden als eine eigene Verfügbarkeitszone.
AWS Outposts integriert sich in die Cloud-Region des Kunden als eine eigene Verfügbarkeitszone.
(Bild: AWS)

Der Ansatz trumpft bei Workloads, die niedrigen Latenzzugriff auf On-Premises-Systeme, lokale Datenverarbeitung oder lokalen Datenspeicher benötigen und AWS-APIs aufrufen. Es lässt sich im unternehmenseigenen Rechenzentrum, bei einem Colocation-Anbieter oder an anderen geeigneten Standorten zum Beispiel in der Industrie installieren.

Outposts bietet Unternehmen eine voll verwaltete Rundumglücklich-Erfahrung. AWS-eigenes Personal rollt den Rack an seinen designierten Platz und führt die Installation der Komponenten durch. Der Nutzer muss nur noch die Stromversorgung anschließen, das Netzwerk verschalten und ab da nur für angemessene Kühlung sorgen. Die Inbetriebnahme eines Racks verkürzt sich so von den branchenüblichen 68 Wochen auf maximal vier Stunden.

Kunden mit Rund-um-Service rund-um-glücklich machen

AWS Outposts kann die Dienste Amazon EC2, Amazon EBS, container-basierte Services wie Amazon EKS, Datenbank-Services wie Amazon RDS und Analyse-Dienste wie Amazon EMR (Elastic Map Reduce) lokal ausführen und – seit Ende September 2020 – den begehrten Objektspeicher S3 bereitstellen. Das System erscheint in der AWS Management-Konsole als ein integraler Teil der AWS-Infrastruktur des Hyperscalers, obwohl es eigentlich beim Kunden steht; es ist eine Erweiterung der lokalen AWS-Region mit genau derselben Hardware und mit demselben AWS-Stack der Public-Cloud, jedoch mit klar definierten „Spielfeldgrenzen“ zur Gewährleistung von Isolation und damit der Cybersicherheit.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Der Architektur von AWS Outposts liegt eine AWS-eigene Hypervisor-Plattform namens Nitro zu Grunde. Das sogenannte Nitro System trennt die einzelnen Funktionsbereiche eines Hypervisors – die verschiedenen Aufgaben der Virtualisierung und der Cybersicherheit – und lässt sie in Isolation durch dedizierte Hard- und Software ausführen: die Nitro-Chips und den Nitro-Hypervisor. Bei den Nitro-Chips handelt es sich um I/O-Hardwarebeschleunigerkarten für VPC, EBS, den instanz-eigenen (lokalen) Datenspeicher sowie um den Nitro-Controller und den Nitro-Sicherheitschip. Der extrem leichtgewichtige Nitro-Hypervisor selbst braucht sich nur mit der Verwaltung von CPU-Zyklen und Adressen des Arbeitsspeichers zu befassen. Das Nitro-System in jedem Outposts-Rack verschlüsselt alle Daten im Ruhezustand. Der zugehörige Schlüssel wird auf einem externen Wechseldatenträger gespeichert. Das Zerstören des Geräts führt zur Vernichtung aller Daten.

AWS Outposts garantiert dem Kunden eine vorhersehbare Leistungsbereitschaft. Es bekommt dieselben Hardware- und Software-Upgrades und durchläuft dieselben Wartungsarbeiten durch, als ob es nicht vor Ort beim Kunden, sondern in einem Cloud-Rechenzentrum des Hyperscalers stünde. Denn die Outpost-Racks verwaltet Amazon. Amazons Personal überwacht die Dienstbereitschaft, aktualisiert die AWS-eigene Cloud-Plattformsoftware und führt an dem System auch all die sonstigen anfallenden Wartungsarbeiten durch. Droht der Ausfall einer Outposts-Komponente, schickt Amazon vorab die Ersatzteile und vereinbart mit dem Kunden einen Installationstermin. Der Benutzer muss jetzt nur noch die Tür öffnen; AWS-Techniker sorgen dann für die Rundumglücklich-Erfahrung. „[Der Kunde] braucht nicht den Finger zu krümmen, alles wird für ihn erledigt“, kommentiert Bob Ganley, Senior Consultant Product Marketing bei Dell EMC.

Microsofts Weg in die Wolke: Azure Stack Hub

Mit Azure Stack Hub, zuvor als Azure Stack bekannt, schuf Microsoft nicht nur eine Auffahrt zu Azure, sondern ein ganzes Ökosystem an Lösungen zur „Cloudifizierung“ unternehmenseigener IT.

Das Ganze setzt sich im Grunde genommen aus drei Hauptkomponenten zusammen:

  • Mit Azure Stack Hub können Unternehmen auf ihrer betriebseigenen IT-Infrastruktur eine eigene autonome Azure-Cloud aufsetzen, um in dieser lokalen Umgebung Cloud-native Azure-Apps unter Wahrung der eigenen Datenhoheit auszuführen.
  • Bei Azure Stack Edge handelt es sich im eine cloud-seitig verwaltete Edge-Appliance zur Bereitstellung von ML- und IoT-Workloads.
  • Eine hyperkonvergente Infrastruktur namens Azure Stack HCI unterstützt die Bereitstellung skalierbarer Virtualisierungsworkloads und skalierbaren Datenspeichers für lokale Hochleistungsworkloads.

In Microsofts Vision einer hybriden Cloud stellt Azure die zentrale Drehscheibe dar.
In Microsofts Vision einer hybriden Cloud stellt Azure die zentrale Drehscheibe dar.
(Bild: Microsoft)

Zur Verwirklichung seiner Vision der „Cloudifizierung“ der Unternehmens-IT hat sich Redmond für die Zusammenarbeit mit strategischen Infrastrukturpartnern entschieden. Neben Dell und HPE haben auch Unternehmen wie Cisco, Fujitsu, Lenovo und die Wortmann AG eigene von Microsoft zertifizierte Lösungen für den Azure Stack im Köcher. Diese Unternehmen bauen eigene Workload-gerechte Server-, Netzwerk- und Speicher-Stacks, mit denen unter anderem eine eingeschränkte Version der Kontrollsoftware von Azure auf einer im Rechenzentrum vor Ort bereitgestellten verwalteten Appliance mit dem Segen von Microsoft laufen soll.

Google sagt es „durch die Blume“

Googles Beitrag, eine Auffahrt auf die Cloud zu schaffen, taufte das Unternehmen auf den Namen Anthos (aus dem altgriechischen für „Blume“). Mit dieser Sammlung von Diensten schickt sich der Anbieter an, mit der eigenen Cloud-Plattform die Unternehmens-IT für die Cloud zu gewinnen.

Knapp daneben: Im Hinblick auf seine Popularität unter „hybridisierten“ public-cloud-fähigen Container-Orchestrierern schafft es Google immerhin auf den begehrten vierten Platz hinter AWS Outposts, Microsoft Azure Arc und Red Hat OpenShift von IBM, enthüllte im Herbst 2020 eine Umfrage von StackRox.
Knapp daneben: Im Hinblick auf seine Popularität unter „hybridisierten“ public-cloud-fähigen Container-Orchestrierern schafft es Google immerhin auf den begehrten vierten Platz hinter AWS Outposts, Microsoft Azure Arc und Red Hat OpenShift von IBM, enthüllte im Herbst 2020 eine Umfrage von StackRox.
(Bild: StackRox)

Die zentrale Drehscheibe von Anthos bildet Google Kubernetes Engine (GKE), Googles eigene Implementierung des Cluster-Orchestrierers Kubernetes. Anthos bietet darüber hinaus einen zentralen Konfigurationsverwaltungsdienst, Multicluster-Management-Tools, eine Serverless-Ausführungsumgebung, einen Service Mesh samt verwandter Funktionalität, Logging und Monitoring, einen Migrationsassistenten, Unterstützung für gesicherte Binaries und nicht zuletzt einen Marktplatz für Anwendungen. Damit sind alle Kernkomponenten von Google Anthos in GCP wie auch in On-Premises-Bereitstellungen nahezu gleichwertig (der Autorisierungsdienst für Binaries in der On-Premises-Variante liegt noch nicht in der finalen Fassung vor).

Auch wenn die Modernisierung von Altlasten-Anwendungen technisch möglich sein sollte, ist eine solche Lösung nicht immer auch wirtschaftlich. „Migrate for Anthos“ kann die Containerisierung von Altlasten-Anwendungen automatisieren und so die „Cloudifizierung“ vereinfachen. Mit dieser Lösung lassen sich existierende Arbeitslasten auf Container in einem sicheren verwalteten Kubernetes-Dienst migrieren. Doch nicht alle Workloads eignen sich für Container. Manchmal lohnt der Aufwand nicht. In diesem Fall lassen sich Workloads unverändert mit „Migrate for Compute Engine“ in die Google Cloud verlagern.

Fazit

Viele Wege führen schon in die Cloud, einige schneller als andere. Dank einer soliden „Auffahrt“ kann die Cloudifizierung der Unternehmens-IT leicht noch einen Zahn zulegen.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:47023500)