Suchen

Hybride Infrastrukturen Mit Anthos zur GCP für das eigene Rechenzentrum

Autor / Redakteur: Anna Kobylinska und Filipe Pereia Martins* / Ulrike Ostler

„Anthos“ ist der Versuch von Google, das Rechenzentrum zu virtualisieren. Mit dieser Sammlung von Diensten schickt sich der IT-Riese an, mit der hauseigenen Cloud-Plattform die Unternehmens-IT zu erobern. Was Anthos bringt und ob die Vorteile die Risiken überwiegen, darum geht es in diesem Bericht.

Firmen zum Thema

Nomen est omen? „Anthos“ (Blume) ist ein Stück des athenischen Dramatikers Agathon aus dem 5. Jahrhundert v. Chr. Das Stück ist verloren gegangen. Anselm Feuerbach stellt hier eine Szene aus Platons Symposium dar, in der der Tragiker Agathon den betrunkenen Alcibiades in seinem Haus empfängt.
Nomen est omen? „Anthos“ (Blume) ist ein Stück des athenischen Dramatikers Agathon aus dem 5. Jahrhundert v. Chr. Das Stück ist verloren gegangen. Anselm Feuerbach stellt hier eine Szene aus Platons Symposium dar, in der der Tragiker Agathon den betrunkenen Alcibiades in seinem Haus empfängt.
(Bild: CC BY / CC BY NaN)

Mit Anthos möchte Google eine einheitliche Managementebene für unternehmenseigene Anwendungen geschaffen haben, welche jede Bereitstellung standortagnostisch unter einen Hut bringen soll. Anthos ist als ein Versuch entstanden, die Kubernetes-Plattform der Wahl zu werden.

Anthos unterscheidet derzeit vier Arten von Bereitstellungen:

  • GCP („Google Cloud Platform“) in Google-eigenen Rechenzentren;
  • On-Premises: im eigenen Rechenzentrum oder in einer Edge-Bereitstellung des Anwenders;
  • Multicloud: auf AWS, Azure &Co.;
  • angehängte Cluster (Attached clusters) – noch weitgehend unfertig.

Die zentrale Komponente von Anthos bildet „Google Kubernetes Engine“ (GKE), die Google-eigene Implementierung des Cluster-Orchestrierers Kubernetes. Anthos bietet darüber hinaus einen zentralen Konfigurationsverwaltungsdienst, Multicluster-Management-Tools, eine Serverless-Ausführungsumgebung, einen Service-Mesh samt verwandter Funktionalität, Logging und Monitoring, einen Migrationsassistenten, Unterstützung für gesicherte Binaries und nicht zuletzt einen Marktplatz für Anwendungen. Damit sind alle Kernkomponenten von Google Anthos in GCP wie auch in On-Premises-Bereitstellungen nahezu gleichwertig. Der Autorisierungsdienst für Binaries in der On-Premises-Variante liegt allerdings noch nicht in der finalen Fassung vor.

Zur Ausführung in einem unternehmenseigenen Rechenzentrum setzte Anthos bisher „VMware vSphere“ mindestens in der Version 6.5 mit „vCenter“ und einen Lastverteiler wie beispielsweise mit „BIG-IP“ von F5 oder mit dem quelloffenen „Seesaw“ voraus. Als persistenter Speicher kommt „vSphere Storage“ zum Zuge.

Die Kunst der Anwendungsmodernisierung: Die Bausteine von „Google Anthos“ auf einen Blick.
Die Kunst der Anwendungsmodernisierung: Die Bausteine von „Google Anthos“ auf einen Blick.
(Bild: Google)

Im Wesentlichen bildet Anthos die Schlüsselkomponenten von GKE auf vSphere und F5 ab. Anstelle von VMs der Google Compute Engine kommen für Kubernetes Master- und Worker-Knoten vSphere-VMs zum Einsatz. Die Aufgaben des Cloud Load Balancers, der den Datenverkehr an die GKE weiterleitet, übernimmt der F5 oder ein gebündelter Lastverteiler auf der Basis des quelloffenen Seesaw.

vSphere Storage ersetzt GCE Persistent Disks. Anthos versteckt die Kontrollebene von Kubernetes auf eine Art und Weise, welche die GCP-Implementierung weitgehend nachahmt. Unternehmen können so den Lebenszyklus ihrer Workloads und deren Konfiguration in der GCP-Konsole verwalten. Die Abhängigkeit von VMware war Google natürlich ein Dorn im Auge.

Google Anthos auf Bare Metal

Inzwischen hat Google die Unterstützung für die Ausführung von Anthos auf Bare-Metal eingeführt und damit die Abhängigkeit von vSphere aufgehoben. Mit dem Wegfall des vSphere-Hypervisors entfällt nebenbei die Notwendigkeit für den Einsatz von VMware „vSphere ESXi“. Mit „Google Anthos for Bare Metal“ erübrigen sich nebenbei auch etwaige Updates von vSphere.

Bare-Metal-Support in Anthos eröffnet erstmals die Möglichkeit zur Bereitstellung von Diensten Googles hybrider Cloud-Plattform auf Edge-Infrastrukturen wie jene von 5G-Mobilfunkern oder in industriellen IoT-Umgebungen. Während bei neuen Workloads ein frischer Anfang viel leichter gelingt, stellen bestehende Workloads die eigentliche Herausforderung dar.

Gewinner und Verlierer: Nahezu jedes zweite Unternehmen nutzt (unter anderem auch) eine eigene Bereitstellung von Kubernetes, enthüllt Stackrox im Herbst 2020 unter Berufung auf eine Umfrage. Das entspricht einem Zuwachs von erstaunlichen 43 Prozent gegenüber dem Vorjahr.
Gewinner und Verlierer: Nahezu jedes zweite Unternehmen nutzt (unter anderem auch) eine eigene Bereitstellung von Kubernetes, enthüllt Stackrox im Herbst 2020 unter Berufung auf eine Umfrage. Das entspricht einem Zuwachs von erstaunlichen 43 Prozent gegenüber dem Vorjahr.
(Bild: Stackrox)

Containerisierung von Altlasten

Auch wenn eine Modernisierung von Altlasten-Anwendungen technisch möglich sein sollte, ist eine solche Lösung nicht immer auch wirtschaftlich sinnvoll. Manchmal ist der Aufwand, einen Workload manuell zu modernisieren, viel zu hoch. „Migrate for Anthos“ kann die Containerisierung von Altlasten-Anwendungen automatisieren und es lassen sich existierende Arbeitslasten zu Containern in einem sicheren und verwalteten Kubernetes-Dienst migrieren und modernisieren.

Doch nicht alle Workloads eignen sich für Container. Manchmal lohnt der Aufwand nicht. In diesem Fall lassen sich Workloads unverändert mit „Migrate for Compute Engine“ in die Google Cloud verlagern.

Die „Multi-Qual“

Unternehmen, die ihre Anwendungen sowohl on-premises im eigenen Rechenzentrum als auch in diversen Clouds ausführen lassen wollen, benötigen eine robuste Multicloud-Management-Lösung, die nicht an einen bestimmten Cloud-Anbieter gebunden ist. Mittlerweile haben die IT-Verantwortlichen die Qual der Wahl – die „Multi-Qual“.

Denn die Liste der Kubernetes-Implementierungen auf Google-fremden Plattformen liest sich wie das Who-is-Who der IT-Industrie:

  • Amazon EKS,
  • Amazon ECS,
  • Azure Kubernetes Service (AKS),
  • Red Hat Openshift von IBM und IBM Cloud Kubernetes,
  • VMware Tanzu,
  • Suse Rancher,
  • SAP Hana 2.0, Cloud Foundry und Kubernetes,
  • Mesosphere DC/OS Kubernetes und Marathon,
  • Docker Enterprise Container Cloud (eine Multi-Cloud-Kubernetes-Lösung von Mirantis).

Jeder Cloud-Anbieter, der etwas auf sich hält, hat inzwischen eine eigene Hybrid-Cloud-Lösung auf der Basis von Kubernetes im Köcher: Microsoft bietet etwa „Azure Stack Hub“ und „Azure Lighthouse“. Amazon hat „Outposts“.

Anthos will sich als eine Multicloud-Lösung mit Potenzial für die Reduktion von Betriebskosten und verbesserte Sicherheit einbringen. Google verweist hierbei auf eine Studie von Forrester Consulting mit dem Titel: „New Technology Projection: The Total Economic Impact of Anthos“.

Die Forrester-Studie aus dem Jahre 2019 ist zwar interessant, aber leider einseitig ausgefallen. Ein gewisser Interessenskonflikt ist hier nicht ganz von der Hand zu weisen, da die Studie ja eben von Google selbst in Auftrag gegeben wurde. Letzteres relativiert schnell den Wert der resultierenden Erkenntnisse. Mit einer Prise Salz ist die Studie gerade noch genießbar.

Knapp daneben: Im Hinblick auf seine Popularität unter „hybridisierten“ Public-Cloud-fähigen Container-Orchestrierern schafft es Google immerhin auf den begehrten vierten Platz hinter „AWS Outposts“, „Microsoft Azure Arc“ und „Red Hat Openshift“ von IBM, enthüllt im Herbst 2020 eine Umfrage von Stackrox.
Knapp daneben: Im Hinblick auf seine Popularität unter „hybridisierten“ Public-Cloud-fähigen Container-Orchestrierern schafft es Google immerhin auf den begehrten vierten Platz hinter „AWS Outposts“, „Microsoft Azure Arc“ und „Red Hat Openshift“ von IBM, enthüllt im Herbst 2020 eine Umfrage von Stackrox.
(Bild: Stackrox)

Eine aktuelle Umfrage von Stackrox zeichnet ein anderes Bild als jenes von Forrester. Die Marktanteile von Anthos sind momentan anscheinend im freien Fall begriffen.

Darum prüfe, wer sich bindet. Eine Entscheidung zugunsten der einen oder der anderen Lösung kann für Unternehmen in einer langfristigen Bindung ausarten. Darin besteht nämlich der wahre Reiz der „Altlasten-Modernisierung“ durch die Unternehmen aus Sicht der Cloud-Dienstleister.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).

(ID:46956164)