Verteilte Anwendungen verdanken ihre cloud-native Skalierbarkeit einem Orchestrierungsframework wie Kubernetes, welches für die reibungslose Konnektivität containerisierter Anwendungsarchitekturen einen robusten Service-Mesh in die Pflicht nimmt.
Mit Microsofts Open Service Mesh lassen sich Anwendungen mit Service-Mesh-Technologie verwenden, ohne sich an eine bestimmte Implementierung irreversibel binden zu müssen.
Zur Verwaltung verteilter Anwendungsinfrastrukturen durch einen Cloud-Orchestrierer ist ein leistungsstarker dynamischer Service Mesh unumgänglich (Service-Netz). Dabei handelt es sich um eine Virtualisierungsebene verteilter Konnektivität zur Gewährleistung kontinuierlicher Dienstverfügbarkeit.
Kubernetes setzt auf Istio, den quelloffenen Service Mesh von Google. Doch während der quelloffene Orchestrierer alle Rekorde der Popularität bricht, stößt sein Service Mesh Istio bei den Nutzern auf wenig Gegenliebe. Es sei zu kompliziert, zu umständlich und zu unflexibel.
Auf das richtige Pferd setzen
Das größte Problem besteht wohl aber auch darin, dass es schlicht zu viele ähnlich praxisfremde Lösungen gibt: Googles Istio, Open Source Linkerd, HashiCorp's Consul und experimentellere Tools wie das Aspen Mesh von F5. Azure Kubernetes Service vertraute bisher auf Istio, Linkerd oder Consul. Unternehmen tun sich also schwer, die für sie passende Wahl zu treffen und diese unternehmensweit zu standardisieren.
Googles Konzernzentrale bereut inzwischen die Übergabe von Kubernetes an die CNCF (Cloud Native Computing Foundation). Denn auf dem Kubernetes-Unterbau ist inzwischen eine ganze Industrie entstanden, welche dem Cloud-Riesen mehr geschadet als geholfen hat. Googles direkte Mitbewerber HPE, VMware, RedHat und SAP haben einen wesentlichen Teil ihres Geschäftes auf Kubernetes aufgesetzt und erwirtschaften damit beachtliche Umsätze, ohne dass Google jetzt davon profitieren kann.
Mit Istio möchte Google diesen Fehler nicht wiederholen. Istio entstammt genauso wie Kubernetes der Feder von Googles Ingenieuren und zählt zu den prominentesten Open-Source-Projekten aller Zeiten. Die hohe Popularität des cloud-nativen Orchestrierers hat auch Istio zu einer hohen Akzeptanz verholfen. Umso größer war die Empörung der Nutzer- und Entwicklergemeinde, als Google bei der schon lange geplanten Freigabe des Projektes an die CNCF plötzlich „kalte Füße“ bekam.
Aus der Sicht von Marktakteuren wie HPE (Ezmeral) und VMware (Tanzu) hat sich die Unsicherheit rund um Istio zu einem ernsthaften Problem entwickelt. Denn wer das Service Mesh kontrolliert, kontrolliert das gesamte Kubernetes-Ökosystem. Microsoft hält Googles Kontrolle über das Istio-Projekt ebenfalls für eine schlechte Idee und wertet die Zukunft der Software als ungewiss.
Microsofts Gegenoffensive
Als Antwort auf die Unsicherheit rund um die Governance von Istio hat Microsoft eine eigene quelloffene Service-Mesh-Implementierung in Googles eigener universellen cloud-nativen Sprache Go/golang entwickelt und im vergangenen August (2020) veröffentlicht. Microsofts Ingenieure haben es nicht dabei belassen, einen vermeintlich cloud-freundlicheren Service Mesh als Alternative zu Istio zu erfinden.
Redmond hat das Projekt unter eine Open-Source-Lizenz gestellt und die Kontrolle daran an dieselbe Cloud Native Computing Foundation (CNCF) übertragen, der Google sein Istio nicht mehr gönnen wollte, obwohl sie Kubernetes zum derart durchschlagenden Erfolg verholfen hatte. Die CNCF verantwortet somit sowohl die Entwicklung von Kubernetes als auch jene des Open Service Mesh und dürfte sich im Eigeninteresse um die reibungslose Integration der beiden Projekte kümmern, wenn auch zum Nachsehen von Google.
Die Architektur des Open Service Mesh.
(Bild: OSM)
Bei Microsofts Open Service Mesh handelt es sich um eine quelloffene Referenzimplementierung von SMI auf der Basis von OSM (Open Service Mesh). „SMI ist bei den Leuten sehr beliebt und wir dachten, dass das Ökosystem genug Raum für eine Referenzimplementierung von SMI hergibt, bei der die Mesh-Technologie in erster Linie diese SMI-APIs implementiert und sie für Kunden in ein bestmögliches [anbieter-agnostisches] Erlebnis verwandelt“, kommentierte Microsoft Gabe Monroy, Director of Partner Management für Azure Compute und CNCF-Vorstandsmitglied.
Google in der Defensive
Auf einen Blick: Schematische Darstellung der Funktionsweise des Service Mesh Controllers.
(Bild: OSM)
Bei SMI (kurz für Service Mesh Interface) handelt es sich um eine Sammlung von standardisierten portablen Schnittstellen für Service-Mesh-Dienste auf Kubernetes. SMI versteht sich als eine Sammlung von CRDs (Kubernetes Custom Resource Definitions) und Extension API Servern, die sich auf jedem Kubernetes-Cluster anbieter-agnostisch einrichten und mit Standardtools bearbeiten lassen. Auf diese Weise können Benutzer in ihren Anwendungen Service-Mesh-Technologie verwenden, ohne sich an eine bestimmte Implementierung irreversibel zu binden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
OSM implementiert das Service Mesh Interface (SMI) zum Absichern und Verwalten von Microservice-Anwendungen. Hierzu macht sich OSM ein Tool namens Envoy zu Nutze, welches genauso wie Kubernetes unter der Schirmherrschaft der CNCF entwickelt wird. Damit ist Microsoft ein schlauer Schachzug gelungen:
Sowohl OpenShift Kubernetes von Red Hat, HPE Ezmeral als auch VMware Tanzu Service Mesh nutzen Istio als eine Abstraktionsebene zum Verwalten von Microservices in Kubernetes-Workloads. Das OSM-Projekt baut auf den Ideen und Implementierungen vieler cloud-nativer Ökosystemprojekte auf, darunter Linkerd, Istio, Consul, Envoy, Kuma, Helm und die SMI-Spezifikation.
Die Steuerebene von OSM implementiert das xDS von Envoy und ist mit SMI-APIs konfiguriert. OSM fügt einen Envoy-Proxy als Sidecar-Container neben jeder Instanz einer Anwendung ein.
Die Datenebene (die Gruppe von Envoy-Proxys, die als Teil von OSM ausgeführt werden) führt Zugriffssteuerungsrichtlinien aus, implementiert die Routing-Konfiguration und erfasst Metriken. Die Steuerebene programmiert die Datenebene kontinuierlich, um sicherzustellen, dass Richtlinien und Routing-Regeln auf dem neuesten Stand sind und die Datenebene fehlerfrei funktioniert.
Stein des Anstoßes und Qual der Wahl
Zur Verwaltung des Zugriffs externer Nutzer auf die Dienste eines Kubernetes-Clusters dient in Kubernetes ein API-Objekt namens Kubernetes Ingres. Es stellt Routing-Tabellen für die regelbasierte Steuerung von Datenflüssen und Dienste wie die Lastverteilung bereit. Das Hauptproblem beim Einsatz des API-Objektes Kubernetes-Ingress liegt in der Tatsache, dass es nicht von der Istio-Steuerungsebene verwaltet werden kann, sodass Istio-Funktionen wie Routing-Regeln, verteilte Ablaufverfolgung, Telemetrie und Richtlinienprüfung beim Ingress nicht verfügbar sind.
Für den Einsatz mit Azure Kubernetes Service empfiehlt Microsoft derzeit nach wie vor Istio, Linkerd oder Consul. Dies ist nicht der einfachste Ansatz. Denn zum Verwalten des Service Mesh werden sowohl eine separate virtuelle Maschine als auch ein laufendes Kubernetes-Cluster auf AKS benötigt. SMI (Service Mesh Interface) soll das Problem lösen. Es stellt einen Standardsatz von Schnittstellen zum Verknüpfen von Kubernetes mit Service Meshes bereit. Azure unterstützt bereits SMI, da das Kubernetes-Team die Entwicklung geleitet hatte.
Fazit der Autoren
Ein leistungsstarkes Service-Mesh ist das ultimative Geheimrezept zur Gewährleistung elastischer Skalierbarkeit von Cloud-Anwendungen. Die quelloffene SMI-konforme Implementierung von Open Service Mesh von Microsoft löst für Cloud-Nutzer gleich zwei drückende Probleme: die zu hohe Komplexität bestehender Lösungen für die agile Bereitstellung verteilter containerisierter Microservices und die bisher unausweichliche Abhängigkeit des Orchestrierers von einer konkreten Service-Mesh-Implementierung.
* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).