Aus Kubernetes und Cloud-native Kapital schlagen Erfolgreich mit Containern von „Edge-to-Core-to-Cloud”

Autor / Redakteur: Thomas Di Giacomo* / Elke Witmer-Goßner

Kubernetes wurde erst 2015 eingeführt und ist in dieser relativ kurzen Zeit zum De-facto-Standard für Container-Orchestrierungs- und Managementsysteme geworden. Immer mehr Menschen sind Anhänger der Open Source-Technologie, denn Kubernetes und cloud-native Technologien decken ein breites Anwendungsspektrum ab.

Firma zum Thema

Aus Container-Technologie wie Kubernetes und anderen cloud-nativen Entwicklungen können Unternehmen „edge to core to cloud“ Kapital schlagen.
Aus Container-Technologie wie Kubernetes und anderen cloud-nativen Entwicklungen können Unternehmen „edge to core to cloud“ Kapital schlagen.
(Bild: gemeinfrei© Gerd Altmann / Pixabay )

Sie stellen ein solides und umfassendes Konstrukt für unzählige Open-Source-Innovationen dar und eröffnen neue Möglichkeiten wie eine Optimierung des Entwickleralltags und die Vereinfachung von Geschäftsanwendungen. Sie verbinden verschiedene Arten von Infrastrukturen und fügen neue Fähigkeiten für KI und maschinelles Lernen hinzu.

Für viele CIOs ist Kubernetes deshalb das Container-Management-System der Wahl. GitHub zählt bald 70.000 Kubernetes-bezogene Einträge – und diese Zahlen wachsen mit der raschen Ausweitung des Kubernetes-Einsatzes in Unternehmen und in neuen Anwendungsbereichen wie dem Edge Computing.

Denn Kubernetes bietet zahlreiche Vorteile, insbesondere bei der Unterstützung von DevOps. Die Technologie gewährleistet ein schnelles, einfaches Management sowie eine logische Organisation von in Containern angelegten Anwendungen und Diensten. Außerdem können viele operative Aufgaben automatisiert werden, wie etwa Skalierung und Sicherstellen der Hochverfügbarkeit. Die durchgängige Verfügbarkeit von Kubernetes-Service-Angeboten bei Cloud-Anbietern und die Portabilität der Container selbst kann theoretisch sogar für Unternehmen die Grundlage bilden, die anfallenden Workloads zwischen verschiedenen Providern hin und her zu bewegen.

Kubernetes ist entscheidend für die Innovationsförderung

Die zunehmende Beliebtheit belegt auch eine globale Studie, die SUSE bei Insight Avenue, einer unabhängigen Marktforschungsagentur, in Auftrag gegeben hat. Darin wurde untersucht, wie IT-Verantwortliche mit den heutigen Herausforderungen umgehen. Die Studienergebnisse zeigen, dass die Menge an durchschnittlichen containerisierten Produktionsworkloads innerhalb der nächsten zwei Jahre um über 20 Prozent ansteigen wird. Die erhöhte Nachfrage nach Containerisierung geht einher mit einem gesteigerten Interesse an Container-Orchestrierung. Sie ist ein Indiz für die fortgeschrittene Entwicklung in den Unternehmen, die vermehrt auf cloud-native Lösungen setzen.

Kurz gesagt, Kubernetes ist für Unternehmen, die jetzt und in Zukunft Innovationen vorantreiben wollen, von wesentlicher Bedeutung. Das Open-Source-System spielt eine entscheidende Rolle, wenn es darum geht, Unternehmen dabei zu unterstützen, ihre Anwendungsbereitstellung mit Workloads in containerisierten und cloud-nativen Umgebungen zu beschleunigen. Mit dem Aufkommen von Edge Computing und Hybrid Cloud entstehen neue Bedürfnisse: Laut Insight Avenue Research erwarten IT-Verantwortliche einen spürbaren Unterschied für den Erfolg ihres Unternehmens, durch die Einführung von IoT (82 %), Edge Computing (80 %) oder Open Source (70 %).

In die Zukunft mit „Edge-to-Core-to-Cloud“

Edge Computing wird heute in diversen Branchen genutzt – und das bringt eine Vielzahl an Applikationen mit sich. Edge Computing – wie Cloud oder Core Computing – erfordert eine Infrastruktur, Daten- und Anwendungsverwaltung sowie eine nahtlose Integration mit On-Premises, privaten Rechenzentren und Public Clouds. Auch wenn der „As-a-Service“-Ansatz von Clouds und der gerätebasierte Ansatz von Edge Computing zunächst sehr unterschiedlich erscheinen mögen, so sind sie doch eng miteinander verbunden und abhängig voneinander.

Intelligente, selbstfahrende Autos sind ein sehr gutes Beispiel für einen Anwendungsfall von „Edge-to-Core-to-Cloud“. Ausgestattet mit Sensoren und Recheneinheiten, sind diese Fahrzeuge die Endpunkte der Edge-Architektur in einem weit verteilten Gesamtsystem. Diese intelligenten Autos erzeugen riesige Datenmengen: Ein Teil davon wird lokal verarbeitet, denn bei jeder Art von Reaktion in Fahrsituationen wären Zeitverzögerungen eine große Gefahr. Andere Daten werden zurück in die Rechenzentren der Automobilhersteller übermittelt – On-Premises oder in Colocation-Rechenzentren –, um dort gespeichert, gefiltert, verarbeitet und analysiert zu werden. Dieses System ist keine Einbahnstraße, weil auch das Fahrzeugsystem Aktualisierungen und Anweisungen aus dem Rechenzentrum benötigt und bekommt. Außerdem vernetzen sich die Public Clouds, die zentralisierte Daten- und Endbenutzer-Anwendungen beinhalten, mit den Fahrzeugen.

Obwohl es in diesem Szenario mit Fahrzeugen, Rechenzentren und Clouds offensichtliche Akteure gibt, dürfen wir die wichtigste und weitumfassendste Grundlage nicht vergessen: Die Menschen, Lösungen und Prozesse, die den gesamten Vorgang erst zum Laufen bringen. Es gibt aktive Benutzer sowie IT- und Entwicklerteams, die Tools zur Verwaltung von Anwendungen, Daten, Infrastruktur, Sicherheit und Observability nutzen. Diese Akteure erwecken das gesamte System zum Leben und sorgen für den notwendigen Support für alle Komponenten.

Open Source vereint Kubernetes und Edge Computing

Natürlich können Edge-Computing-Netzwerke sehr schnell sehr groß werden und verschiedene Arten von Clouds und Infrastrukturen umfassen. Aber es gibt Open Source-Projekte wie K3s und KubeEdge, die es Anwendern ermöglichen, Kubernetes in Edge-Umgebungen zu nutzen. Darüber hinaus gibt es cloud-native Technologien, mit denen Anwender das gesamte Ökosystem über Multi-Cloud-, Multi-Cluster-, einschließlich Edge- und Management-Fähigkeiten steuern können.

Thomas Di Giacomo, SUSE.
Thomas Di Giacomo, SUSE.
(Bild: Kurt Rebry Photo/SUSE)

Diese „Edge-to-Core-to-Cloud“-Technologie kann auch in anderen Branchen wie beispielsweise im Einzelhandel oder im Gesundheitswesen Anwendung finden. Doch unabhängig von der Branche – eine Voraussetzung gilt für alle Anwendungsfälle: Edge Computing erfordert eine integrierte Infrastruktur, die sich von Edge über Core bis hin zur Cloud erstreckt. Cloud-native Technologien sind von zentraler Bedeutung und werden heute für das Edge Computing angepasst und eingesetzt. Am wichtigsten ist, dass all diese Fortschritte Kubernetes und andere cloud-native Projekte zu einer einheitlichen Plattform werden lassen, die Edge Computing für den erfolgreichen Einsatz in Unternehmen einfach nutzbar macht.

* Der Autor Thomas Di Giacomo ist President of Engineering and Innovation bei SUSE.

CLOUD NATIVE Virtual Conference

Die Vogel IT-Akademie veranstaltet am 28. Januar 2021 gemeinsam mit Crisp Research die „CLOUD NATIVE Virtual Conference“. Hier beleuchten Cloud- und DevOps-Experten das Thema „Cloud native“ in zwei parallelen Tracks von allen Seiten.

Leser von CloudComputing-Insider sind herzlich dazu eingeladen, im Januar kostenlos teilzunehmen. Interessierte finden auf CloudNativeConference.de weitere Informationen, hier für Kurzentschlossene der direkte Anmeldelink.

(ID:47049192)