Container-Virtualisierung Post-Virtualisierung vorerst abgesagt?
Mit dem großen Erfolg der Container in den vergangen zwei Jahren, beschwören einige bereits das Ende der Virtualisierung. Zwar haben Container viele Vorteile gegenüber virtuellen Maschinen, doch noch ist es zu früh, das Ende der klassischen Virtualisierung auszurufen. Ein Kommentar von Peter Wurbs, Senior Solutions Consultant bei Nexinto.
Anbieter zum Thema

Container sind an sich bereits etwas in die Jahre gekommen, doch Docker staubte ab, brachte eine Plattform für einfacheres Container Management auf den Markt und löste in den vergangen anderthalb Jahren einen regelrechten Boom in der Szene aus. Vielleicht sogar ein Erdbeben?
Immerhin brachten Docker, CoreOS und neue auftretende Container Services wie „Mesos“ oder „Rocket“ große Player wie Microsoft und VMware in Zugzwang, sich mit der leichtgewichtigen Alternative zur virtuellen Maschine auseinanderzusetzen. Erst vor Kurzem integrierte Microsoft den Service „Docker Datacenter“, um das Verwalten von Containern über „Azure“ und „Azure Stack“ zu ermöglichen. VMWare hatte bereits mit dem eigenen Betriebssystems „Photon OS“ für die Linux Distribution vorgelegt. Vereinzelt werden bereits Stimmen laut, die das Ende der Hypervisor-basierten Virtualisierung vorhersagen und den Beginn einer neuen Epoche: die Post-Virtualisierung.
Schneller, leichter - unabhängig
Im Vergleich kommen Container mit einigen Vorzügen daher: Sie starten schneller als virtuelle Maschinen, erzeugen einen geringeren Overhead und vereinfachen die Portabilität von Applikationen durch ihre Unabhängigkeit. Gerade letzter Punkt ist ein Vorteil, den Hypervisor-Technologien noch nicht vollständig erbracht haben.
Nach wie vor gibt es im Fall von Hybrid und Multi Clouds keine durchgängigen Strategien, wie diese Modelle über Hypervisoren unterschiedlicher Hersteller hinweg reibungslos funktionieren. Daher wählen die meisten Cloud-Verantwortlichen häufig noch immer den gleichen Hersteller oder suchen Provider, die den gleichen Hypervisor einsetzen, wenn sie eine Hybrid Cloud aufbauen wollen.
Um den so entstehenden Vendor-Lockin zu umgehen, gibt es noch die Alternative, seine Wolken mit quelloffenen Lösungen wie etwa OpenStack selbst zusammenzustellen. Sich in die Technologie und einzelnen Module hineinzuarbeiten, bedeutet für Unternehmen wiederum enormen zusätzlichen Aufwand.
:quality(80)/images.vogel.de/vogelonline/bdb/983600/983639/original.jpg)
Container-Technologien - von Docker-Engines bis Kubernetes (K8s)
Grundlagen der Container-Virtualisierung
Bei Containern ist das wesentlich unkomplizierter: Hier reicht beispielsweise weitestgehend ein Docker-Agent als Verbindung zum Host-Betriebssystem aus. Hypervisor und der Provider spielen keine Rolle. Das Betriebssystem muss nur einfachen Anforderungen genügen.
Zusätzlich gibt es heute Tools wie „Rancher“, „Mesosphere“ oder „Panamax“, die die Verwaltung von Containern automatisieren und vereinfachen. Eine Vielzahl von Containern unter Beachtung von Abhängigkeiten bedarfsgerecht auf Hosts zu verteilen, ist auf diese Weise weitaus einfacher als die Administration virtueller Maschinen. Die Mobilität von Containern erleichtert es ungemein, in Containern verpackte Applikationen zwischen verschiedenen Plattformen oder Providern hin und her zu bewegen.
Neue Ebene der Virtualisierung, aber kein Ersatz
Dennoch kann von einer Post-Virtualisierung noch keine Rede sein. Klassische Virtualisierung hat den Vorteil einer hochverfügbaren Infrastruktur, die wiederum Container aktuell so nicht abbilden. Container nutzen virtualisierte Server als hochverfügbare Laufzeitumgebungen (Hosts). Somit ergänzen sich beide Technologien.
Auch gibt es Applikationen und Dienste, die sich nicht für Container-Virtualisierung eignen. Container sind beispielsweise für Mikroservices ideal, während monolithisch entwickelte, komplexe Applikationen innerhalb einer VM besser aufgehoben sind. Server mit Datenpersistenz (Datenbanken, Sessions, Business Logic) werden derzeit weiterhin als klassische virtueller Server realisiert, denn von Haus aus verlieren Container nach ihrem Ende ihre Daten.
Ein weiterer wichtiger Faktor, der für klassische Virtualisierung spricht, ist die Sicherheit. Container punkten als schnelle Leichtgewichte mit einer guten Performance. Demgegenüber kommt die VM zwar etwas träge daher, hat in Sachen Security aber die Nase vorn. So bieten Hypervisoren weniger Angriffsfläche als der typische Linux-Kernel. Ist der Kernel kompromittiert, sind in der Regel alle an ihn geknüpfte Container betroffen. Durch die Isolation einzelner VMs bringen sie allgemein ein höheres Level an Sicherheit mit.
Auf dem Weg zur partiellen Post-Virtualisierung
Aktuell entscheidet also eher der Anwendungsfall, welche Form der Virtualisierung sich am besten eignet. Daher haben beide Technologien in der Kombination ihre Stärken.
Wenn sich die Branche in Richtung Post-Virtualisierung bewegt, dann geht diese Entwicklung allerdings nicht nur von den Containern, sondern auch vom Cloud-Einsatz selbst aus. Cloud User werden in naher Zukunft selbst keine eigenen Server mehr betreiben, da Provider alle notwendigen Services, vom Server abstrahiert, aus der Wolke anbieten (PaaS, SaaS). Unternehmen stellen sich dann komplette Business-Prozesse ausschließlich aus Services in der Cloud zusammen, ohne direkt Infrastruktur managen zu müssen. Lediglich die Cloud Provider betreiben dann noch eigene Server.
Ein IDC-Bericht belegt: Bis 2019 steigen die weltweiten Ausgaben für öffentliche Cloud-Services pro Jahr um ein Fünftel. In dieser Zeit entfallen mehr als zwei Drittel der Ausgaben auf Software as a Service. Gleichzeitig steigt für den Bereich Plattform as a Service das Wachstum jährlich um 30,6 Prozent. Wir befinden uns also bereits mitten auf dem Weg zu einer partiellen Post-Virtualisierung.
* Peter Wurbs ist Senior Solutions Consultant bei Nexinto.
(ID:44230779)