Virtualisierung auf dem Weg zur Meisterschaft Alles virtuell, oder?

Autor / Redakteur: Jochen Puls, adesso* / Elke Witmer-Goßner

Auf den ersten Blick ist Virtualisierung simpel. Ein Server eben, der nur ein Stück Software ist, anstatt Blech. Doch ganz so einfach ist es in Wirklichkeit nicht. Wenn man etwas genauer hinschaut stellt man fest, dass es eine ganze Reihe von Unterschieden gibt. Verschiedene Hypervisor-Typen, Server-, Desktop- und Anwendungsvirtualisierung, bis hin zum dynamischen Datacenter.

Firmen zum Thema

Virtualisierung ist in Wirklichkeit ein sehr vielschichtiger Prozess von der einfachen Anwendung bis hin zu dynamischer IT.
Virtualisierung ist in Wirklichkeit ein sehr vielschichtiger Prozess von der einfachen Anwendung bis hin zu dynamischer IT.
(Bild: Adesso)

Laut Definition wird bei der Virtualisierung ein Software Layer zwischen die Hardware und die produktive Software gelegt, um den Betrieb unterschiedlicher Betriebssysteme und Applikationen ohne Abhängigkeiten, nebeneinander auf einem Hostsystem zu ermöglichen. Typ-1- oder Bare-Metal-Hypervisoren haben diese zusätzliche Software-Schicht direkt auf der Hardware implementiert. Zum Beispiel Microsoft Hyper-V, VMware ESX oder Citrix Xen ermöglichen so den Aufbau der technischen Struktur in zwei grundsätzlich unterschiedlichen Versionen.

Bei monolithischen Typ-1-Hypervisoren wie dem ESX werden die angepassten Treiber für die unterstützten Betriebssysteme direkt mit in den Hypervisor eingebaut, was voraussetzt, dass die Treiber schon bei der Erstellung der Hypervisor-Software zur Verfügung stehen. Bei Microkernel-Hypervisoren wie dem Hyper-V läuft eine zusätzliche Virtuelle Maschine neben den eigentlich zu hostenden Systemen und übernimmt die Verwaltungsaufgaben. Unter anderem werden in dieser die Treiber verankert, was es ermöglicht, auch nachträglich noch neue Treiber einzubinden und weitere neue Betriebssysteme zu hosten.

Typ-2- oder Hosted-Hypervisoren implementieren die zusätzliche Software-Schicht oberhalb des Betriebssystems als eigenständige Applikation, in der weitere Betriebssysteme installiert werden können. Der Vorteil von zum Beispiel VMware Workstation oder Microsoft Virtual PC ist die einfache Bereitstellung. Der Nachteil liegt in der vergleichsweise geringen Performance.

Je nach Aufgabenstellung gibt es trotzdem für beide Hypervisor-Versionen immer noch Anwendungsbereiche. Man kann etwa sehr schnell einen Typ-2-Hypervisor wie Oracles Virtual Box kostenfrei herunterladen, installieren und mal eben eine neue Software für Windows in einer virtuellen Maschine installieren, ohne das eigentliche System zu beeinflussen: Insbesondere in zentral verwalteten Umgebungen eine nützliche Variante.

Virtualisieren lässt sich somit heute fast alles wenn es vorteilhaft erscheint, vom Server über Client Desktops bis zu einzelnen Anwendungen. Aber damit nicht genug. Virtualisierung ist in verschiedenen Ausprägungen eine Grundvoraussetzung für dynamische Rechenzentren und Cloud-Systeme. Mit Virtualisierung lassen sich also unterschiedliche Zwecke verfolgen. Dies sollte auch immer der Ausgangspunkt für die Überlegungen hinsichtlich des Nutzens, der TCO und des ROI sowie der Art des Virtualisierungssystems sein.

Ein wenig anders betrachtet lassen sich verschiedene Virtualisierungsmethoden nach ihrem Zweck wie folgt gliedern:

  • Server-Virtualisierung dient der Konsolidierung der Rechenzentrumsinfrastruktur. Die häufig auf Spitzenlasten ausgelegten Infrastrukturen langweilen sich im Normalbetrieb und sind somit häufig ineffizient und teuer. Die Virtualisierung mittels Hyper-V oder ESX verbessert TCO und ROI enorm und reduziert den Energieverbrauch. Die Einführung rechnet sich häufig nach kürzester Zeit.
  • Virtuelle Desktopumgebungen (VDI) können Desktops für Office Mitarbeiter per „Streaming“ bereitstellen. Dabei werden die Systeme im Rechenzentrum installiert und der Nutzer kann auch mit älterer Hardware aktuelle Software nutzen. Bereits abgeschriebene PCs können noch etwas länger betrieben werden, sofern Technik und Support mitspielen. Mobile Mitarbeiter oder externe Kräfte können über Gateways ebenfalls am VDI teil haben. Dabei ist aber der Einsatz von Roaming-User-Profilen und zwischengespeicherten Inhalten fast zwingend wegen geringerer Bandbreiten notwendig. VMware View oder Microsoft Remote Desktop Services ermöglichen die komplette Desktop-Nutzung (fast) überall.
  • Applikationsvirtualisierung mit Microsoft App-V oder VMware Thin App kann einzelne Anwendungen zum Anwender „streamen“. Somit lassen sich auch ältere Anwendungen wie beispielsweise Emulationen für Mainframe-Rechner weiter nutzen, oder komplexe Installationen vermeiden, wenn temporär ein Mitarbeiter auf SAP-Systeme zugreifen muss. Dass ein Anwender mit einer so bereitgestellten Software arbeitet, ist für ihn inzwischen häufig nicht einmal mehr ohne weiteres feststellbar.
  • Testumgebungen oder „Sandboxen“ lassen sich schnell und häufig auch kostenfrei lokal mit Typ-2-Hypervisoren installieren, um neue oder alternative Software auszuprobieren. Dies entlastet auch den IT Support, welcher nicht ständig Alternativen installieren oder entfernen muss.

Allen Vorteilen zum Trotz, dürfen die höheren Anforderungen an zusätzliche Management-Prozesse im Rechenzentrum nicht außer Acht gelassen werden. Um die notwendigen Abläufe zu etablieren, muss zur Bereitstellung und Überwachung Software wie etwa VMware Operations Management Suite oder Microsoft System Center Suite 2012 eingeführt werden. Eine manuelle Steuerung ist bei hohen Anwenderzahlen und wachsenden Sicherheitsanforderungen wie SAX 3 nicht mehr möglich.

Evolutionär betrachtet kann ein Rechenzentrum in mehrere Phasen eingeteilt werden. Basis-Rechenzentren sind reine Ansammlungen von IT-Systemen, bei denen unterschiedlichste Software ohne Ordnung von Hand konfiguriert wird. Eine Virtualisierung ist nur punktuell möglich. Teilweise Automatisierung und die Einführung von Standardsystemen führen zu verbesserten Abläufen. In standardisierten Rechenzentren kann gruppenweise virtualisiert werden. Werden jetzt noch Kosten optimiert und dazu das Sicherheitssystem vorausschauend eingesetzt, kann man von einem rationalisierten Rechenzentrum sprechen. Hier lassen sich effiziente Virtualisierungsmethoden finden.

Der letzte Schritt führt zum dynamischen Rechenzentrum. Alle, nicht nur die virtualisierten, Services sind messbar, nachprüfbar und vollautomatisiert. Die hochausfallsicheren Services richten sich nach strategischen Geschäftsbedürfnissen. Die virtualisierten Systeme können per Workflow bereitgestellt oder entfernt werden und Endanwender sind in der Lage sich selbständig über Service-Portale Software zu installieren oder Rechnerressourcen zu beschaffen.

Um dies zu realisieren und die vorab beschriebenen Themenbereiche abzudecken und miteinander zu verknüpfen, wird sozusagen der gesamte IT-Betrieb virtualisiert, nicht mehr nur eine einzelne Komponente. Alle Bereiche des Rechenzentrums werden um eine logische Schicht erweitert und zusammengefasst, um eine möglichst einheitliche Verwaltung zu ermöglichen.

Dies ermöglicht dann auch die momentan letzte Form der Virtualisierung. Die flexible Anbindung externer Ressourcen, also die Bereitstellung von Hybrid-Cloud-Lösungen zum Hosten von Applikationen und Servern im eigenen und gleichzeitig in entfernten, gekoppelten Rechenzentren oder in der Public Cloud. Beispiele hierfür sind wieder die VMware vCloud Suite und das Microsoft-System Center Suite 2012. Je nach Bedarf lassen sich so virtuelle Testgeräte ad-hoc in Microsoft Azure bereitstellen oder zusätzlicher Speicherplatz von Google oder Amazon für den Endbenutzer transparent anbinden. Die Grenzen der Technik werden hierbei fließend, die rechtlichen und prozessualen sind es nicht immer. Aber selbst das lässt sich einbeziehen.

Jochen Puls, adesso AG.
Jochen Puls, adesso AG.
(Bild: Adesso)
* Jochen Puls ist als Consultant bei der adesso AG tätig und hat in unterschiedlichen Kundenprojekten die Rolle als IT-Architekt, Projektmanager und Leiter technische Implementierung wahrgenommen.

(ID:37320190)