Definition: Virtualisierung von Servern, Betriebssystemen, Speichern und Netzwerken

Was ist Virtualisierung?

| Autor / Redakteur: Stefan Luber / Florian Karlstetter

Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten.
Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Die Virtualisierung abstrahiert IT-Ressourcen durch das Einfügen einer zusätzlichen Ebene zwischen Anwendung und Hardware. Dadurch ist es möglich, Services, Betriebssysteme oder Hardware zu emulieren und virtuell bereitzustellen. Für den Anwender verhält sich das virtuelle Objekt wie ein dediziertes Hard- oder Softwareobjekt.

Die Virtualisierung ist ein wichtiges Konzept der IT. Durch das Einfügen einer Abstraktionsschicht zwischen physikalischen Ressourcen und der Anwendung lassen sich Geräte, Betriebssysteme oder Services virtuell nachbilden. Vorhandene Ressourcen sind besser ausnutzbar und mehrere virtuelle Rechner oder Betriebssysteme innerhalb eines physikalischen Systems betreibbar. Virtualisierung ist für Hardware, Software und Netzwerkfunktionen möglich.

Für den Anwender bestehen keine Unterschiede in der Nutzung von physikalischen oder virtuellen Services. Die virtuellen Rechner, Ressourcen oder Betriebssysteme verhalten sich nach außen hin wie ihre echten physischen Pendants. Der Abstraktions-Layer entkoppelt die virtuellen Systeme untereinander und vom eigentlichen Wirtssystem. Obwohl virtuelle Systeme gleiche Hardwareressourcen nutzen, sind sie für verschiedene Anwender untereinander komplett getrennt. IT-Komponenten, die sich virtualisieren lassen, sind beispielsweise:

  • Server
  • Betriebssysteme
  • Applikationen
  • Speicher
  • Desktopsysteme
  • Netzwerke

Grundbegriffe der Virtualisierung

Um das Funktionsprinzip und die Konzepte der Virtualisierung zu verstehen, sind zunächst einige wichtige Grundbegriffe wie Gast, Wirt, virtuelle Maschine oder Hypervisor zu erklären. Zur Unterscheidung von echten und virtuellen Systemen wurden die beiden Begriffe Gast und Wirt (Host) eingeführt. Das Wirtssystem stellt die echten Ressourcen zur Verfügung und kann verschiedene Gastsysteme (virtuelle Systeme) ausführen.

Eine virtuelle Maschine ist eine in sich abgeschlossene Softwareeinheit auf einem Host, die die Installation eines eigenen Betriebssystems zulässt. Die virtuelle Maschine simuliert gegenüber dem Betriebssystem eine echte Hardwareumgebung und trennt Zugriffe zwischen verschiedenen virtuellen Maschinen strikt. Je mehr virtuelle Maschinen auf einem Hostsystem betrieben werden, desto weniger Ressourcen stehen für einzelne virtuelle Maschinen zur Verfügung. CPU, Arbeitsspeicher, Grafikleistung und Schnittstellen sind vom Betriebssystem innerhalb der virtuellen Maschine nicht direkt, sondern nur über die im Hintergrund laufende Virtualisierungssoftware ansprechbar.

Oft übernimmt ein sogenannter Hypervisor die Aufgabe der Virtualisierungssoftware. Er benötigt für seine Arbeit selbst nur einen kleinen Teil der Hardwareressourcen. Der Hypervisor erstellt und verwaltet die virtuelle Hardware. Hierfür bietet er den virtuellen Maschinen Standard-Schnittstellen an.

Die verschiedenen Arten der Virtualisierung

Grundsätzlich ist bei der Virtualisierung zwischen Software- und Hardwarevirtualisierung zu unterscheiden. Die Softwarevirtualisierung lässt sich nutzen, um eine Anwendung oder ein Betriebssystem auf einem Hostsystem bereitzustellen. Bei der Hardwarevirtualisierung werden virtuelle Hardware-Ressourcen wie CPU oder Speicher bereitgestellt.

Unterarten der Virtualisierung sind:

  • die Servervirtualisierung
  • die Betriebssystemvirtualisierung
  • die Netzwerkvirtualisierung
  • die Speichervirtualisierung
  • die Desktopvirtualisierung

Die Servervirtualisierung gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Alle auf einem physischen System realisierten virtuellen Server teilen sich die physischen Ressourcen und ermöglichen eine effizientere Auslastung der Hardware. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich, solange genügend physische Ressourcen verfügbar sind. Bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden.

Durch die Betriebssystemvirtualisierung sind auf einem Host-Betriebssystem andere Betriebssysteme parallel ausführbar. So lässt sich Windows auf einem Linux-Rechner oder umgekehrt Linux auf einem Windows-Rechner betreiben.

Die Netzwerkvirtualisierung trennt die Netzwerkfunktionen von den physischen Systemen. Die Anzahl an physischen Systemen wie Router oder Switche reduziert sich, da sie auf gemeinsamen Hostsystemen virtuell bereitgestellt sind. Das Software-defined Networking (SDN) erreicht einen hohen Grad der Virtualisierung und trennt die Netzwerksoftware vollständig von der Netzwerkhardware.

Speichervirtualisierung ist die virtuelle Bereitstellung von Speicherplatz, der sich über mehrere physische Storage-Geräte erstreckt. Für die Anwendung ist nicht ersichtlich, auf welchem physischen System die Daten abgelegt sind. Sie spricht nur den virtualisierten Speicher an. Die Virtualisierungssoftware sorgt für die physikalische Speicherung der Daten.

Ziele und Vorteile der Virtualisierung

Wichtigste Ziele der Virtualisierung sind die virtuellen Systeme von der Hardware zu entkoppeln und die zur Verfügung stehenden Ressourcen besser auszunutzen. Mehrere virtuelle Systeme teilen sich die zugrundeliegenden Ressourcen und schaffen die Grundlage für ein einfaches Skalieren der IT. Virtualisierung von Ressourcen wie Speicher, Server oder Netzwerke sorgt für höhere Effizienz und Kosteneinsparungen. IT-Ressourcen lassen sich schnell und mit geringem Administrationsaufwand virtuellen Umgebungen zuweisen ohne neue Hardware in den einzelnen Systemen installieren zu müssen. Die virtuellen Systeme sind im Bedarfsfall einfach auf andere physikalische Hostsysteme migrierbar und im Fehlerfall schnell wiederherstellbar.

Anwender eines virtuellen Desktops können überall auf ihren Arbeitsplatz zugreifen. Für Administratoren ergibt sich der Vorteil, vorkonfigurierte Desktopsysteme ohne großen Aufwand zentralisiert bereitzustellen und die Anzahl physischer Desktops zu reduzieren. Durch die Speicherung der Desktops inklusive Anwendungen und Betriebssystem in Dateien sind die virtuellen Maschinen einfach zu kopieren, zu verschieben und wiederherzustellen.

Die Abstraktionsschicht trennt Hardware vom virtuellen System und ermöglicht es IT-Verantwortlichen, frei zu wählen, welche Hersteller eingesetzt werden. Ein weiterer Vorteil ist, dass unterschiedliche Testumgebungen auf einem Hostsystem abbildbar sind. Die Umgebungen sind voneinander getrennt, komfortabel speicherbar und standardisierte Testbedingungen lassen sich einfach herstellen.

Virtualisierte Rechenzentrumsumgebungen sparen Energie, da die virtuellen Systeme die physikalische Hardware wesentlich effizienter auslasten.

Technische Umsetzung der Virtualisierung

In der Regel trennt eine Software (Hypervisor) die virtuellen Systeme von den physischen Ressourcen. Je nach Art des Hypervisors kann er direkt auf der Hardware oder auf einem beliebigen Betriebssystem aufsetzen. Der Hypervisor gestattet die Aufteilung der Ressourcen auf die virtuellen Systeme. Hierfür partitioniert er die Ressourcen und verhindert einen direkten Zugriff der virtuellen Maschinen. Die eigentlichen virtuellen Systeme laufen in den virtuellen Maschinen. Sie funktionieren wie Dateien und sind von einem Hostsystem auf eine anderes kopierbar.

Beispielhafte Anwendungsbereiche der Virtualisierung

Die Virtualisierung ist in vielen Bereichen einsetzbar. So können Entwickler ihre Programme in virtuellen Betriebssystemen ausgiebig testen, ohne produktive Umgebungen zu stören. Sollen zwei Anwendungen auf einem Rechner ausgeführt werden, die untereinander nicht kompatibel sind, bietet die Virtualisierung eine geeignete Lösung.

Service Provider virtualisieren ihre IT-Umgebungen, um schnell und flexibel auf Kundenanforderungen zu reagieren und die gewünschten Services quasi online bereitzustellen. Gleichzeitig sind die Systeme besser ausgelastet, leichter zu managen und bieten eine höhere Verfügbarkeit, Stabilität und Sicherheit. Die Desktopvirtualisierung stellt standardisierte Arbeitsplätze zur Verfügung, auf die über das Netzwerk von überall zugegriffen werden kann. Die Daten bleiben auf den Systemen zentral gespeichert und sorgen für ein hohes Schutzniveau kritischer Informationen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Mehr Sicherheit in Azure-Umgebungen

Best Practices für den Weg in die Microsoft-Cloud

Mehr Sicherheit in Azure-Umgebungen

Als natürliche Erweiterung der lokalen Angebote von Microsoft ermöglicht die Azure Cloud seit einigen Jahren die praktische Einrichtung von Hybrid-Cloud-Umgebungen. Was das Thema Security betrifft, gibt es jedoch einige gängige Missverständnisse, weiß Palo Alto Networks. lesen

Was ist die Cloud Native Computing Foundation (CNCF)?

Community rund um Microservices und Container

Was ist die Cloud Native Computing Foundation (CNCF)?

Die Cloud Native Computing Foundation ist ein wichtiges Unterprojekt der Linux Foundation. Die Vereinigung hat sich zum Ziel gesetzt, das Cloud Native Computing zu fördern. Cloud Native Computing basiert auf Open Source Software und nutzt Microservices und Container zur Realisierung der Applikationen. lesen

The Future Code am 6./7. Juni 2019: Zwei Tage Zukunft

In eigener Sache

The Future Code am 6./7. Juni 2019: Zwei Tage Zukunft

Eine Main Stage, vier Content Tracks, Expo-Lounge und Future of Work Area. Mehrere Masterclasses und viel Raum für produktiven persönlichen Austausch inklusive C-Level-Lounge – das und vieles mehr erwartet Sie auf der Veranstaltung The Future Code 2019. lesen

OpenStack, Release „Stein“ im Überblick

Das sind die Neuheiten in der 19. OpenStack-Version

OpenStack, Release „Stein“ im Überblick

Das OpenStack-Haus steht schon lange und hat sich als solide erwiesen. Seither geht es bei den Neuerungen um Ausbauten und Verschönerungen. Darauf läuft es auch bei der neuen Version „Stein“ hinaus. lesen

Backup & Recovery neu gedacht

Vom Band zum Cloud-Data-Management

Backup & Recovery neu gedacht

Wachsende Datenmengen, anspruchsvolle Anwendungsfälle und zunehmend raffiniertere Cyberbedrohungen stellen neue Anforderungen an Backup-Lösungen. lesen

Dongleserver im Cloud-Hosting-Einsatz

Dongles für virtualisierte Lizenznachweise

Dongleserver im Cloud-Hosting-Einsatz

Die Terra Cloud GmbH suchte nach einer Lösung, die den Einsatz von Dongles in virtuellen Systemen ermöglicht. Mit dem Dongleserver myUTN-800 von SEH lässt sich genau das realisieren: der Dongleserver ermöglicht virtualisierte Lizenznachweise als Teil einer IaaS-Umgebung. lesen

Rstor fordert die großen Cloud-Anbieter heraus

Startup für Enterprise Performance Computing

Rstor fordert die großen Cloud-Anbieter heraus

Das Startup-Unternehmen Rstor will das Cloud Computing revolutionieren und insbesondere den Anwendern wieder mehr Kontrolle über ihre Daten geben und sie für das Hochleistungs-Computern tauglich machen. lesen

Zu viele Unternehmen zahlen zu viel für Software-Lizenzen

Lizenzkosten-Simulator deckt Optimierungspotenziale auf

Zu viele Unternehmen zahlen zu viel für Software-Lizenzen

Die Lizenzkosten für Serversoftware verursachen die mit Abstand höchsten Kosten in modernen Rechenzentren mit hohem Virtualisierungsgrad. Mit einer besseren Ausnutzung der Lizenzmetriken ließen sich die Softwarekosten deutlich verringern. lesen

IBM fahndet mit KI nach Fachkräften

Jagd auf junge Talente

IBM fahndet mit KI nach Fachkräften

Der Fachkräftemangel in der Rechenzentrumsbranche hat nicht nachgelassen, eher im Gegenteil. So mancher potentielle Arbeitgeber schlägt daher neue Wege der Rekrutierung ein. IBM etwa setzt auf Künstliche Intelligenz (KI), um neue Talente zu gewinnen. Und der Eco-Verband gibt Tipps. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45441768 / Definitionen)