Definition: Virtualisierung von Servern, Betriebssystemen, Speichern und Netzwerken

Was ist Virtualisierung?

| Autor / Redakteur: Stefan Luber / Florian Karlstetter

Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten.
Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Die Virtualisierung abstrahiert IT-Ressourcen durch das Einfügen einer zusätzlichen Ebene zwischen Anwendung und Hardware. Dadurch ist es möglich, Services, Betriebssysteme oder Hardware zu emulieren und virtuell bereitzustellen. Für den Anwender verhält sich das virtuelle Objekt wie ein dediziertes Hard- oder Softwareobjekt.

Die Virtualisierung ist ein wichtiges Konzept der IT. Durch das Einfügen einer Abstraktionsschicht zwischen physikalischen Ressourcen und der Anwendung lassen sich Geräte, Betriebssysteme oder Services virtuell nachbilden. Vorhandene Ressourcen sind besser ausnutzbar und mehrere virtuelle Rechner oder Betriebssysteme innerhalb eines physikalischen Systems betreibbar. Virtualisierung ist für Hardware, Software und Netzwerkfunktionen möglich.

Für den Anwender bestehen keine Unterschiede in der Nutzung von physikalischen oder virtuellen Services. Die virtuellen Rechner, Ressourcen oder Betriebssysteme verhalten sich nach außen hin wie ihre echten physischen Pendants. Der Abstraktions-Layer entkoppelt die virtuellen Systeme untereinander und vom eigentlichen Wirtssystem. Obwohl virtuelle Systeme gleiche Hardwareressourcen nutzen, sind sie für verschiedene Anwender untereinander komplett getrennt. IT-Komponenten, die sich virtualisieren lassen, sind beispielsweise:

  • Server
  • Betriebssysteme
  • Applikationen
  • Speicher
  • Desktopsysteme
  • Netzwerke

Grundbegriffe der Virtualisierung

Um das Funktionsprinzip und die Konzepte der Virtualisierung zu verstehen, sind zunächst einige wichtige Grundbegriffe wie Gast, Wirt, virtuelle Maschine oder Hypervisor zu erklären. Zur Unterscheidung von echten und virtuellen Systemen wurden die beiden Begriffe Gast und Wirt (Host) eingeführt. Das Wirtssystem stellt die echten Ressourcen zur Verfügung und kann verschiedene Gastsysteme (virtuelle Systeme) ausführen.

Eine virtuelle Maschine ist eine in sich abgeschlossene Softwareeinheit auf einem Host, die die Installation eines eigenen Betriebssystems zulässt. Die virtuelle Maschine simuliert gegenüber dem Betriebssystem eine echte Hardwareumgebung und trennt Zugriffe zwischen verschiedenen virtuellen Maschinen strikt. Je mehr virtuelle Maschinen auf einem Hostsystem betrieben werden, desto weniger Ressourcen stehen für einzelne virtuelle Maschinen zur Verfügung. CPU, Arbeitsspeicher, Grafikleistung und Schnittstellen sind vom Betriebssystem innerhalb der virtuellen Maschine nicht direkt, sondern nur über die im Hintergrund laufende Virtualisierungssoftware ansprechbar.

Oft übernimmt ein sogenannter Hypervisor die Aufgabe der Virtualisierungssoftware. Er benötigt für seine Arbeit selbst nur einen kleinen Teil der Hardwareressourcen. Der Hypervisor erstellt und verwaltet die virtuelle Hardware. Hierfür bietet er den virtuellen Maschinen Standard-Schnittstellen an.

Die verschiedenen Arten der Virtualisierung

Grundsätzlich ist bei der Virtualisierung zwischen Software- und Hardwarevirtualisierung zu unterscheiden. Die Softwarevirtualisierung lässt sich nutzen, um eine Anwendung oder ein Betriebssystem auf einem Hostsystem bereitzustellen. Bei der Hardwarevirtualisierung werden virtuelle Hardware-Ressourcen wie CPU oder Speicher bereitgestellt.

Unterarten der Virtualisierung sind:

  • die Servervirtualisierung
  • die Betriebssystemvirtualisierung
  • die Netzwerkvirtualisierung
  • die Speichervirtualisierung
  • die Desktopvirtualisierung

Die Servervirtualisierung gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Alle auf einem physischen System realisierten virtuellen Server teilen sich die physischen Ressourcen und ermöglichen eine effizientere Auslastung der Hardware. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich, solange genügend physische Ressourcen verfügbar sind. Bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden.

Durch die Betriebssystemvirtualisierung sind auf einem Host-Betriebssystem andere Betriebssysteme parallel ausführbar. So lässt sich Windows auf einem Linux-Rechner oder umgekehrt Linux auf einem Windows-Rechner betreiben.

Die Netzwerkvirtualisierung trennt die Netzwerkfunktionen von den physischen Systemen. Die Anzahl an physischen Systemen wie Router oder Switche reduziert sich, da sie auf gemeinsamen Hostsystemen virtuell bereitgestellt sind. Das Software-defined Networking (SDN) erreicht einen hohen Grad der Virtualisierung und trennt die Netzwerksoftware vollständig von der Netzwerkhardware.

Speichervirtualisierung ist die virtuelle Bereitstellung von Speicherplatz, der sich über mehrere physische Storage-Geräte erstreckt. Für die Anwendung ist nicht ersichtlich, auf welchem physischen System die Daten abgelegt sind. Sie spricht nur den virtualisierten Speicher an. Die Virtualisierungssoftware sorgt für die physikalische Speicherung der Daten.

Ziele und Vorteile der Virtualisierung

Wichtigste Ziele der Virtualisierung sind die virtuellen Systeme von der Hardware zu entkoppeln und die zur Verfügung stehenden Ressourcen besser auszunutzen. Mehrere virtuelle Systeme teilen sich die zugrundeliegenden Ressourcen und schaffen die Grundlage für ein einfaches Skalieren der IT. Virtualisierung von Ressourcen wie Speicher, Server oder Netzwerke sorgt für höhere Effizienz und Kosteneinsparungen. IT-Ressourcen lassen sich schnell und mit geringem Administrationsaufwand virtuellen Umgebungen zuweisen ohne neue Hardware in den einzelnen Systemen installieren zu müssen. Die virtuellen Systeme sind im Bedarfsfall einfach auf andere physikalische Hostsysteme migrierbar und im Fehlerfall schnell wiederherstellbar.

Anwender eines virtuellen Desktops können überall auf ihren Arbeitsplatz zugreifen. Für Administratoren ergibt sich der Vorteil, vorkonfigurierte Desktopsysteme ohne großen Aufwand zentralisiert bereitzustellen und die Anzahl physischer Desktops zu reduzieren. Durch die Speicherung der Desktops inklusive Anwendungen und Betriebssystem in Dateien sind die virtuellen Maschinen einfach zu kopieren, zu verschieben und wiederherzustellen.

Die Abstraktionsschicht trennt Hardware vom virtuellen System und ermöglicht es IT-Verantwortlichen, frei zu wählen, welche Hersteller eingesetzt werden. Ein weiterer Vorteil ist, dass unterschiedliche Testumgebungen auf einem Hostsystem abbildbar sind. Die Umgebungen sind voneinander getrennt, komfortabel speicherbar und standardisierte Testbedingungen lassen sich einfach herstellen.

Virtualisierte Rechenzentrumsumgebungen sparen Energie, da die virtuellen Systeme die physikalische Hardware wesentlich effizienter auslasten.

Technische Umsetzung der Virtualisierung

In der Regel trennt eine Software (Hypervisor) die virtuellen Systeme von den physischen Ressourcen. Je nach Art des Hypervisors kann er direkt auf der Hardware oder auf einem beliebigen Betriebssystem aufsetzen. Der Hypervisor gestattet die Aufteilung der Ressourcen auf die virtuellen Systeme. Hierfür partitioniert er die Ressourcen und verhindert einen direkten Zugriff der virtuellen Maschinen. Die eigentlichen virtuellen Systeme laufen in den virtuellen Maschinen. Sie funktionieren wie Dateien und sind von einem Hostsystem auf eine anderes kopierbar.

Beispielhafte Anwendungsbereiche der Virtualisierung

Die Virtualisierung ist in vielen Bereichen einsetzbar. So können Entwickler ihre Programme in virtuellen Betriebssystemen ausgiebig testen, ohne produktive Umgebungen zu stören. Sollen zwei Anwendungen auf einem Rechner ausgeführt werden, die untereinander nicht kompatibel sind, bietet die Virtualisierung eine geeignete Lösung.

Service Provider virtualisieren ihre IT-Umgebungen, um schnell und flexibel auf Kundenanforderungen zu reagieren und die gewünschten Services quasi online bereitzustellen. Gleichzeitig sind die Systeme besser ausgelastet, leichter zu managen und bieten eine höhere Verfügbarkeit, Stabilität und Sicherheit. Die Desktopvirtualisierung stellt standardisierte Arbeitsplätze zur Verfügung, auf die über das Netzwerk von überall zugegriffen werden kann. Die Daten bleiben auf den Systemen zentral gespeichert und sorgen für ein hohes Schutzniveau kritischer Informationen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Was ist Infrastructure as Code (IaC)?

Definition: Mixtur aus IaaS und DevOps

Was ist Infrastructure as Code (IaC)?

Infrastructure as Code stellt IT-Infrastrukturleistungen wie Rechenleistung, Speicher und Netzwerk auf Basis von maschinenlesbarem Code zur Verfügung. Die Infrastruktur wird ähnlich wie Software programmiert. Das IaC-Konzept ist eng mit dem DevOps-Konzept und dem Cloud-Computing-Modell Infrastructure as a Service (IaaS) verknüpft. lesen

Die Cloud – die nächste Hürde für RPA

Robotic Process Automation

Die Cloud – die nächste Hürde für RPA

Immer mehr Unternehmen führen Robotic Process Automation (RPA) ein. Das Analystenhaus Gartner sah in RPA das am schnellsten wachsende Enterprise Software-Segment weltweit mit einem Umsatzwachstum von 63,1 Prozent auf 846 Millionen US-Dollar im Jahr 2018. Dieses Jahr soll der Umsatz sogar 1,3 Milliarden US-Dollar erreichen. Trotz dieser signifikanten Wachstumszahlen steht RPA noch am Anfang. lesen

Alle Zeichen stehen auf Desktop as a Service

IT-Trends im Jahr 2020

Alle Zeichen stehen auf Desktop as a Service

Die Zeit und die Technologie sind reif für den Desktop as a Service (DaaS). Damit werden nicht nur die „Dauertrends“ der Unternehmen wie Kosten und Sicherheit adressiert, er liefert auch einen wesentlichen Baustein für den Umbau der Unternehmen im Rahmen ihrer digitalen Transformation. lesen

Cloud Waste: Warum größer nicht immer besser ist

Die Folgen überdimensionierter Cloud-Szenarien

Cloud Waste: Warum größer nicht immer besser ist

Ressourcenverschwendung führt zu Abfall. Abfall zu beseitigen kostet. Das gilt sowohl auf dem Gebiet des Umweltschutzes als auch beim groß skalierenden IT-Betrieb. IT-Workloads werden in immer schneller steigenden Maße in einer Cloud aufgesetzt und dort verarbeitet. Auch dort fallen Verschnitt und Restmüll an. Man spricht in diesem Zusammenhang von Cloud Waste, der Vergeudung von Rechenleistung. lesen

Canonical containerisiert Workloads mithilfe von Android

Anbox Cloud: Ubuntu und Android

Canonical containerisiert Workloads mithilfe von Android

Canonical, Herausgeber vom OpenSource-Betriebssystem „Ubuntu“, bringt „Anbox Cloud“ auf den Markt. Diese Plattform containerisiert Workloads mithilfe von Android als Gastbetriebssystem. Das ermöglicht etwa Nutzern älterer oder mobiler Endgeräte, die geplagt sind durch Ressourcenbeschränkungen, grafikintensive Anwendungen zu nutzen, weil sie diese aus der Cloud streamen. lesen

Was bedeutet Orchestrierung im IT-Umfeld?

Komposition verschiedener Einzeldienste zu einem Gesamtservice

Was bedeutet Orchestrierung im IT-Umfeld?

In der IT bedeutet Orchestrierung die Komposition mehrerer Einzeldienste zu einem Gesamtservice. Die Orchestrierung weist den Diensten, Prozessen, Webservices, Anwendungen oder Workloads konkrete Aufgaben zu und steuert die Abhängigkeiten untereinander. Mit der Cloud-Orchestrierung werden Services unterschiedlicher oder gleicher Cloud-Umgebungen und -Anbieter zu einer Gesamtkomposition kombiniert. lesen

Interne Cloud – eine Lösung für mittelständische Unternehmen?

Cloud ohne externe Dienste

Interne Cloud – eine Lösung für mittelständische Unternehmen?

Für Unternehmen jeder Art und Größe sind in den vergangenen Jahren die Stichworte „Cloud Computing“ und „Software-as-a-Service“ unumgängliche Themen geworden. Von einer Nischenalternative für die IT-Infrastruktur haben sich Cloud-Anwendungen immer mehr zur Norm und einem neuen Standard entwickelt. lesen

Container Orchestration Tools im Vergleich

Die Konsolidierung der Cloud

Container Orchestration Tools im Vergleich

Seit Docker das Licht der IT-Welt erblickte, haben Container die DevOps-Idee revolutioniert. Dazu bedarf es eines Container-Clusters nebst zugehöriger Verwaltungsinstrumente wie Google Kubernetes. Hier klären wir die Zusammenhänge von Containern, Docker, DevOps und Cloud-native Computing. lesen

Was sind Unikernels?

Definition: „Rethinking Cloud Infrastructure“ – das Konzept von Unikernel-Images

Was sind Unikernels?

Ein Unikernel ist ein ausführbares Image, das sich auf die minimal benötigten Funktionen für den Betrieb einer Anwendung beschränkt. Ein Unikernel läuft auf einem Hypervisor oder direkt auf der Hardware und ist im Vergleich zu einem Container wesentlich schlanker. Unikernels lassen sich schnell booten, belegen nur die wirklich benötigten Ressourcen und bieten ein hohes Sicherheitsniveau. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45441768 / Definitionen)