Definition: Virtualisierung von Servern, Betriebssystemen, Speichern und Netzwerken

Was ist Virtualisierung?

| Autor / Redakteur: tutanch / Florian Karlstetter

Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten.
Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Die Virtualisierung abstrahiert IT-Ressourcen durch das Einfügen einer zusätzlichen Ebene zwischen Anwendung und Hardware. Dadurch ist es möglich, Services, Betriebssysteme oder Hardware zu emulieren und virtuell bereitzustellen. Für den Anwender verhält sich das virtuelle Objekt wie ein dediziertes Hard- oder Softwareobjekt.

Die Virtualisierung ist ein wichtiges Konzept der IT. Durch das Einfügen einer Abstraktionsschicht zwischen physikalischen Ressourcen und der Anwendung lassen sich Geräte, Betriebssysteme oder Services virtuell nachbilden. Vorhandene Ressourcen sind besser ausnutzbar und mehrere virtuelle Rechner oder Betriebssysteme innerhalb eines physikalischen Systems betreibbar. Virtualisierung ist für Hardware, Software und Netzwerkfunktionen möglich.

Für den Anwender bestehen keine Unterschiede in der Nutzung von physikalischen oder virtuellen Services. Die virtuellen Rechner, Ressourcen oder Betriebssysteme verhalten sich nach außen hin wie ihre echten physischen Pendants. Der Abstraktions-Layer entkoppelt die virtuellen Systeme untereinander und vom eigentlichen Wirtssystem. Obwohl virtuelle Systeme gleiche Hardwareressourcen nutzen, sind sie für verschiedene Anwender untereinander komplett getrennt. IT-Komponenten, die sich virtualisieren lassen, sind beispielsweise:

  • Server
  • Betriebssysteme
  • Applikationen
  • Speicher
  • Desktopsysteme
  • Netzwerke

Grundbegriffe der Virtualisierung

Um das Funktionsprinzip und die Konzepte der Virtualisierung zu verstehen, sind zunächst einige wichtige Grundbegriffe wie Gast, Wirt, virtuelle Maschine oder Hypervisor zu erklären. Zur Unterscheidung von echten und virtuellen Systemen wurden die beiden Begriffe Gast und Wirt (Host) eingeführt. Das Wirtssystem stellt die echten Ressourcen zur Verfügung und kann verschiedene Gastsysteme (virtuelle Systeme) ausführen.

Eine virtuelle Maschine ist eine in sich abgeschlossene Softwareeinheit auf einem Host, die die Installation eines eigenen Betriebssystems zulässt. Die virtuelle Maschine simuliert gegenüber dem Betriebssystem eine echte Hardwareumgebung und trennt Zugriffe zwischen verschiedenen virtuellen Maschinen strikt. Je mehr virtuelle Maschinen auf einem Hostsystem betrieben werden, desto weniger Ressourcen stehen für einzelne virtuelle Maschinen zur Verfügung. CPU, Arbeitsspeicher, Grafikleistung und Schnittstellen sind vom Betriebssystem innerhalb der virtuellen Maschine nicht direkt, sondern nur über die im Hintergrund laufende Virtualisierungssoftware ansprechbar.

Oft übernimmt ein sogenannter Hypervisor die Aufgabe der Virtualisierungssoftware. Er benötigt für seine Arbeit selbst nur einen kleinen Teil der Hardwareressourcen. Der Hypervisor erstellt und verwaltet die virtuelle Hardware. Hierfür bietet er den virtuellen Maschinen Standard-Schnittstellen an.

Die verschiedenen Arten der Virtualisierung

Grundsätzlich ist bei der Virtualisierung zwischen Software- und Hardwarevirtualisierung zu unterscheiden. Die Softwarevirtualisierung lässt sich nutzen, um eine Anwendung oder ein Betriebssystem auf einem Hostsystem bereitzustellen. Bei der Hardwarevirtualisierung werden virtuelle Hardware-Ressourcen wie CPU oder Speicher bereitgestellt.

Unterarten der Virtualisierung sind:

  • die Servervirtualisierung
  • die Betriebssystemvirtualisierung
  • die Netzwerkvirtualisierung
  • die Speichervirtualisierung
  • die Desktopvirtualisierung

Die Servervirtualisierung gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Alle auf einem physischen System realisierten virtuellen Server teilen sich die physischen Ressourcen und ermöglichen eine effizientere Auslastung der Hardware. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich, solange genügend physische Ressourcen verfügbar sind. Bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden.

Durch die Betriebssystemvirtualisierung sind auf einem Host-Betriebssystem andere Betriebssysteme parallel ausführbar. So lässt sich Windows auf einem Linux-Rechner oder umgekehrt Linux auf einem Windows-Rechner betreiben.

Die Netzwerkvirtualisierung trennt die Netzwerkfunktionen von den physischen Systemen. Die Anzahl an physischen Systemen wie Router oder Switche reduziert sich, da sie auf gemeinsamen Hostsystemen virtuell bereitgestellt sind. Das Software-defined Networking (SDN) erreicht einen hohen Grad der Virtualisierung und trennt die Netzwerksoftware vollständig von der Netzwerkhardware.

Speichervirtualisierung ist die virtuelle Bereitstellung von Speicherplatz, der sich über mehrere physische Storage-Geräte erstreckt. Für die Anwendung ist nicht ersichtlich, auf welchem physischen System die Daten abgelegt sind. Sie spricht nur den virtualisierten Speicher an. Die Virtualisierungssoftware sorgt für die physikalische Speicherung der Daten.

Ziele und Vorteile der Virtualisierung

Wichtigste Ziele der Virtualisierung sind die virtuellen Systeme von der Hardware zu entkoppeln und die zur Verfügung stehenden Ressourcen besser auszunutzen. Mehrere virtuelle Systeme teilen sich die zugrundeliegenden Ressourcen und schaffen die Grundlage für ein einfaches Skalieren der IT. Virtualisierung von Ressourcen wie Speicher, Server oder Netzwerke sorgt für höhere Effizienz und Kosteneinsparungen. IT-Ressourcen lassen sich schnell und mit geringem Administrationsaufwand virtuellen Umgebungen zuweisen ohne neue Hardware in den einzelnen Systemen installieren zu müssen. Die virtuellen Systeme sind im Bedarfsfall einfach auf andere physikalische Hostsysteme migrierbar und im Fehlerfall schnell wiederherstellbar.

Anwender eines virtuellen Desktops können überall auf ihren Arbeitsplatz zugreifen. Für Administratoren ergibt sich der Vorteil, vorkonfigurierte Desktopsysteme ohne großen Aufwand zentralisiert bereitzustellen und die Anzahl physischer Desktops zu reduzieren. Durch die Speicherung der Desktops inklusive Anwendungen und Betriebssystem in Dateien sind die virtuellen Maschinen einfach zu kopieren, zu verschieben und wiederherzustellen.

Die Abstraktionsschicht trennt Hardware vom virtuellen System und ermöglicht es IT-Verantwortlichen, frei zu wählen, welche Hersteller eingesetzt werden. Ein weiterer Vorteil ist, dass unterschiedliche Testumgebungen auf einem Hostsystem abbildbar sind. Die Umgebungen sind voneinander getrennt, komfortabel speicherbar und standardisierte Testbedingungen lassen sich einfach herstellen.

Virtualisierte Rechenzentrumsumgebungen sparen Energie, da die virtuellen Systeme die physikalische Hardware wesentlich effizienter auslasten.

Technische Umsetzung der Virtualisierung

In der Regel trennt eine Software (Hypervisor) die virtuellen Systeme von den physischen Ressourcen. Je nach Art des Hypervisors kann er direkt auf der Hardware oder auf einem beliebigen Betriebssystem aufsetzen. Der Hypervisor gestattet die Aufteilung der Ressourcen auf die virtuellen Systeme. Hierfür partitioniert er die Ressourcen und verhindert einen direkten Zugriff der virtuellen Maschinen. Die eigentlichen virtuellen Systeme laufen in den virtuellen Maschinen. Sie funktionieren wie Dateien und sind von einem Hostsystem auf eine anderes kopierbar.

Beispielhafte Anwendungsbereiche der Virtualisierung

Die Virtualisierung ist in vielen Bereichen einsetzbar. So können Entwickler ihre Programme in virtuellen Betriebssystemen ausgiebig testen, ohne produktive Umgebungen zu stören. Sollen zwei Anwendungen auf einem Rechner ausgeführt werden, die untereinander nicht kompatibel sind, bietet die Virtualisierung eine geeignete Lösung.

Service Provider virtualisieren ihre IT-Umgebungen, um schnell und flexibel auf Kundenanforderungen zu reagieren und die gewünschten Services quasi online bereitzustellen. Gleichzeitig sind die Systeme besser ausgelastet, leichter zu managen und bieten eine höhere Verfügbarkeit, Stabilität und Sicherheit. Die Desktopvirtualisierung stellt standardisierte Arbeitsplätze zur Verfügung, auf die über das Netzwerk von überall zugegriffen werden kann. Die Daten bleiben auf den Systemen zentral gespeichert und sorgen für ein hohes Schutzniveau kritischer Informationen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Über die zunehmende Emanzipation in der IT

Die Cloud ist ein Mann?!

Über die zunehmende Emanzipation in der IT

Objektiv bestimmbar, dem Beweis zugänglich, sachlich. Die Materien der IT-Branche stellen sich dem naiven Betrachter meist als entbunden von persönlichen Blickwinkeln dar. Doch gibt es subjektive Einflüsse? Wirkt sich die Identität, insbesondere das Geschlecht der Programmierenden auf Bedienung und Möglichkeiten des Produkts aus? lesen

IBM will Nummer eins bei Hybrid-Cloud-Anbietern werden

IBM setzt auf die offene Multi-Cloud

IBM will Nummer eins bei Hybrid-Cloud-Anbietern werden

Ende Oktober wurde ein Mega-Deal bekannt, wie ihn die IT-Branche seit dem Zusammenschluss von Dell und EMC nicht mehr gesehen hat: die geplante Übernahme des Open-Source-Giganten Red Hat durch IBM für rund 34 Milliarden US-Dollar. Mithilfe der Open-Source-Technologie will IBM seine Cloud-Strategie voranbringen. lesen

Wie cloud-fähige Rechenzentren die Umwelt belasten

Supermicro untersucht ökologische Nachhaltigkeit der Datacenter

Wie cloud-fähige Rechenzentren die Umwelt belasten

Milliarden und Abermilliarden Kilowattstunden Strom verschlingen alle Services, die heute via Internet und aus der Cloud genutzt werden. Damit wird auch unsere Atmosphäre zusätzlich belastet: Die Umweltorganisation Greenpeace warnt schon seit Jahren, dass der Betrieb von Computern, Servern sowie IT-Services jährlich genauso viel belastendes Treibhausgas produziert, wie der gesamte Flugverkehr weltweit. lesen

Wann lohnt sich eine Private Cloud?

Private Cloud, Public Cloud und Virtual Private Cloud - eine Begriffsabgrenzung

Wann lohnt sich eine Private Cloud?

„Private Cloud“ klingt wie ein doppeltes Versprechen: Ich bekomme alle Vorzüge der Cloud und diese ganz für mich allein. Diese Exklusivität verheißt maximale Kontrolle und Sicherheit. Kein anderer Kunde knabbert an der Performance oder bringt meine Daten in Gefahr. Schließlich ist die Angst vor einem unberechtigten Zugriff auf sensible Unternehmensdaten auch im Cloud-Monitor 2018 wieder der am häufigsten genannte Einwand gegen die Public Cloud. lesen

Augen auf bei ­Software-Miete und -Kauf

Cloud Business Software

Augen auf bei ­Software-Miete und -Kauf

Die „Cloud-Skeptiker“ werden immer leiser. Ist Software als ewige Lizenz zur Installation oder in einem flexiblen Abo-Modell verfügbar, gewinnt immer häufiger letzteres. Wird gekauft statt gemietet, spielt die Cloud als Download-Plattform eine wachsende Rolle – mit Fallstricken. lesen

Brexit, Backup, Hybrid Cloud und konvergente Infrastruktur

Storage Trends 2019

Brexit, Backup, Hybrid Cloud und konvergente Infrastruktur

Aktuelle Backup-Lösungen scheinen nicht mehr zeitgemäß. Immer häufiger bestätigen Unternehmen, dass sie mit ihren derzeitigen Backup-Lösungen in den letzten Jahren Daten verloren zu haben. 2019 sollte endlich der Durchbruch für moderne BC/DR-Lösungen kommen, die nicht mehr auf den veralteten Backup- und Snapshot-Technologien aufbauen. lesen

ISG-Studie: Edge-Computing-Markt könnte explodieren

IoT-Trends

ISG-Studie: Edge-Computing-Markt könnte explodieren

Eine aktuelle Studie des Beratungsunternehmens ISG prognostiziert die künftige Entwicklung von Edge Computing. Demnach könnte der Markt mit einem Jahreswachstum von durchschnittlich mehr als 30 Prozent kurz- und mittelfristig regelrecht explodieren. lesen

Data Analytics und BI mit Cloud-Ressourcen

Business Intelligence und die Cloud

Data Analytics und BI mit Cloud-Ressourcen

Auf dem Weg zum datenbasierten Unternehmen wachsen die zu analysierenden Datenmengen kontinuierlich. Data Analytics und Business Intelligence (BI) werden zur geschäftskritischen Grundlage der Unternehmenssteuerung. Was bedeutet das für die IT-Infrastruktur? Sind solche ressourcen-intensiven High-End Anwendungen mit der Cloud-Strategie von Unternehmen überhaupt vereinbar? lesen

Die 10 wichtigsten strategischen Technologien und Trends

Internet of Things – IoT

Die 10 wichtigsten strategischen Technologien und Trends

Marktanalyst Gartner hat zehn strategisch wichtige Technologien und Trends identifiziert, die das Internet of Things in den nächsten Jahren voranbringen werden. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45441768 / Definitionen)