Definition: Virtualisierung von Servern, Betriebssystemen, Speichern und Netzwerken

Was ist Virtualisierung?

| Autor / Redakteur: tutanch / Florian Karlstetter

Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten.
Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Die Virtualisierung abstrahiert IT-Ressourcen durch das Einfügen einer zusätzlichen Ebene zwischen Anwendung und Hardware. Dadurch ist es möglich, Services, Betriebssysteme oder Hardware zu emulieren und virtuell bereitzustellen. Für den Anwender verhält sich das virtuelle Objekt wie ein dediziertes Hard- oder Softwareobjekt.

Die Virtualisierung ist ein wichtiges Konzept der IT. Durch das Einfügen einer Abstraktionsschicht zwischen physikalischen Ressourcen und der Anwendung lassen sich Geräte, Betriebssysteme oder Services virtuell nachbilden. Vorhandene Ressourcen sind besser ausnutzbar und mehrere virtuelle Rechner oder Betriebssysteme innerhalb eines physikalischen Systems betreibbar. Virtualisierung ist für Hardware, Software und Netzwerkfunktionen möglich.

Für den Anwender bestehen keine Unterschiede in der Nutzung von physikalischen oder virtuellen Services. Die virtuellen Rechner, Ressourcen oder Betriebssysteme verhalten sich nach außen hin wie ihre echten physischen Pendants. Der Abstraktions-Layer entkoppelt die virtuellen Systeme untereinander und vom eigentlichen Wirtssystem. Obwohl virtuelle Systeme gleiche Hardwareressourcen nutzen, sind sie für verschiedene Anwender untereinander komplett getrennt. IT-Komponenten, die sich virtualisieren lassen, sind beispielsweise:

  • Server
  • Betriebssysteme
  • Applikationen
  • Speicher
  • Desktopsysteme
  • Netzwerke

Grundbegriffe der Virtualisierung

Um das Funktionsprinzip und die Konzepte der Virtualisierung zu verstehen, sind zunächst einige wichtige Grundbegriffe wie Gast, Wirt, virtuelle Maschine oder Hypervisor zu erklären. Zur Unterscheidung von echten und virtuellen Systemen wurden die beiden Begriffe Gast und Wirt (Host) eingeführt. Das Wirtssystem stellt die echten Ressourcen zur Verfügung und kann verschiedene Gastsysteme (virtuelle Systeme) ausführen.

Eine virtuelle Maschine ist eine in sich abgeschlossene Softwareeinheit auf einem Host, die die Installation eines eigenen Betriebssystems zulässt. Die virtuelle Maschine simuliert gegenüber dem Betriebssystem eine echte Hardwareumgebung und trennt Zugriffe zwischen verschiedenen virtuellen Maschinen strikt. Je mehr virtuelle Maschinen auf einem Hostsystem betrieben werden, desto weniger Ressourcen stehen für einzelne virtuelle Maschinen zur Verfügung. CPU, Arbeitsspeicher, Grafikleistung und Schnittstellen sind vom Betriebssystem innerhalb der virtuellen Maschine nicht direkt, sondern nur über die im Hintergrund laufende Virtualisierungssoftware ansprechbar.

Oft übernimmt ein sogenannter Hypervisor die Aufgabe der Virtualisierungssoftware. Er benötigt für seine Arbeit selbst nur einen kleinen Teil der Hardwareressourcen. Der Hypervisor erstellt und verwaltet die virtuelle Hardware. Hierfür bietet er den virtuellen Maschinen Standard-Schnittstellen an.

Die verschiedenen Arten der Virtualisierung

Grundsätzlich ist bei der Virtualisierung zwischen Software- und Hardwarevirtualisierung zu unterscheiden. Die Softwarevirtualisierung lässt sich nutzen, um eine Anwendung oder ein Betriebssystem auf einem Hostsystem bereitzustellen. Bei der Hardwarevirtualisierung werden virtuelle Hardware-Ressourcen wie CPU oder Speicher bereitgestellt.

Unterarten der Virtualisierung sind:

  • die Servervirtualisierung
  • die Betriebssystemvirtualisierung
  • die Netzwerkvirtualisierung
  • die Speichervirtualisierung
  • die Desktopvirtualisierung

Die Servervirtualisierung gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Alle auf einem physischen System realisierten virtuellen Server teilen sich die physischen Ressourcen und ermöglichen eine effizientere Auslastung der Hardware. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich, solange genügend physische Ressourcen verfügbar sind. Bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden.

Durch die Betriebssystemvirtualisierung sind auf einem Host-Betriebssystem andere Betriebssysteme parallel ausführbar. So lässt sich Windows auf einem Linux-Rechner oder umgekehrt Linux auf einem Windows-Rechner betreiben.

Die Netzwerkvirtualisierung trennt die Netzwerkfunktionen von den physischen Systemen. Die Anzahl an physischen Systemen wie Router oder Switche reduziert sich, da sie auf gemeinsamen Hostsystemen virtuell bereitgestellt sind. Das Software-defined Networking (SDN) erreicht einen hohen Grad der Virtualisierung und trennt die Netzwerksoftware vollständig von der Netzwerkhardware.

Speichervirtualisierung ist die virtuelle Bereitstellung von Speicherplatz, der sich über mehrere physische Storage-Geräte erstreckt. Für die Anwendung ist nicht ersichtlich, auf welchem physischen System die Daten abgelegt sind. Sie spricht nur den virtualisierten Speicher an. Die Virtualisierungssoftware sorgt für die physikalische Speicherung der Daten.

Ziele und Vorteile der Virtualisierung

Wichtigste Ziele der Virtualisierung sind die virtuellen Systeme von der Hardware zu entkoppeln und die zur Verfügung stehenden Ressourcen besser auszunutzen. Mehrere virtuelle Systeme teilen sich die zugrundeliegenden Ressourcen und schaffen die Grundlage für ein einfaches Skalieren der IT. Virtualisierung von Ressourcen wie Speicher, Server oder Netzwerke sorgt für höhere Effizienz und Kosteneinsparungen. IT-Ressourcen lassen sich schnell und mit geringem Administrationsaufwand virtuellen Umgebungen zuweisen ohne neue Hardware in den einzelnen Systemen installieren zu müssen. Die virtuellen Systeme sind im Bedarfsfall einfach auf andere physikalische Hostsysteme migrierbar und im Fehlerfall schnell wiederherstellbar.

Anwender eines virtuellen Desktops können überall auf ihren Arbeitsplatz zugreifen. Für Administratoren ergibt sich der Vorteil, vorkonfigurierte Desktopsysteme ohne großen Aufwand zentralisiert bereitzustellen und die Anzahl physischer Desktops zu reduzieren. Durch die Speicherung der Desktops inklusive Anwendungen und Betriebssystem in Dateien sind die virtuellen Maschinen einfach zu kopieren, zu verschieben und wiederherzustellen.

Die Abstraktionsschicht trennt Hardware vom virtuellen System und ermöglicht es IT-Verantwortlichen, frei zu wählen, welche Hersteller eingesetzt werden. Ein weiterer Vorteil ist, dass unterschiedliche Testumgebungen auf einem Hostsystem abbildbar sind. Die Umgebungen sind voneinander getrennt, komfortabel speicherbar und standardisierte Testbedingungen lassen sich einfach herstellen.

Virtualisierte Rechenzentrumsumgebungen sparen Energie, da die virtuellen Systeme die physikalische Hardware wesentlich effizienter auslasten.

Technische Umsetzung der Virtualisierung

In der Regel trennt eine Software (Hypervisor) die virtuellen Systeme von den physischen Ressourcen. Je nach Art des Hypervisors kann er direkt auf der Hardware oder auf einem beliebigen Betriebssystem aufsetzen. Der Hypervisor gestattet die Aufteilung der Ressourcen auf die virtuellen Systeme. Hierfür partitioniert er die Ressourcen und verhindert einen direkten Zugriff der virtuellen Maschinen. Die eigentlichen virtuellen Systeme laufen in den virtuellen Maschinen. Sie funktionieren wie Dateien und sind von einem Hostsystem auf eine anderes kopierbar.

Beispielhafte Anwendungsbereiche der Virtualisierung

Die Virtualisierung ist in vielen Bereichen einsetzbar. So können Entwickler ihre Programme in virtuellen Betriebssystemen ausgiebig testen, ohne produktive Umgebungen zu stören. Sollen zwei Anwendungen auf einem Rechner ausgeführt werden, die untereinander nicht kompatibel sind, bietet die Virtualisierung eine geeignete Lösung.

Service Provider virtualisieren ihre IT-Umgebungen, um schnell und flexibel auf Kundenanforderungen zu reagieren und die gewünschten Services quasi online bereitzustellen. Gleichzeitig sind die Systeme besser ausgelastet, leichter zu managen und bieten eine höhere Verfügbarkeit, Stabilität und Sicherheit. Die Desktopvirtualisierung stellt standardisierte Arbeitsplätze zur Verfügung, auf die über das Netzwerk von überall zugegriffen werden kann. Die Daten bleiben auf den Systemen zentral gespeichert und sorgen für ein hohes Schutzniveau kritischer Informationen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Multi Cloud: Kommt 2020 der große Durchbruch?

Interview mit dem neuen Managing Director Central Europe von Sage, Andreas Zipser

Multi Cloud: Kommt 2020 der große Durchbruch?

Sage war lange als Experte für ERP im Mittelstand bekannt. Das Unternehmen will heute eher als „Technologieführer für Cloud-basierte Unternehmenslösungen“ wahrgenommen werden. Da passt ins Bild, dass der frisch berufene Managing Director Central Europe Andreas Zipser „Innovation und Cloud Computing im Mittelstand“ zu seinen besonderen Anliegen zählt. Wir haben ihn zur neusten Studie von IDC zur Cloud-Nutzung in Deutschland befragt und wollten seine Erfahrungen mit den deutschen Mittelständlern hören. lesen

IBM und VMware kooperieren noch enger

Cloud-Angebote, Kundenservice per Watson und Innovations Lab

IBM und VMware kooperieren noch enger

IBM und VMware vertiefen ihre Partnerschaft. Im Zuge dieser liefert IBM eine vollautomatisierte, hochverfügbare sowie globale Cloud-Architektur für geschäftskritische VMware-Workloads. Zudem läuft IBM Cloud Private Hosted auf VMware vCenter Server in der IBM Cloud. lesen

Neue Features für die Open Telekom Cloud

Mehr IT-Security ab Werk

Neue Features für die Open Telekom Cloud

Mit dem jetzt vorgestellten November-Release bietet die Open Telekom Cloud mehr IT-Security ab Werk. Mit der Verschlüsselung für den Workspace Service und Mongo DB können Unternehmen nun ihre digitalen Arbeitsplätze sowie die skalierbaren, relationalen Datenbanken in der Open Telekom Cloud schnell und einfach schützen. lesen

Azure Stack im eigenen Rechenzentrum installieren und betreiben

Azure-Dienste selbst bereitstellen

Azure Stack im eigenen Rechenzentrum installieren und betreiben

Mit Azure Stack erhalten Unternehmen eine hybride Cloud-Plattform. Dadurch lassen sich Azure-Dienste im eigenen Rechenzentrum betreiben und parallel Dienste in Microsoft Azure anbinden. Wir zeigen, wie die Azure-Erweiterung eingerichtet wird. lesen

Profitbricks setzt bei Object-Storage-Dienst auf Cloudian

Praxis: S3-kompatibler Cloudspeicher

Profitbricks setzt bei Object-Storage-Dienst auf Cloudian

Um der kundenseitig steigenden Nachfrage nach einer Lösung für die kostengünstige Speicherung großer und schnell skalierender Datenmengen zu begegnen entschied sich Profitbricks, sein bestehendes Angebot um eine Object-Storage-Lösung zu erweitern. Die Basis hierfür stellt Cloudians Speicherlösung Hyperstore. lesen

Die freie Cloud für mehr Alternativen

OVH Summit 2018

Die freie Cloud für mehr Alternativen

Jeder Einzelne soll über seine Daten bestimmen und Innovationen frei vorantreiben können. So lautet die Botschaft, die auf dem jährlichen OVH Summit kürzlich in Paris ausgesendet wurde. Bereits zum sechsten Mal versammelte der global aufgestellte Cloud-Anbieter sein gesamtes Ökosystem aus Kunden, Partnern und IT-Spezialisten in der französischen Hauptstadt. lesen

Huawei setzt auf die Zukunft der Künstlichen Intelligenz

Die Neuigkeiten von der Huawei Connect 2018 in Shanghai

Huawei setzt auf die Zukunft der Künstlichen Intelligenz

Huawei reicht es nicht, ein weltweit anerkanntes Unternehmen zu sein. Während die meisten in der IT-Branche von „Cloud-Zukunft“ reden, denkt der chinesische Anbieter weiter: Das Ziel heißt künstliche Intelligenz. lesen

IBM kauft Red Hat

34-Milliarden-Dollar-Deal geschlossen

IBM kauft Red Hat

Der IBM-Konzern kauft die Linux-Distribution mit dem roten Hut. Wie die Unternehmen mitteilen, will IBM alle Aktien von Red Hat für einen Stückpreis von 190 US-Dollar übernehmen, so dass ein 34-Milliarden-Dollar-Deal daraus wird. lesen

Sicherer Cloudspeicher aus Deutschland

Im Test: Dracoon Enterprise Cloud

Sicherer Cloudspeicher aus Deutschland

Dracoon bietet einen sicheren Cloudspeicher für Unternehmen an. Bei der Lösung des deutschen Anbieters werden die Daten auch client-seitig verschlüsselt. Das bedeutet, dass sämtliche Daten überall – auf dem Client, auf dem Server und im Transport – sicher sind. Somit kann nicht einmal Dracoon als Hersteller auf gespeicherte Kundendaten zugreifen. Das IAIT-Testlabor hat die Funktionen des Produkts unter die Lupe genommen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45441768 / Definitionen)