Definition: Virtualisierung von Servern, Betriebssystemen, Speichern und Netzwerken

Was ist Virtualisierung?

| Autor / Redakteur: Stefan Luber / Florian Karlstetter

Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten.
Virtualisierung - Nachbildung von Hard- und Softwareobjekten über zusätzliche Abstraktionsschichten. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Die Virtualisierung abstrahiert IT-Ressourcen durch das Einfügen einer zusätzlichen Ebene zwischen Anwendung und Hardware. Dadurch ist es möglich, Services, Betriebssysteme oder Hardware zu emulieren und virtuell bereitzustellen. Für den Anwender verhält sich das virtuelle Objekt wie ein dediziertes Hard- oder Softwareobjekt.

Die Virtualisierung ist ein wichtiges Konzept der IT. Durch das Einfügen einer Abstraktionsschicht zwischen physikalischen Ressourcen und der Anwendung lassen sich Geräte, Betriebssysteme oder Services virtuell nachbilden. Vorhandene Ressourcen sind besser ausnutzbar und mehrere virtuelle Rechner oder Betriebssysteme innerhalb eines physikalischen Systems betreibbar. Virtualisierung ist für Hardware, Software und Netzwerkfunktionen möglich.

Für den Anwender bestehen keine Unterschiede in der Nutzung von physikalischen oder virtuellen Services. Die virtuellen Rechner, Ressourcen oder Betriebssysteme verhalten sich nach außen hin wie ihre echten physischen Pendants. Der Abstraktions-Layer entkoppelt die virtuellen Systeme untereinander und vom eigentlichen Wirtssystem. Obwohl virtuelle Systeme gleiche Hardwareressourcen nutzen, sind sie für verschiedene Anwender untereinander komplett getrennt. IT-Komponenten, die sich virtualisieren lassen, sind beispielsweise:

  • Server
  • Betriebssysteme
  • Applikationen
  • Speicher
  • Desktopsysteme
  • Netzwerke

Grundbegriffe der Virtualisierung

Um das Funktionsprinzip und die Konzepte der Virtualisierung zu verstehen, sind zunächst einige wichtige Grundbegriffe wie Gast, Wirt, virtuelle Maschine oder Hypervisor zu erklären. Zur Unterscheidung von echten und virtuellen Systemen wurden die beiden Begriffe Gast und Wirt (Host) eingeführt. Das Wirtssystem stellt die echten Ressourcen zur Verfügung und kann verschiedene Gastsysteme (virtuelle Systeme) ausführen.

Eine virtuelle Maschine ist eine in sich abgeschlossene Softwareeinheit auf einem Host, die die Installation eines eigenen Betriebssystems zulässt. Die virtuelle Maschine simuliert gegenüber dem Betriebssystem eine echte Hardwareumgebung und trennt Zugriffe zwischen verschiedenen virtuellen Maschinen strikt. Je mehr virtuelle Maschinen auf einem Hostsystem betrieben werden, desto weniger Ressourcen stehen für einzelne virtuelle Maschinen zur Verfügung. CPU, Arbeitsspeicher, Grafikleistung und Schnittstellen sind vom Betriebssystem innerhalb der virtuellen Maschine nicht direkt, sondern nur über die im Hintergrund laufende Virtualisierungssoftware ansprechbar.

Oft übernimmt ein sogenannter Hypervisor die Aufgabe der Virtualisierungssoftware. Er benötigt für seine Arbeit selbst nur einen kleinen Teil der Hardwareressourcen. Der Hypervisor erstellt und verwaltet die virtuelle Hardware. Hierfür bietet er den virtuellen Maschinen Standard-Schnittstellen an.

Die verschiedenen Arten der Virtualisierung

Grundsätzlich ist bei der Virtualisierung zwischen Software- und Hardwarevirtualisierung zu unterscheiden. Die Softwarevirtualisierung lässt sich nutzen, um eine Anwendung oder ein Betriebssystem auf einem Hostsystem bereitzustellen. Bei der Hardwarevirtualisierung werden virtuelle Hardware-Ressourcen wie CPU oder Speicher bereitgestellt.

Unterarten der Virtualisierung sind:

  • die Servervirtualisierung
  • die Betriebssystemvirtualisierung
  • die Netzwerkvirtualisierung
  • die Speichervirtualisierung
  • die Desktopvirtualisierung

Die Servervirtualisierung gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Alle auf einem physischen System realisierten virtuellen Server teilen sich die physischen Ressourcen und ermöglichen eine effizientere Auslastung der Hardware. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich, solange genügend physische Ressourcen verfügbar sind. Bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden.

Durch die Betriebssystemvirtualisierung sind auf einem Host-Betriebssystem andere Betriebssysteme parallel ausführbar. So lässt sich Windows auf einem Linux-Rechner oder umgekehrt Linux auf einem Windows-Rechner betreiben.

Die Netzwerkvirtualisierung trennt die Netzwerkfunktionen von den physischen Systemen. Die Anzahl an physischen Systemen wie Router oder Switche reduziert sich, da sie auf gemeinsamen Hostsystemen virtuell bereitgestellt sind. Das Software-defined Networking (SDN) erreicht einen hohen Grad der Virtualisierung und trennt die Netzwerksoftware vollständig von der Netzwerkhardware.

Speichervirtualisierung ist die virtuelle Bereitstellung von Speicherplatz, der sich über mehrere physische Storage-Geräte erstreckt. Für die Anwendung ist nicht ersichtlich, auf welchem physischen System die Daten abgelegt sind. Sie spricht nur den virtualisierten Speicher an. Die Virtualisierungssoftware sorgt für die physikalische Speicherung der Daten.

Ziele und Vorteile der Virtualisierung

Wichtigste Ziele der Virtualisierung sind die virtuellen Systeme von der Hardware zu entkoppeln und die zur Verfügung stehenden Ressourcen besser auszunutzen. Mehrere virtuelle Systeme teilen sich die zugrundeliegenden Ressourcen und schaffen die Grundlage für ein einfaches Skalieren der IT. Virtualisierung von Ressourcen wie Speicher, Server oder Netzwerke sorgt für höhere Effizienz und Kosteneinsparungen. IT-Ressourcen lassen sich schnell und mit geringem Administrationsaufwand virtuellen Umgebungen zuweisen ohne neue Hardware in den einzelnen Systemen installieren zu müssen. Die virtuellen Systeme sind im Bedarfsfall einfach auf andere physikalische Hostsysteme migrierbar und im Fehlerfall schnell wiederherstellbar.

Anwender eines virtuellen Desktops können überall auf ihren Arbeitsplatz zugreifen. Für Administratoren ergibt sich der Vorteil, vorkonfigurierte Desktopsysteme ohne großen Aufwand zentralisiert bereitzustellen und die Anzahl physischer Desktops zu reduzieren. Durch die Speicherung der Desktops inklusive Anwendungen und Betriebssystem in Dateien sind die virtuellen Maschinen einfach zu kopieren, zu verschieben und wiederherzustellen.

Die Abstraktionsschicht trennt Hardware vom virtuellen System und ermöglicht es IT-Verantwortlichen, frei zu wählen, welche Hersteller eingesetzt werden. Ein weiterer Vorteil ist, dass unterschiedliche Testumgebungen auf einem Hostsystem abbildbar sind. Die Umgebungen sind voneinander getrennt, komfortabel speicherbar und standardisierte Testbedingungen lassen sich einfach herstellen.

Virtualisierte Rechenzentrumsumgebungen sparen Energie, da die virtuellen Systeme die physikalische Hardware wesentlich effizienter auslasten.

Technische Umsetzung der Virtualisierung

In der Regel trennt eine Software (Hypervisor) die virtuellen Systeme von den physischen Ressourcen. Je nach Art des Hypervisors kann er direkt auf der Hardware oder auf einem beliebigen Betriebssystem aufsetzen. Der Hypervisor gestattet die Aufteilung der Ressourcen auf die virtuellen Systeme. Hierfür partitioniert er die Ressourcen und verhindert einen direkten Zugriff der virtuellen Maschinen. Die eigentlichen virtuellen Systeme laufen in den virtuellen Maschinen. Sie funktionieren wie Dateien und sind von einem Hostsystem auf eine anderes kopierbar.

Beispielhafte Anwendungsbereiche der Virtualisierung

Die Virtualisierung ist in vielen Bereichen einsetzbar. So können Entwickler ihre Programme in virtuellen Betriebssystemen ausgiebig testen, ohne produktive Umgebungen zu stören. Sollen zwei Anwendungen auf einem Rechner ausgeführt werden, die untereinander nicht kompatibel sind, bietet die Virtualisierung eine geeignete Lösung.

Service Provider virtualisieren ihre IT-Umgebungen, um schnell und flexibel auf Kundenanforderungen zu reagieren und die gewünschten Services quasi online bereitzustellen. Gleichzeitig sind die Systeme besser ausgelastet, leichter zu managen und bieten eine höhere Verfügbarkeit, Stabilität und Sicherheit. Die Desktopvirtualisierung stellt standardisierte Arbeitsplätze zur Verfügung, auf die über das Netzwerk von überall zugegriffen werden kann. Die Daten bleiben auf den Systemen zentral gespeichert und sorgen für ein hohes Schutzniveau kritischer Informationen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Wie passen Application-Container in eine sichere Software-Pipeline?

CLOUD 2019 – Interview mit Erik Auer

Wie passen Application-Container in eine sichere Software-Pipeline?

Diese Woche ist in Bonn die diesjährige Konferenz „CLOUD 2019 – Technology & Services“ gestartet. Gemeinsam mit Wolfgang Haider, Teamleiter Configuration Management Raiffeisen Software, bestreitet Erik Auer, Cloud Solution Architekt bei Whizus, dabei die Keynote „Deployment im Container: Business Anforderungen und technische Umsetzung“. Im Vorfeld haben wir mit Herrn Auer ein Interview geführt. lesen

VMware baut vSphere auf Kubernetes neu

Software-Container als Basis für VMware-Virtualisierungssoftware

VMware baut vSphere auf Kubernetes neu

VMware plant die Wiedergeburt seiner Virtualisierungssoftware: „vSphere“ steigt mithilfe von „Kubernetes“ auf Container um. VMware CEO Pat Gelsinger sagt dazu: „In Zukunft werden unsere VMs und Container unter einer einheitlichen Kubernetes-Plattform erstellt, betrieben und gemanagt“. lesen

Die heißesten Cloud-Native-Projekte für das Rechenzentrum

Kubernetes als Basis

Die heißesten Cloud-Native-Projekte für das Rechenzentrum

Die „Cloud 2019 Technology & Services Conference“ steht ins Haus. Im Zuge von Digitalisierung, Cloud-Transformation und Anwendungsmodernisierung kommen Unternehmen um den Einsatz neuster Technologien rund um Container und Cloud Native nicht mehr herum. lesen

So erstellen Sie eine VM mit VirtualBox und Hyper-V

Virtueller Windows-10-PC für Tests und sicheres Surfen

So erstellen Sie eine VM mit VirtualBox und Hyper-V

Für Softwaretests oder als sicheren Internet-PC bietet es sich an, einen virtuellen Computer zu installieren. Wir zeigen in diesem Beitrag, welche Möglichkeiten es dazu mit Hyper-V und VirtualBox gibt und was die Windows 10 Version 1903 hierzu für Neuerungen bietet. lesen

So geht die Datenspeicherung in der Multicloud

Cloud 2019 Technology & Services Conference

So geht die Datenspeicherung in der Multicloud

Am 10. September beginnt in Bonn die Veranstaltungsreihe „Cloud 2019 Technology & Services Conference“ mit Fachvorträgen, Live Demos und Technologie Outlooks statt. Jeweils um 11:45 Uhr startet ein Roundtable zum Thema „Wie speichere ich Daten (effizient) in Cloud-Infrastrukturen?“ unter Leitung von Harald Seipp, Gründer & Leiter Kompetenzzentrum für Cloud-Speichertechnologien bei IBM. lesen

Was ist Container as a Service (CaaS)?

Definition: Container-basierte Virtualisierung aus der Cloud

Was ist Container as a Service (CaaS)?

CaaS ist ein Cloud-Computing-Modell, das Container-basierte Virtualisierungsleistungen als Service aus dem Netz bereitstellt. Es ist zwischen den Modellen Infrastructure as a Service und Platform as a Service angesiedelt. Zahlreiche Public-Cloud-Anbieter wie Microsoft, Google und Amazon stellen Kunden CaaS-Angebote zur Verfügung. lesen

So klappt es mit der Cloud-Migration

Cloud 2019 Technology & Services Conference

So klappt es mit der Cloud-Migration

Am 10. September startet die Cloud 2019 Technology & Services Conference im Kameha Grand in Bonn. Wir sprachen im Vorfeld der Veranstaltung mit Dr. Sven Seiler, Manager Cloud Computing, Storm Reply über die schwierige Lage, in der sich Unternehmen bei der Migration von Anwendungen in die Cloud befinden. Mehrere komplizierte Entscheidungen müssen dabei getroffen werden. lesen

Verschlüsselung und Tokenisierung reichen nicht!

CLOUD Act vs. DSGVO

Verschlüsselung und Tokenisierung reichen nicht!

Der CLOUD Act stellt Unternehmen in Europa vor Herausforderungen. US-Behörden dürfen auf Daten zugreifen, die auf Servern in Europa liegen, solange sie von US-Hostern oder Cloud-Anbietern bzw. deren ausländischen Ablegern verarbeitet oder gespeichert wurden. US-Anbieter empfehlen daher, Daten technisch zu verschleiern. Doch schützt das die Daten vor dem Zugriff? lesen

Arbeitsplatz digital – Was ändert sich unter der Motorhaube der IT?

Digital Workplace mit Office 365 (Teil 2)

Arbeitsplatz digital – Was ändert sich unter der Motorhaube der IT?

Der digitale Arbeitsplatz mit Microsoft Office 365 stellt für IT-Verantwortliche nicht weniger als einen Paradigmenwechsel dar. Was passiert unter der Motorhaube der IT, wenn sämtliche Office-Anwendungen aus der Cloud bezogen werden? Bleibt im Maschinenraum der IT-Abteilungen oder IT-Dienstleister überhaupt noch etwas übrig? lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45441768 / Definitionen)