Keine Chance den Zombies unter den virtuellen Maschinen! 7 Ratschläge für die Optimierung von virtuellen Rechenzentren
Die Virtualisierung von Servern und Netzen gehört im Cloud-Zeitalter zu den wichtigsten Aufgaben der IT-Abteilung. Das Management eines virtuellen Rechenzentrums kann sich aber als sehr komplex erweisen. Sieben Best Practices helfen dabei, hohe Leistung und niedrige Kosten in virtuellen Rechenzentren zu erzielen.
Anbieter zum Thema

Virtualisierung steht schon seit Jahren bei den IT-Verantwortlichen auf der Prioritätenliste ganz weit oben. Und das aus gutem Grund. Für Unternehmen bieten virtualisierte (Cloud)-Strukturen ganz neue Möglichkeiten, ihre IT flexibler und effizienter zu gestalten.
Da Virtualisierung die starre Zuordnung von Software und Hardware durch einen Ressourcen-Pool mit Speicher- und Serversystemen ersetzt, können Unternehmen die gesamte IT-Infrastruktur gezielter einsetzen und kostengünstiger betreiben. IT-Ressourcen lassen sich je nach Bedarf eines Services nach oben oder unten skalieren.
Das Management eines virtuellen Rechenzentrums ist aber alles andere als trivial, da der Administrator es mit einer Vielzahl von Software-und Hardware-Konfigurationen, Einstellungen und Arbeitsabläufen zu tun hat. Zudem muss er den Spagat zwischen Hochverfügbarkeit, Leistung und möglichst geringen Betriebskosten meistern. Administratoren sollten daher die folgenden sieben Punkte berücksichtigen:
1. Virtuelle Maschinen richtig dimensionieren
Virtuelle Maschinen (VM) sollten immer in der passenden Größe aufgesetzt werden, um Kosten zu sparen und die optimale Leistung zu erzielen. In den frühen Tagen der Virtualisierung wurden über die Physical-to-Virtual-Konvertierung (P2V) viele physische Server einfach Bit für Bit in virtuelle Maschinen verwandelt. Diese Strategie ist heute nicht mehr zu empfehlen, da schlecht ausgelastete virtuelle Maschinen Ressourcen verschwenden.
Entscheidend ist die richtige Balance bei der Bereitstellung von Ressourcen wie CPU oder Speicher. Dabei helfen Management-Tools, die eine virtuelle Maschine auf Basis hochentwickelter Algorithmen und anhand der geforderten Arbeitslast in der passenden Größe konfigurieren. Sie erkennen auch, welche Ressourcen der Maschine zugewiesen wurden und wie viel sie davon tatsächlich nutzt. Im Umkehrschluss ermitteln sie zudem, welche virtuelle Maschine zu stark belastet wird, mehr Ressourcen benötigt oder auf einen leistungsstärkeren physischen Server verschoben werden muss. Zudem finden sie dank ausführlicher Reporting-Funktionen heraus, wie viele weitere virtuelle Maschinen noch auf einem Host Platz finden.
2. Wildwuchs von VMs vermeiden
Virtuelle Maschinen lassen sich schnell und einfach einrichten. Daher kann es passieren, dass virtuelle Maschinen – die etwa für Testzwecke eingerichtet wurden – vergessen, oder nicht mehr benötigte VM nicht erkannt werden. Sie beanspruchen aber Hardware- und Software-Ressourcen oder Speicherplatz und verursachen damit unnötige Kosten. Abhilfe schafft hier ein Lifecycle Manager für die Automatisierung und Kontrolle virtueller Maschinen über ihren gesamten Lebenszyklus.
Er beseitigt fehleranfällige und zeitaufwändige manuelle und sich wiederholende Aufgaben und unterstützt die Einhaltung von IT-Richtlinien sowie -Standards. Da der Administrator damit alle Ressourcen zentral überwachen kann, erkennt er VM, die er deaktivieren kann. Dazu gehören beispielsweise „vergessene“ VM-Images, die in der virtuellen Umgebung weiter Ressourcen verbrauchen, Snaphots, die schon länger nicht mehr verändert wurden, oder „Zombie-VM“, die im Self-Service-Portal von Private-Cloud-Umgebungen etwa für den Test von Anwendungen erstellt wurden und nicht mehr gebraucht werden.
3. Speicherleistung optimieren
Während physische Server häufig nur einen geringen Teil ihrer verfügbaren Bandbreite benötigen, sieht dies bei einem virtuellen Host, der Dutzende virtueller Maschinen konsolidiert, anders aus. Hier entscheidet die richtige Speicherkonfiguration über die Leistung und Verfügbarkeit der Infrastruktur. Voraussetzung dafür ist, die kritischen physischen Speicher-Subsysteme zentral zu verwalten und zu kontrollieren.
4. vSphere DRS Load Balancing nutzen
Damit die virtuellen Maschinen optimale Leistung bringen, sollten Administratoren den „Distributed Ressource Scheduler“ (DRS) von „vSphere“ einsetzen. DRS ist ein zentrales Feature zur dynamischen Verteilung von Rechenleistung innerhalb eines Clusters aus physikalischen Hosts. DRS beschränkt sich nicht nur auf die anfängliche intelligente Platzierung einer VM, sondern dient auch als Load Balancer, der VM mit Hilfe von vMotion je nach Bedarf auf andere Hosts mit geringer Auslastung verschiebt. DRS lässt sich so einstellen, dass es entweder die Ressourcen innerhalb eines Clusters automatisch verteilt, oder nur Empfehlungen erzeugt, die der Administrator dann selbst umsetzen kann.
5. Energie-Effizienz maximieren
Ziel der Betreiber von Rechenzentren sollte immer sein, den Energieverbrauch zu senken, um Kosten zu sparen. Im Zuge der automatisierten Virtualisierung ist es sehr einfach möglich, je nach Anforderung virtuelle Maschinen hinzuzufügen oder abzuschalten.
Die zentrale Herausforderung besteht darin, die neuen VM automatisiert rechtzeitig mit Strom zu versorgen. Intelligente Tools erkennen die minimale Anzahl an Host-Servern, die für den zuverlässigen und sicheren Betrieb von Workloads notwendig sind, und geben Aufschluss darüber, wie viel Kosten das Abschalten von nicht benötigten Servern einspart.
6. Kapazitäten proaktiv managen
Die Basis für die hohe Verfügbarkeit und Leistung von virtuellen Maschinen sind vSphere-Cluster. Für die dynamische Lastenverteilung und effiziente Nutzung der Ressourcen sorgt „vMotion“ in Verbindung mit „HA“ (High Availability) und dem bereits beschriebenen DRS (Dynamic Resource Scheduler).
Wird das Cluster nicht richtig implementiert, können ungeahnte Probleme entstehen. Da viele virtuelle Maschinen gemeinsam auf Ressourcen-Pools wie CPUs und RAM zugreifen, kann das Fehlverhalten einer einzelnen VM den Betrieb anderer Maschinen behindern. Daher ist eine Monitoring-Lösung vonnöten, die die einzelnen Last- und Performance-Parameter der VM misst.
Zudem ist es sehr wichtig, auf jedem Host einen bestimmten Prozentsatz an freien Kapazitäten zu reservieren, um beispielsweise auf ein unerwartetes Wachstum von VM vorbereitet zu sein. Diese reservierten Slots sind auch bei einem Failover wichtig, denn HA startet VM auf einem anderen Knoten des Clusters automatisch neu, falls sie durch den Defekt eines Hosts nicht mehr verfügbar sind. Voraussetzung dafür ist, den Ressourcenverbrauch der aktiven virtuellen Maschinen und die Auslastung der Hosts in einem Cluster permanent zu überwachen und die Failover-Kapazität entsprechend zu berücksichtigen.
7. Kapazitäts-Szenarien für die Zukunft planen
Virtuelle Umgebungen und vor allem das Cloud Computing sind sehr komplex. Daher reicht heute das „Bauchgefühl“ von Administratoren nicht mehr aus, um den künftigen Ressourcen-Bedarf festzustellen. Vielmehr sollten sie Management-Lösungen nutzen, um durch dynamische Kapazitätsplanung zu bestimmen, wie die Infrastruktur zukünftige Rechenlasten bewältigen kann. Das Tool sollte auch "Was-wäre-wenn"-Szenarien unterstützen.
Die Verwaltung eines virtuellen Rechenzentrums stellt zweifellos eine Herausforderung dar, denn neben der optimierten Auslastung der Ressourcen im aktuellen Rechenzentrum muss der Administrator auch die Planung für das künftige Wachstum im Auge haben. Die genannten Best Practices und der Einsatz richtiger Management-Tools helfen dabei.
* Bernd Carstens ist Senior Solution Architect und Virtualisierungsspezialist bei Dell Software.
(ID:43091044)