Suchen

Wie man physische und virtuelle Maschinen beschleunigt, Teil 1 Ein Halbleiterbauelement bewegt die Rechenzentrums-IT

Autor / Redakteur: André Braun, Dell / Rainer Graefen

Welchen Stellenwert sollten Solid-State-Speicher in Ihrer Architektur einnehmen? Und was sind die besten Optionen für ein durchschnittliches Rechenzentrum? Einige grundsätzliche Überlegungen für den Einsatz von Flash-Speicher respektive SSD im Unternehmen.

Firmen zum Thema

Blockdiagramm eines Flash-ICs: kleines Bauteil - große Wirkung. An der richtigen Stelle eingesetzt, können Flash-ICs eine enorme Zugriffsbeschleunigung von Anwendungen oder deren Metadaten bewirken.
Blockdiagramm eines Flash-ICs: kleines Bauteil - große Wirkung. An der richtigen Stelle eingesetzt, können Flash-ICs eine enorme Zugriffsbeschleunigung von Anwendungen oder deren Metadaten bewirken.
(Grafik: Dell)

Solid-State-Speicher (SSS) sind auf dem Weg zur Massenmarkttauglichkeit und werden allmählich auf allen Ebenen des Markts angenommen. Dem Administrator bieten sich vielfältige Möglichkeiten, die I/O- Beschleunigertechnik in die Infrastruktur zu implementieren. Man sollte sich aber darüber klar sein, dass der Einsatz von SSD-Technik sehr unterschiedlich auf Anwendungen wirkt.

Der Schlüssel zum bedarfsgerechten, sinnvollsten Einsatz von SSS liegt in der Kategorisierung von Workload-Profilen. Profile mit starkem Transaktionsanteil – wie beispielsweise OLTP-Datenbanken – sind ein erstklassiges Beispiel dafür, wie hilfreich der Einsatz von SSDs sein kann. Andererseits ist es möglich, dass eine falsch eingesetzte Solid State Disk ein System langsamer machen kann.

Bildergalerie
Bildergalerie mit 7 Bildern

Der richtige Ort für schnelle Transaktionen

Wie also sollte SSD-Technik eingesetzt werden, um massenkompatible Anwendungen mit starkem Transaktionsanteil zu unterstützen? Wer glaubt, dass SSD-Technik an sich Transaktionen beschleunigt, sollte sich zuvor intensiver damit beschäftigen, wie die Flash-Beschleunigertechnik durch den Einsatzort limitiert wird. Als Einsatzorte kommen in Frage:

  • 1. Als SSD im Server,
  • 2. im Server als PCIe-basierte Flashkarte,
  • 3. als Cache im Shared Storage,
  • 4. als Tier im Shared Storage,
  • 5. als Teil eines hybriden Speichersystems,
  • 6. als Shared Storage in einem dedizierten Hochgeschwindigkeits-Array

Die Vor- und Nachteile dieser Einsatzmöglichkeiten werden in den folgenden Abschnitten näher erläutert.

1. Die SSD als Festplatte im Server

SSD als Ersatz für Festplatten lassen sich wie diese auch als Direct Attached Storage (DAS) einsetzen. Das war eine der ersten Optionen für den Einsatz von Flashspeichern, bringt aber das Problem mit sich, dass die Daten über eine Festplattenschnittstelle laufen müssen.

Inzwischen stellt sich heraus, dass die Festplattenschnittstellen (SATA-300 und 600) unzureichende Signalqualitäten besitzen und damit der Flash-Performanz zum Opfer fallen werden. Über längere Sicht haben nur SAS-Schnittstellen mit 12 GBit/s ausreichend Bandbreite für die immer schneller werdenden Solid State Disks, die im Enterprise-Segment schon heute mit Transportgeschwindigkeiten von acht bis 10 GBit/s arbeiten.

Der mit SSDs ausgestattete Server genießt durch die hohe I/O-Rate von 5.000 bis 10.000 IOPS zwar Leistungsvorteile, unterliegt aber trotzdem denselben Einschränkungen in der Workload-Mobilität wie eine Lösung mittels PCIe-basiertem Flash.

Überdies lässt sich das höhere €/GByte-Verhältnis von SSDs eine Ausstattung des Servers mit genügend SSDs, um den Kapazitätsanforderungen eines DAS auf diesem Server zu genügen, nur schwer rechtfertigen.

Einen statischen Workload gibt es nicht

Es stellt sich leider auch die Frage: „Welche Daten sollte ich auf den SSDs lagern?“ Es erfordert eine detaillierte Analyse des Workloads auf einem Server, um die optimale Verteilung der Daten zwischen SSDs und regulären Festplatten zu bestimmen. Kein einfaches Geschäft, da die Daten-Hotspot nicht erkennbar sind.

Zusätzlich zu einer für eine solche Analyse nötigen, speziellen Expertise ist es sehr wahrscheinlich, dass eine solche statische Datenverteilung den sich ständig ändernden Bedürfnissen vieler Workloads nicht gerecht wird – vor allem in den zufälligen Ein-/Ausgabeströmen, die von konsolidierten und virtualisierten Umgebungen erzeugt werden.

Natürlich geht mit der Notwendigkeit von Datenschutz in solchen Umgebungen noch eine Vielzahl anderer Herausforderungen einher, deren Schilderung im Detail hier den Rahmen sprengen würde. Es genügt wohl, festzuhalten, dass eine solche Konfiguration vor allem in hochgradig spezialisierten, dafür vorgesehenen Anlagen zum Einsatz kommt.

2. Im Server via PCIe-Attached-Flashtechnik

PCIe-attached-Flashtechnik wird häufig als Cache für Eingaben/Ausgaben (E/A) eingesetzt. Verlangt das Betriebssystem Festplattenzugriffe, dann werden die Daten in diesen Cache geschrieben. Sie verbleiben dort, bis sie überschrieben werden.

Dabei wird der Cache nahezu immer als reiner Lesespeicher konfiguriert, da bei einem Schreibcache die Gefahr eines Datenverlustes bei Unterbrechung der Schreibvorgänge nicht ausgeschlossen werden kann. So verbleibt der Plattenspeicher im inkonsistenten Zustand.

Write-through-Cache muss deshalb auf Bestätigung des Backend-Speichers (gleichgültig, ob DAS oder Shared) warten, was einen Performanz-Nachteil mit sich bringt. Ein Beispiel für eine praktische Anwendung stellt die Dell PowerEdge PCIe Express Flash SSD dar.

Scale-up mit PCIe-Slots

Die Flexibilität einer solchen Lösung ist durch die Einführung von PCIe-kompatiblen Erweiterungsschächten für Wechselmedien noch steigerbar, wie das Beispiel eines Dell PowerEdge R720 12 G Server zeigt.

Ein Nachteil dieser Anwendung: Die Beschleunigung, die dieser Cache ermöglicht, steht nur für Workloads auf dem Server (VM oder physisch) zur Verfügung, in dem der Flashspeicher auch tatsächlich verbaut ist.

Dies verhindert aber, dass einige Vorteile der Virtualisierung wie Dynamic Load Balancing oder die hohe Verfügbarkeit durch die Mobilität virtueller Workloads voll ausgeschöpft werden können. Einen weiteren Nachteil stellt die mangelnde Integration in eine Shared-Storage-Infrastruktur dar.

Die Dateienschutz- und Verwaltungsvorteile, die eine Shared-Storage-Umgebung bietet, stehen nicht für die Daten im PCIe-Cache zur Verfügung. Herkömmliche PCIe-Flash-Speicher kommen also nur lesezugriffintensiven Workloads zugute, die auf einem dedizierten Server laufen.

Schreibbestätigung beschleunigen

Neue Produkte einiger Unternehmen haben sich dieser Problempunkte angenommen, wobei die Einführung von schreibkonsistentem Cache mit Dateischutz eine Verbesserung darstellt: Dieser ermöglicht es, sowohl Lese- als auch Schreibzugriffe zu beschleunigen und dabei Datenverluste im Falle eines Versagens des als Cache dienenden Flashspeichers zu verhindern.

Dell hat mit Fluid Cache für DAS 1.0 eine Technologie zur Anwendungsbeschleunigung herausgebracht, die Dells PCIe SSD und Fluid Cache Software kombiniert und lokalen Server-Attached-Laufwerken sowohl Lese- als auch Schreibcaching ermöglicht. In diesem Dell Tech-Center-Blog finden Sie weiterführende, interessante Informationen, wie Sie die Leistung Ihrer OLTP-Datenbank steigern können.

Der nächste Schritt bei dieser Technologie wird es sein, die Option für kombiniertes Caching auch in Shared-Storage-Lösungen zu integrieren. Dell hat bereits angekündigt, diese Option in einem Projekt namens Fluid Cache for SAN zur Verfügung zu stellen.

Clustered SSD-Caching

Dieses fußt auf Technik, die Dell bei der Übernahme von RNA Networks erworben hat. Das Spannende an diesem Projekt: Workloads können mit einer hohen Performanz bereitgestellt werden, da diese sich durch einen Servercluster bewegen und im Falle eines Serverversagens der Schutz der Daten gewährleistet bleibt.

Durch den Einsatz einer Hochgeschwindigkeits-RDMA-Schnittstelle werden mehrere Server verbunden und Daten können simultan in deren Cache geschrieben werden. Dies bietet zwei Vorteile: Schutz gegen Datenverlust im Falle eines Serverausfalls und die Möglichkeit, einen Cache mit anderen Servern in einem Hochgeschwindigkeitsnetzwerk zu teilen.

Geplante Erweiterungen dieses Projekts sehen vor, die Dateischutz- und Verwaltungsvorteile eines Compellent SANs auf im Cache befindliche Dateien auszuweiten – und damit im Prinzip Server-Attached-Flashspeicher zu einer verwaltbaren Schicht in der Infrastruktur des Datenspeichers zu machen. Dadurch verwischen die Grenzen zwischen dem Serverspeicher und der eigentlichen Datenhaltung.

Teil 2 erscheint am Mittwoch, dem 31. Juli 2013

(ID:42229527)