Über die Fortschritte von Converged Storage, Software defined Datacenter und ein Backup-Konzept für alles Das HP Storage Update zur Discover 2012
Es hängt viel ab vom schnellen Zugriff auf die Daten. Wer möchte schon von einem Roboter an der Lunge operiert werden, der nicht mit dem Atemzyklus des Patienten mithalten kann. Doch zuvor ist noch einiges im Rechenzentrum auf Spur zu bringen.
Anbieter zum Thema

Ungeachtet aller Turbulenzen und Rekordverluste bei HP in den letzten Monaten, ist man bei HP Storage voll auf Kurs. So jedenfalls unisono die Riege der HP-Storage-Verantwortlichen, die in Barcelona einer ausgewählten Schar europäischer Fachjournalisten Rede und Antwort standen über die Aktivitäten der Storage-Division.
Zwischen dem 4. und 6. Dezember 2012 sollen auf der Anwenderkonferenz HP Discover 2012 in Frankfurt weitere Produktdetails enthüllt werden.
Alles ändert sich
Eine Frage, die sicherlich nicht nur die Verantwortlichen bei HP bewegt, ist, wie werden Daten in Zukunft gespeichert: Kann man mit Speichersystemarchitekturen, die vor zehn, wenn nicht zwanzig Jahren entwickelt wurden, Daten zeitgemäß speichern.
Ein Teil der Debatte wird gegenwärtig bei Unified Storage ausgetragen, ob NAS- und Blockspeicher nicht doch besser getrennt agieren sollten, ein anderer Teil der Debatte dreht sich um die Frage wie viel Daten braucht der Mensch online.
Und ganz generell steht die Frage nach Kosteneinsparungen immer im Raum, die angesichts des Datenwachstums in Zentrale und Zweigstellen von Unternehmen vorrangig der Konsolidierung im Backup-Bereich ausgetragen wird.
Der Wachstumsfaktor
Ausgangspunkt bei HP ist, dass sich die Welt geändert hat und sich weiter ändern wird. Ein E-Book auf der Anmeldeseite zur HP Discover fasst diese "Einsicht" in den Vergrößerungsfaktor des Datenwachstums: 44x. Zwischen 2009 und 2020 wird dann am Anfang des 3. Jahrzehnts in diesem Jahrtausend die Datenmenge 127 Exabyte betragen.
Solche Erwartungen beinhalten philosophische Anmutungen, werfen aber weitere Fragen auf, wie mit diesen Datenmengen umgegangen werden soll. Speichern allein wäre die langweiligste und nicht zuletzt kostspieligste Option, so viel ist klar. Big Data steht zwar überall auf der Tagesordnung, ist allerdings auch nur die nebulöse Antwort, dass mit den Daten etwas passieren sollte.
Im HP Whitepaper wird deshalb beispielhaft die Robotertechnik auf einem Zeitstrahl bis 2035 vorgestellt. Das reicht von Waffentechnik, über Hausroboter, Nanobots, Roboterchirugie bis hin zum selbständig operierenden Kampfroboter. Alle Varianten brauchen Speicher- und Rechentechnologien, die fähig sind die relevanten Informationen in wenigen Sekundenbruchteilen bereitzustellen. Das lässt sich selbstredend auf jede andere Naturwissenschaft übertragen.
Virtual Compute-Store-Transport
Vielleicht werden wir nicht mehr allzulange über die Vorzüge der Virtualisierung reden müssen. "In den nächsten zwei Jahren, werden 80 Prozent der Rechner-Workloads in virtuellen Maschinen stattfinden", wagt Tom Joyce, Vice President Marketing, Strategy & Operations bei HP, einen Blick in die nahe Zukunft. Damit wäre auch der Weg für das Software definierte Rechenzentrum geebnet, in dem jede Funktion im Netzwerk-, Rechner und Storage-Layer virtualisiert ist.
Damit gäbe es die Chance viele IT-Prozesse anders zu gestalten. Ist die IT als Service etabliert, dann ist sie es auch in jeglicher Form der Cloud-Realisierung, sei es Privat, Public oder Hybrid. Die Gelegenheit wäre da, dass jedes Rechenzentrum flexibel auf die Kundenbedürfnisse reagieren und als Service-Provider agieren könnte, warb Joyce für die rasche Anwendung der größeren Freiheitsgrade durch die vollständige Virtualisierung.
Diese Ideen sind allerdings nicht neu. Vor etwa zehn Jahren scheiterten noch viele Rechenzentren am Übergang zum IT-Service-Provider. Die Technologie hat aber einige Fortschritte gemacht. Das macht sich auch an neuen Devices wie dem iPAD bemerkbar, das viele Unternehmen inzwischen in die eigene IT-Infrastruktur integriert haben oder integrieren mussten. Ohne Virtualisierung und breitbandigere Funknetze wäre das nicht möglich gewesen.
Vorhersagbarkeit
Fortschritte in der Benutzung von IT-Equipment sind insofern überall bemerkbar. Viele Mitarbeiter möchten mit den privaten Gerätschaften auf die Unternehmens-IT zugreifen und genau damit bringen sie die gewohnte, eingespielte Routine in deren Verarbeitungsprozessen schwer durcheinander.
Das hat auch Auswirkungen auf eigentlich gut ausbalancierte Speichersysteme. Die Architektur der Systeme wurde teilweise schon vor 22 Jahren entwickelt, kritisiert Joyce die Konkurrenz und wähnt sich mit dem eigenen Speicher-Portfolio im Vorteil. HP habe vor zwei Jahren die eigene Produktpalette durchgemustert und auf ihre Tauglichkeit für das nächste Jahrzehnt untersucht.
Die Anforderung, die moderne Speichersysteme erfüllen müssen, sagt Joyce, ist, dass sie mit unvorhersehbaren Arbeitsspitzen zu Rande kommen müssen. Nur mit darauf abgestimmten Systemen könne ein Rechenzentrum den Job als Service-Provider erfolgreich abarbeiten. Die Zeiten seien vorbei, wo der IT-Leiter seine RZ-Komponenten auf die immer gleichen Lastwechsel auslegen konnte.
Mit der Unvorhersehbarkeit der Arbeitslast in virtualisierten Umgebungen erklärt Joyce im Nachhinein den harten Zweikampf mit Dell um den Besitz des 3Par-Systems, das auf einer nur zehn Jahre alten Architektur fusst. Prinzipiell wendet HP diese Sichtweise und den Bedarf nach neuen Architekturen auch bei Netzwerk und Servertechnik an. Und konkurrenzentscheidend sei der Einsatz von Industriestandards, die die Konvergenz von Technologien und die Integration neuer Funktionen beschleunigen würde.
Virtualisierung ist Software
Industriepartner können auf dieser Standardplattform kostengünstig Funktionen implementieren, die ein besseres Overall-Management ermöglichen. Diesem soliden und konsolidierenden Industriestandard stülpt HP zunehmend die eigene Intellectual Property über, die als Ziel ein Software definiertes Rechenzentrum zur Folge hat. Zu sehen ist dies beispielsweise in erster Näherung bei Lefthand.
Die Funktionalität der HP-Speicherprodukte soll damit eine Frage von Software sein. Diese Argumentation ist häufig auch von anderen Herstellern zu hören, die allerdings meist aus der Unsicherheit über die technische Zukunft herrührt. Sobald sich Software-Funktionen als funktionell bewiesen haben, werden sie, vor allem bei Speichersystemen, in "Hardware gegossen", um mehr Performance zu gewinnen.
Unabhängig davon, ob ein System in Hardware oder Software läuft, die HP Vision kommt bei Analysten wie Gartner an. Wie weit man bei Hewlett-Packard den Bedürfnissen der Kunden mit dieser Strategie schon entgegengekommen ist, wird zwischen dem 4. bis 6. Dezember zu eruieren sein, wenn die Details des Backup-Konzepts StoreOnce, von Lefthand, 3Par und auch vom Big Data Analysewerkzeug Autonomy vorgestellt werden.
(ID:35748840)