Intelligentes Datenzentrum erfordert ausgeklügelte Roadmap

Cloud Data Storage: Hybride Konzepte für Datenspeicher gefragt

Seite: 3/3

Anbieter zum Thema

Fazit: Ein „One-size-fits-all“-Ansatz für die betriebliche Rechenzentrums-Strategie angesichts von Big Data, der alle relevanten Aspekte wie Verfügbarkeit, Skalierbarkeit, aber auch Datenschutz, Compliance und Revision berücksichtigt, ist derzeit nicht in Reichweite. Die Unternehmen sollten laut IDC deshalb zunächst ihre individuelle Ausgangssituation bei den Speichersystemen (Skalierbarkeit, Kapazität, Performance, Verfügbarkeit, Sicherheit und Kosten) möglichst exakt bestimmen.

Gerald Sternagl, EMEA Business Unit Manager Storage bei Red Hat.
Gerald Sternagl, EMEA Business Unit Manager Storage bei Red Hat.
(Bild: Red Hat)

Den daraus resultierenden Schritte adressiert Gerald Sternagl, EMEA Business Unit Manager Storage bei Red Hat: „Unternehmen benötigen eine Storage-Architektur, die mit den Anforderungen mit wächst und sich stufenlos und unterbrechungsfrei in Kapazität und Performance erweitern lässt“. Eine solche Architektur sollte laut Red Hat auf rasch verfügbaren Standardkomponenten basieren, flexible physische und virtuelle Deployment-Modelle adressieren, sowie eine Verlagerung nicht-kritischer Daten zur Erweiterung der Kapazitäten und zum Abdecken von außerplanmäßigen Spitzenbelastungen in die Cloud unterstützen.

Eile mit Weile

Der Experte sieht gerade an der kritischen Schnittstelle der Datensicherheit die Open-Source-Anbieter im Vorteil. Denn dort stelle eine Community von Entwicklern, Endanwendern und Open-Source-Anbietern gemeinsam sicher, dass eine größtmögliche Sorgfalt bei sicherheitsrelevanten Anforderungen und der Code-Qualität eingehalten werde: „Cloud-Storage-Dienste machen für Unternehmen nur Sinn, wenn der Provider anspruchsvolle SLA’s sicherstellen kann und der Anwender die volle Kontrolle darüber hat, Daten bereits abzusichern und zu verschlüsseln, bevor sie die Unternehmensgrenzen verlassen“, bilanziert Sternagl.

Anzuraten ist ohnehin ein stufenweiser Übergang in die cloudbasierte Speicherwelt. Zunächst sollte das Unternehmen nicht-kritische Daten auslagern und entsprechende Verfahren und Vorschriften implementieren und überprüfen, um etwaige Datenlecks proaktiv zu unterbinden. Der Aufwand dafür kann jedoch je nach Industriezweig beträchtlich ausfallen. Um diese Sisyphos-Arbeit zu reduzieren, empfiehlt Red Hat unter anderem, die direkte Nutzung der Public-Cloud-Datendienste durch Endanwender zu unterbinden und stattdessen nur Daten auszulagern, deren Herkunft und Inhalte bekannt sind, etwa verschlüsselte Archiv- oder Backup-Daten. Laut Sternagl empfehle sich daher für kritische oder für Endanwender zugängliche Datendienste eher der Aufbau einer sicheren, standardisierten und offenen Private-Cloud-Infrastruktur.

Und abschließend wäre bei der Auswahl der individuell maßgeschneiderten Speichermixtur kritisch zu hinterfragen, welche Anforderungen auf das Unternehmen in den kommenden drei bis fünf Jahren zukommen. „Die Kluft zwischen der aktuellen Leistungsfähigkeit und dem zukünftigen Anforderungsprofil sollten strategisch adressiert und mit Maßnahmen hinterlegt werden, die einer Überlastung der Speichersysteme in den kommenden Jahren entgegenwirken“, fasst Marktanalyst Mark Alexander Schulte von IDC zusammen.

(ID:42336777)