Interview mit Alexander Wallner, Area Vice President Central EMEA NetApp Was die sichere Cloud Data Storage leisten muss

Autor / Redakteur: Lothar Lochmaier / Elke Witmer-Goßner

„Der Trend geht auch im Rechenzentrum zur Hybrid Cloud“, sagt Alexander Wallner von NetApp. Denn je nach Bedarf ließen sich so schnell und einfach zusätzliche Leistungsressourcen einkaufen und Lastspitzen kostengünstig abdecken. Im folgenden Interview erläutert der Experte, wie Unternehmen den konzeptionellen Spagat bewältigen.

Wenn es um Speicher und Speicherleistung geht, fragen Kunden heute nicht mehr nach den Features der Komponenten, sondern wollen mehr über Performance, Ausfallsicherheit und Nutzen wissen.
Wenn es um Speicher und Speicherleistung geht, fragen Kunden heute nicht mehr nach den Features der Komponenten, sondern wollen mehr über Performance, Ausfallsicherheit und Nutzen wissen.
(Bild: © Rainer Grothues - Fotolia)

CloudComputing Insider: Herr Wallner, wie lassen sich Speicherkapazitäten flexibel gestalten und nach oben fahren?

Alexander Wallner: Im Grundsatz geht es heute bei allen Speicherkonzepten um Flexibilität und Skalierbarkeit. Um beides gewährleisten zu können, braucht es eine service-orientierte Infrastruktur im Rechenzentrum. Durch die Kombination von Technologien zur Virtualisierung der Hardware, von Management-Software und Automatisierung der Storage-, Server- und Netzwerkprozesse können Applikationen, Daten und Ressourcen sicher, effizient und ökonomisch gemanagt werden. Die Speicherbetriebssystem-Plattform clustered Data ONTAP von NetApp beispielsweise ist bereits virtualisiert, leicht zu orchestrieren, zu automatisieren und in Cloud-Konzepte zu integrieren. Auf diese Weise sind wir Workload-tolerant, wir haben mit der Agile Data Infrastructure eine Basis geschaffen, mit der Kunden auf das dynamische Wachstum der Datenmengen und auf neue Geschäftsanforderungen reagieren können. Die Infrastruktur wächst flexibel mit, lässt sich an neue Service-Level anpassen und erfüllt höchste Sicherheitsansprüche – und sie ebnet den Weg in die Cloud.

Welche unterschiedlichen Konzepte gibt es für den passenden Mix zwischen stationärer und „Cloud Data Storage“?

Wallner: Die Konzepte sind zahlreich und orientieren sich an den jeweiligen Branchenanforderungen, dem individuellen Datenvolumen und der Relevanz der Daten. Gibt es keine hohen Anforderungen an Sicherheit und Verfügbarkeit, eignet sich die Public Cloud. Wer die architektorellen und prozessualen Vorteile der Cloud bei voller Kontrolle über seine Daten nutzen will, wird in eine Private Cloud in den eigenen Rechenzentrumsflächen investieren. Der Trend geht zur Hyprid Cloud, also eine Private Cloud mit verlängertem Arm in die Public Cloud. Je nach Bedarf lassen sich so schnell und einfach zusätzliche Leistungsressourcen einzukaufen und Lastspitzen kostengünstig abzudecken.

Lassen sich die gerade bei privaten Usern üblichen Dienste (z.B. Dropbox, CloudMe etc.) überhaupt für professionelle Unternehmen nutzen, und wenn ja, welche eignen sich in welcher Form?

Alexander Wallner, Area Vice President Central EMEA NetApp.
Alexander Wallner, Area Vice President Central EMEA NetApp.
(Bild: NetApp)

Wallner: Die herkömmliche kostenlose Dropbox ist für Unternehmens-Files zu gefährlich und unsicher. Wir haben jedoch den sehr interessanten Ansatz aufgegriffen und unterstützen Service-Provider und Reseller in Deutschland beim Aufbau von „Enterprise-Dropbox-Lösungen“. Mit unseren Referenzarchitekturen lassen sich Cloud-Dienste aufsetzen, die sich für Anwendungen zum Teilen und Synchronisieren von Daten nach dem Dropbox-Modell nutzen lassen. Die Services basieren auf unseren Daten-Infrastrukturen und werden in Rechenzentren in Deutschland gehostet. Wir bieten keine Filesharing-Services an, haben jedoch sechs Bereiche für Cloud-Services mit den Service-Providern definiert: Archivierung, Datenreplizierung, Datensicherung, Anwendungen, Infrastruktur und Datensynchronisation. Unser Angebot besteht aus unterschiedliche Lösungen, die allesamt vorvalidiert sind, sich schnell in bestehende Infrastrukturen integrieren lassen, einen unterbrechungsfreien Betrieb ermöglichen und über eine sichere, verteilte mehrmandantenfähige IT-Infrastruktur verfügen.

Manche Sicherheitsexperten kritisieren die Schutzvorrichtungen der Cloud Storage Provider als unzureichend, hat sich daran etwas geändert?

Wallner: Die Service Provider mit Rechenzentren in Deutschland genügen heute höchsten Ansprüchen. Im Markt wird schon von „Hosted in Germany“ als Qualitätssiegel ähnlich „Made in Germany“ gesprochen. Dementsprechend sehen Service Provider mit Datencenter-Infrastrukturen in Deutschland dies als klaren Wettbewerbsvorteil bei Datenschutz und Compliance – zugunsten der Kunden aus dem In- und Ausland, die bei ihren in Deutschland gespeicherten Daten vom Bundesdatenschutzgesetz profitieren. Im Grunde gelten in der Cloud dieselben Sicherheitskriterien wie im unternehmenseigenen Netzwerk mit Internetverbindung: Das sind unter anderem physischer Schutz von Servern, Speichersystemen und Netzwerkausstattung, Zutrittskontrollen, definierte Zugriffsrechte für die Nutzer und vor allem die hochgradige Verschlüsselung der Daten während des Transfers und bei der Speicherung in der Cloud. Wie sicher eine Cloud letztlich ist, bestimmt auch der Kunde, indem er darauf achtet, welche Sicherheitsmaßnahmen sein Provider ergreift und wo seine Daten tatsächlich gespeichert sind. Dies auch permanent zu auditieren, bringt dem Endkunden sicherlich erhebliche Vorteile.

Anders gefragt: Welche cloudbasierten Varianten machen in welchem Kontext bei Unternehmen als zukunftsweisendes und krisensicheres Investment überhaupt Sinn?

Wallner: Der Hybrid Cloud-Ansatz macht, jeweils auf die individuellen Anforderungen des Unternehmens umgesetzt, am meisten Sinn. Also die Kombination von einer eigenen hochverfügbaren und effizienten Infrastruktur und eine gezielte Ergänzung durch Angebote aus der Public Cloud. Für viele Unternehmen ist so eine Strategie alternativlos: beispielsweise im Gesundheitswesen fallen viele kritische Patientendaten oder medizinische Applikationen an, die in der organisationseigenen Infrastruktur betrieben werden. Diese sensiblen personenbezogenen Daten sollten besser im eigenen Rechenzentrum gespeichert werden und nicht die Grenzen der Private Cloud-Infrastruktur verlassen. Der Hybrid Cloud-Ansatz kann in der Praxis auch bedeuten, den Betrieb einer Plattform auszulagern, sensible Daten aber weiterhin selbst zu verwalten. So beziehen viele Organisationen mittlerweile zum Beispiel Dienste für Instant Messaging und Collaboration, ERP und CRM von externen Cloud-Anbietern. Die Public Cloud oder Managed Cloud wird auch häufig für dezidierte Aufgaben genutzt wie etwa Backup und Archivierung. Pauschal lässt sich sagen, sind die Anforderungen an Sicherheit und Verfügbarkeit gering, eignet sich die Public Cloud mit einfachem Nutzungsvertrag.

Wie lässt sich die Kosten-Nutzen-Betrachtung zwischen der „In-house Private Cloud“ und der „Public Cloud“ für Unternehmen durchführen?

Wallner: Generell ist der Cloud-Ansatz eine wichtige Voraussetzung, ein Rechenzentrum effizient zu betreiben und den Anwendern gleichzeitig schnellere und bessere Services anzubieten. Dabei setzen die Unternehmen auf eine „In-house Private Cloud“, die extrem hohe Sicherheitsanforderungen oder die Sorge vor Kontrollverlust ihrer Daten haben. Ein weiterer Vorteil ist die Hochverfügbarkeit des vorhandenen Datenbestands – so lassen sich viele Business-Vorteile generieren. Der Nachteil: Der Schutz und die Sicherheit der Daten in den eigenen vier Wänden kostet viel Geld und bindet Kapital.

Und wie steht es mit den Vor- und Nachteilen der Variante „Public Cloud“?

Wallner: Diese Lösungen eignen sich für schlankere Budgets, wenn die Anforderungen an Sicherheit und Verfügbarkeit nicht so hoch sind. Hier gibt es zahlreiche unterschiedliche on-demand-Modelle, die in der Regel wesentlich attraktiver als der Eigenbetrieb sind, schließlich bedeuten sie Betriebskostenvorteile aus der nutzungsorientierten Abrechnung. Zudem vermeidet das Unternehmen natürlich Investitionskosten in die eigene Infrastruktur wie dem Rechenzentrum. Ein weiterer Vorteil ist die nachhaltigere Nutzung der IT-Systeme. Die Entscheidung für einen Service Provider und die Public Cloud ist dann für ein Unternehmen sinnvoll, wenn es den Betrieb der IT nicht als seine Kernaufgabe betrachtet. Oder das Unternehmen – beispielsweise in der Logistik – verfügt über volatile Geschäftsfelder und muss externen Anforderungen umgehend entsprechen. Dank der Cloud wäre die Bereitstellung benötigter Ressourcen zu Spitzenzeiten für logistische Software wie ERP kein Problem. Dabei muss das Unternehmen allerdings auf die Integrationsfähigkeit der eigenen IT-Lösung in das Cloud-Angebot des Service Providers achten, um aus dem Angebot bestmöglichen Nutzen zu ziehen.

Wie sähe eine idealtypische „In-house Private Cloud" für Unternehmen jenseits der Größe und Branche aus?

Wallner: Die Private Cloud überzeugt, weil sie innerhalb des Unternehmens und mit hauseigener Technik aufgebaut ist: Das Unternehmen profitiert von architektorellen und prozessualen Vorteilen des Cloudkonzepts und der vollen Kontrolle über die eigenen Daten. Alle Systeme stehen jedem Mitarbeiter überall und jederzeit zur Verfügung. Davon profitieren gerade Organisationen, die von Standorten weltweit oder mit vielen externen Partnern zusammenarbeiten: Applikationen, Daten, Mailsysteme, Kalender – immer aktuell und von überall zugänglich zur Verfügung. Das macht auch den Einsatz unterschiedlicher und zahlreicher mobiler Endgeräte einfacher. Die Private Cloud bedeutet für den Anwender: Browser auf und einloggen. Das vereinfacht die Arbeitsabläufe, die Koordination und Ausführung.

Gerade die IT-Leiter sehen in der Public Cloud gewisse Kosteneinsparpotenziale, monieren jedoch gleichzeitig die mangelnde IT-Sicherheit und Datenkontrolle. Wie kann dieser Spagat bewältigt werden?

Wallner: Meiner Einschätzung nach ist die Akzeptanz stark gewachsen. Laut dem gerade vorgestellten IT-Cloud-Index von Techconsult schätzt knapp die Hälfte der deutschen Mittelständler Cloud-Technologien als nützlich für ihr Unternehmen ein. Grund dafür sind nicht nur Entwicklung wie verbesserte Standards, Sicherheitszertifizierungen und flexible Servicemodelle. Die Cloud-Anbieter haben ihr Hausaufgaben gemacht: Gestiegene Servicequalität, große Auswahl bei Anbietern, hohe Sicherheit und nicht zuletzt der Pragmatismus vieler Kunden führen dazu, dass die Cloud ihren vermeintlichen Schrecken verliert und zu einer weiteren strategischen Komponente des IT-Betriebs wird.

Und eine Bilanz: Wie lässt sich die Rechenzentrums-Strategie angesichts von Big Data so gestalten, dass alle wichtigen Aspekte wie Verfügbarkeit, Skalierbarkeit, aber auch Datenschutz, Compliance und Revision berücksichtigt sind?

Wallner: Big Data und Cloud Computing sind die beiden Bereiche, um die es heute im Rechenzentrum geht. Dabei interessieren den CIO vorrangig zwei Dinge: Erstens, wie kann er sein Datacenter effizienter betreiben und den Anwendern gleichzeitig schnellere und bessere Services anbieten. Und Zweitens, wie kann er die vorhandenen Datenbestände so nutzen, dass er daraus Business-Vorteile generieren kann. Diese Fragestellungen sind völlig anders als vor fünf Jahren. Damals wollte der Kunde wissen, ob wir Fibre-Channel-Platten einsetzen oder ob wir NAS- beziehungsweise SAN-Architekturen anbieten. Das interessiert heute niemanden mehr. Der Anwender setzt voraus, dass unsere Speichersysteme höchsten Anforderungen gerecht werden. Entscheidend sind aus Kundensicht Performance, Ausfallsicherheit und der Businessnutzen.

Was wird stattdessen wichtig für Unternehmen?

Wallner: Storage, nun als Infrastrukturkomponente betrachtet, tritt in den Hintergrund, während Daten, Big Data, in den Fokus der Aufmerksamkeit rücken. Früher war Storage „spannend“, heute ist der CIO beim Thema Storage eher gelangweilt und möchte von uns als Speicheranbieter wissen, was wir zur Optimierung seiner Geschäftsprozesse beitragen können. Immer größere Datacenter bedingen immer flexiblere Architekturen. Systeme müssen immer modularer werden, um skalierbar zu bleiben. Skalierbarkeit im Storage-Umfeld bedeutete früher, auf wie viele Petabyte kann ich bei Bedarf aufrüsten. Heute geht es immer häufiger darum, wie ich unterschiedliche Workload-Bedürfnisse bedienen kann. Frame-Konzepte helfen da nicht immer weiter. Die SAP-Datenanalyse-Lösung „Hana“ ist ein gutes Beispiel dafür.

Mit welchen Konsequenzen für die Storage-Strategie?

Wallner: Selbst der klassische Mittelstand fordert heute Funktionalitäten, wie sie bis vor kurzem nur in Großrechenzentren vorzufinden waren. Im Bestreben als interner „Service-Provider“ zu agieren, suchen zunehmend auch mittelgroße und kleine IT-Abteilungen nach IT-Lösungen, die es ihnen erlauben, ihre Leistungen messbar zu machen. Um diesen Ansprüchen gerecht zu werden, müssen die IT-Abteilungen drei Kriterien erfüllen: Sie müssen im Vergleich zu externen Wettbewerbern kostenseitig mithalten können. Dazu müssen sie agil sein, um auf veränderte Businessbedürfnisse schnell reagieren zu können, und ihre Infrastruktur muss hochverfügbar sein. Hochverfügbar bedeutet nicht nur, dass zentrale Teile der Hardware redundant ausgelegt sind. Auch bei Software-Updates oder einem umfangreichen Hardwaretausch, muss das System „always on“ sein.

Das Interview führte Lothar Lochmaier.

(ID:42337194)