Interview mit Alexander Wallner, Area Vice President Central EMEA NetApp

Was die sichere Cloud Data Storage leisten muss

Seite: 3/3

Wie sähe eine idealtypische „In-house Private Cloud" für Unternehmen jenseits der Größe und Branche aus?

Wallner: Die Private Cloud überzeugt, weil sie innerhalb des Unternehmens und mit hauseigener Technik aufgebaut ist: Das Unternehmen profitiert von architektorellen und prozessualen Vorteilen des Cloudkonzepts und der vollen Kontrolle über die eigenen Daten. Alle Systeme stehen jedem Mitarbeiter überall und jederzeit zur Verfügung. Davon profitieren gerade Organisationen, die von Standorten weltweit oder mit vielen externen Partnern zusammenarbeiten: Applikationen, Daten, Mailsysteme, Kalender – immer aktuell und von überall zugänglich zur Verfügung. Das macht auch den Einsatz unterschiedlicher und zahlreicher mobiler Endgeräte einfacher. Die Private Cloud bedeutet für den Anwender: Browser auf und einloggen. Das vereinfacht die Arbeitsabläufe, die Koordination und Ausführung.

Gerade die IT-Leiter sehen in der Public Cloud gewisse Kosteneinsparpotenziale, monieren jedoch gleichzeitig die mangelnde IT-Sicherheit und Datenkontrolle. Wie kann dieser Spagat bewältigt werden?

Wallner: Meiner Einschätzung nach ist die Akzeptanz stark gewachsen. Laut dem gerade vorgestellten IT-Cloud-Index von Techconsult schätzt knapp die Hälfte der deutschen Mittelständler Cloud-Technologien als nützlich für ihr Unternehmen ein. Grund dafür sind nicht nur Entwicklung wie verbesserte Standards, Sicherheitszertifizierungen und flexible Servicemodelle. Die Cloud-Anbieter haben ihr Hausaufgaben gemacht: Gestiegene Servicequalität, große Auswahl bei Anbietern, hohe Sicherheit und nicht zuletzt der Pragmatismus vieler Kunden führen dazu, dass die Cloud ihren vermeintlichen Schrecken verliert und zu einer weiteren strategischen Komponente des IT-Betriebs wird.

Und eine Bilanz: Wie lässt sich die Rechenzentrums-Strategie angesichts von Big Data so gestalten, dass alle wichtigen Aspekte wie Verfügbarkeit, Skalierbarkeit, aber auch Datenschutz, Compliance und Revision berücksichtigt sind?

Wallner: Big Data und Cloud Computing sind die beiden Bereiche, um die es heute im Rechenzentrum geht. Dabei interessieren den CIO vorrangig zwei Dinge: Erstens, wie kann er sein Datacenter effizienter betreiben und den Anwendern gleichzeitig schnellere und bessere Services anbieten. Und Zweitens, wie kann er die vorhandenen Datenbestände so nutzen, dass er daraus Business-Vorteile generieren kann. Diese Fragestellungen sind völlig anders als vor fünf Jahren. Damals wollte der Kunde wissen, ob wir Fibre-Channel-Platten einsetzen oder ob wir NAS- beziehungsweise SAN-Architekturen anbieten. Das interessiert heute niemanden mehr. Der Anwender setzt voraus, dass unsere Speichersysteme höchsten Anforderungen gerecht werden. Entscheidend sind aus Kundensicht Performance, Ausfallsicherheit und der Businessnutzen.

Was wird stattdessen wichtig für Unternehmen?

Wallner: Storage, nun als Infrastrukturkomponente betrachtet, tritt in den Hintergrund, während Daten, Big Data, in den Fokus der Aufmerksamkeit rücken. Früher war Storage „spannend“, heute ist der CIO beim Thema Storage eher gelangweilt und möchte von uns als Speicheranbieter wissen, was wir zur Optimierung seiner Geschäftsprozesse beitragen können. Immer größere Datacenter bedingen immer flexiblere Architekturen. Systeme müssen immer modularer werden, um skalierbar zu bleiben. Skalierbarkeit im Storage-Umfeld bedeutete früher, auf wie viele Petabyte kann ich bei Bedarf aufrüsten. Heute geht es immer häufiger darum, wie ich unterschiedliche Workload-Bedürfnisse bedienen kann. Frame-Konzepte helfen da nicht immer weiter. Die SAP-Datenanalyse-Lösung „Hana“ ist ein gutes Beispiel dafür.

Mit welchen Konsequenzen für die Storage-Strategie?

Wallner: Selbst der klassische Mittelstand fordert heute Funktionalitäten, wie sie bis vor kurzem nur in Großrechenzentren vorzufinden waren. Im Bestreben als interner „Service-Provider“ zu agieren, suchen zunehmend auch mittelgroße und kleine IT-Abteilungen nach IT-Lösungen, die es ihnen erlauben, ihre Leistungen messbar zu machen. Um diesen Ansprüchen gerecht zu werden, müssen die IT-Abteilungen drei Kriterien erfüllen: Sie müssen im Vergleich zu externen Wettbewerbern kostenseitig mithalten können. Dazu müssen sie agil sein, um auf veränderte Businessbedürfnisse schnell reagieren zu können, und ihre Infrastruktur muss hochverfügbar sein. Hochverfügbar bedeutet nicht nur, dass zentrale Teile der Hardware redundant ausgelegt sind. Auch bei Software-Updates oder einem umfangreichen Hardwaretausch, muss das System „always on“ sein.

Das Interview führte Lothar Lochmaier.

(ID:42337194)