Repatriation bei Data Storage Storage auf dem Rückweg aus der Cloud

Von Klaus Länger 5 min Lesedauer

Anbieter zum Thema

Storage-Anwendungen kommen teilweise zurück aus der Public Cloud in die Datacenter oder zu lokalen MSPs: Darin sind sich VADs wie ADN oder TIM einig. Angesagt sind derzeit flexible Hybrid-Cloud-Strategien, mit Resilienz als wichtiger Komponente.

Moderne Storage-Lösungen sind ein sinnvoller Mix aus Datacenter und Cloud mit zentralem Management und weitgehender Automatisierung.(Bild:  Kukar Studio - stock.adobe.com / KI-generiert)
Moderne Storage-Lösungen sind ein sinnvoller Mix aus Datacenter und Cloud mit zentralem Management und weitgehender Automatisierung.
(Bild: Kukar Studio - stock.adobe.com / KI-generiert)

Der weltweite Markt für Enterprise Storage wächst: Fünf Prozent Plus sagen die Analysten von IDC für dieses Jahr voraus, eine Verdoppelung gegenüber 2024. Für den deutschen Markt sehen Value Added Distributoren (VAD) wie ADN und TIM ebenfalls eine stärkere Nachfrage. Sie wird vor allem durch einen teilweisen Rückzug aus der Public Cloud getrieben.

Flexible Hybrid- und Multicloud-Strategien gewinnen an Bedeutung.

Jan Geiß (ADN)

Jan Geiß, Team Lead Storage Solutions bei ADN.(Bild:  Reiner Akermann)
Jan Geiß, Team Lead Storage Solutions bei ADN.
(Bild: Reiner Akermann)

„Die Storage-Landschaft befindet sich momentan in einem dynamischen Wandel. Während Public-Cloud-Lösungen in den vergangenen Jahren stark an Popularität gewonnen haben, beobachten wir inzwischen eine zunehmende Sensibilisierung für Datenschutz, Compliance und Kostenkontrolle“, sagt dazu Jan Geiß, Team Lead Storage Solutions bei ADN. Dies führe dazu, dass bestimmte Anwendungen aus der Public Cloud wieder zurück in die eigenen Datacenter der Unternehmen geholt oder zu spezialisierten lokalen Providern migriert werden. „Flexible Hybrid- und Multicloud-Strategien gewinnen an Bedeutung, wodurch besonders regionale Anbieter profitieren“, stellt Geiß fest.

Konsolidierung zu hybriden Betriebsmodellen

Rocco Frömberg, Leiter Vendor Development & Operations bei TIM, macht eine ähnliche Beobachtungen. Er sieht einen zunehmenden Trend zur „Cloud Repatriation“, also zur Rückverlagerung sensibler oder kostenintensiver Workloads aus der Public Cloud. Gründe dafür sind laut Frömberg die Kosten, Compliance und Datenschutz, Performance-Anforderungen sowie Hybrid-Cloud-Strategien. Für die Partner ist das eine interessante Entwicklung, denn insbesondere „mittelständische Kunden suchen verstärkt nach Partnern, die lokalen Storage mit Cloud-Funktionalitäten verbinden – beispielsweise über S3-kompatible Object-Storage-Lösungen im eigenen Data Center.“

In der Praxis beobachten wir einen wachsenden Trend zum „Cloud Repatriation“ – also der Rückverlagerung sensibler oder kostenintensiver Workloads aus der Public Cloud in lokale Rechenzentren.

Rocco Frömberg (TIM)

Rocco Frömberg, Leiter Vendor Development & Operations bei TIM.(Bild:  Tim AG)
Rocco Frömberg, Leiter Vendor Development & Operations bei TIM.
(Bild: Tim AG)

Sein Kollege Martin Falk, Managing Consultant, Consulting & Professional Services bei TIM, ergänzt, dass er derzeit „eine deutliche Konsolidierung hin zu hybriden Betriebsmodellen, also einer sinnvollen Kombination aus Public Cloud, lokalem Data Center und Managed Services“ sehe. „Der Hype um die vollständige Cloud-Migration hat sich vielerorts gelegt“, so Falk. Viele Kunden hätten festgestellt, dass „Kosten, Performance, Sicherheit und Datenkontrolle in der Praxis oft nicht den Erwartungen entsprechen“. Allerdings wandle sich der lokale Storage zu einer modernen Form: „Automatisiert, API-fähig, mandantenfähig und nahtlos in hybride Umgebungen integrierbar“.

Und auch Storage-Hersteller verstehen sich immer mehr als Datenmanagement-Anbieter, die mit einer übergreifenden Lösung die Daten auf allen Plattformen verwalten: On-Premises, bei Storage-Dienstleistern und in der Cloud. Beispiele dafür sind etwa BlueXP von NetApp oder die kürzlich vorgestellte Enterprise Data Cloud von Pure Storage.

Hitachi Vantara hat mit der Virtual Storage Platform (VSP) 360 eine Managementsoftware vorgestellt, die Block-, File-, Object- und softwaredefinierten Speicher unterstützt, mehrere Management-Tools konsolidiert und AIOps nutzt.

Wenn es um große Speichergrößen geht, etwa für unstrukturierte Daten und die Performance nicht entscheidend ist, dann kommen in den Rechenzentren immer noch viele HDD-basierte Storage-Systeme zum Einsatz.(Bild:  Gorodenkoff - stock.adobe.com)
Wenn es um große Speichergrößen geht, etwa für unstrukturierte Daten und die Performance nicht entscheidend ist, dann kommen in den Rechenzentren immer noch viele HDD-basierte Storage-Systeme zum Einsatz.
(Bild: Gorodenkoff - stock.adobe.com)

Schub durch KI zunächst bei großen Unternehmen

Einen Schub durch passenden Storage für KI-Lösungen merkt Frömberg vor allem in großen Unternehmen. Hier gebe es eine klare Nachfrage nach skalierbaren Storage-Systemen, die mit KI-Workloads und Frameworks harmonieren. Das sind vor allem „Object-Storage-Lösungen, die On-Premises-Datenhaltung mit Cloud-Offloading kombinieren und sich in verteilte Compute-Umgebungen einfügen.“

Kleinere Unternehmen seien dagegen oft noch in der Orientierungsphase, was an den Kosten, aber auch am Aufwand für Datenaufbereitung, Integration und Betrieb liege. Für Falk gewinnen auch bei KI „Aspekte wie Datenschutz, Datenhoheit und Integration in hybride Infrastrukturen an Bedeutung“, und zwar besonders im Mittelstand. Hier entstehe für Systemhäuser ein neues Geschäftsfeld, das ADN als Distributor mit Beratung und Pre-Sales aktiv unterstütze. Denn KI-Anwendungen stellen besondere Anforderungen an den Storage wie eine hohe parallele I/O-Leistung, niedrige Latenzen und Skalierbarkeit, die schon bei der Planung der Lösung im Auge behalten werden müssen.

Kunden fordern neben Performance auch höchste Verfügbarkeit, Datenintegrität und Schutz im Ernstfall.

Martin Falk (TIM)

Martin Falk, Managing Consultant, Consulting & Professional Services bei der TIM AG.(Bild:  Tim AG)
Martin Falk, Managing Consultant, Consulting & Professional Services bei der TIM AG.
(Bild: Tim AG)

HPE hat mit Alletra Storage MP X10000 jüngst ein All-Flash-System für unstrukturierte Daten vorgestellt, das Nvidias Referenzdesign AI Data NVIDIA AI Data Platform unterstützt und laut HPE über eine integrierte Inline-Metadatenanreicherungs-Engine verfügt. Vast Data hat für das zweite Halbjahr 2025 das Vast AI Operating System angekündigt, das zusätzliche Funktionen für Agentic AI enthalten soll. Auch NetApp will seine konvergente AIPod-Lösung in die Nvidia AI Data Platform integrieren, um die Einführung agentenbasierter KI zu beschleunigen. Mit der iQ-M-Serie bringt Hitachi Vantara eine skalierbare KI-Plattform auf den Markt, die für weniger rechenintensive KI-Workloads wie RAG, Feintuning, Inferencing und Prozessoptimierung bestimmt ist. Sie integriert GPU-Server und Storage mit einem High-Performance-Dateisystem und Scale-out-Storage in einer Lösung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Immer schneller, immer größer: HDD und SSD

Das massive Datenwachstum in den Rechenzentren kann nur bewältigt werden, wenn die Speicherkapazitäten der einzelnen Speichermedien weiter wachsen und gleichzeitig deren Performance. Bei SSDs sieht Andreas Bajohr, Geschäftsführer von BAB Distribution, eine wachsende Nachfrage nach SSDs mit PCIe-Gen5-Interface, „vor allem durch den wachsenden Einfluss von KI-Anwendungen, bei denen schnelle Datenverarbeitung entscheidend ist“. Die Nachfrage liege zwar noch unter der von PCIe-Gen4-SSDs, aber das Interesse steige spürbar. Gleichzeitig sind bereits erste Controller für PCIe Gen6 in Entwicklung, für Datenraten von bis zu 30 GB/s. Die Speichergröße klettert bei SSDs wie der kommenden Kioxia LC9 auf 123 TB. Bei HDDs sorgt der pro TB deutlich niedrigere Preis weiter für Nachfrage. Seagate macht die HAMR-Modelle Exos M und IronWolf Pro mit 30 TB nun über den Channel allgemein verfügbar.

Andreas Bajohr, CEO von BAB Distribution.(Bild:  BAB Distribution)
Andreas Bajohr, CEO von BAB Distribution.
(Bild: BAB Distribution)

Resilienz gegen Angriffe ist zentral

Neben der Performance, der Verfügbarkeit und dem Management ist Resilienz heute integral für jede Storage-Strategie. Laut Geiß erwarten Unternehmen „ausgefeilte Sicherheitsmechanismen wie Immutable Snapshots und Backups, Air-Gap-Technologien und automatisierte Wiederherstellungsprozesse“. Auch die Erkennung von Anomalien und die Überwachung der Datenintegrität würden stark nachgefragt. Falk ergänzt, dass wegen regulatorischer Vorgaben wie NIS2 oder DORA auch Features wie Zero Trust, eine rollenbasierte Zugriffskontrolle, Verschlüsselung und Audit-Logging an Relevanz gewinnen. „Weil diese Vorgaben nun wesentlich mehr Unternehmen als früher adressieren, steigt gerade im Mittelstand das Bewusstsein, dass Storage-Resilienz geschäftskritisch ist und strategisch geplant werden muss“, konstatiert der TIM-Consultant. Für Frömberg sind Storage-Systeme „nicht nur ein potenzielles Angriffsziel, sondern auch ein zentraler Bestandteil des Sicherheitskonzepts von Unternehmen.“ Dazu gehören neben dem Erkennen untypischer Datenzugriffe und Schnittstellen zu Security-Plattformen auch schnelle Recovery-Funktionen direkt im Primärspeicher.

(ID:50498437)