Intelligente Cloud-Datenspeicher Wer hat den schlauesten Cloud-Speicher im Land?

Von Filipe Martins und Anna Kobylinska* 10 min Lesedauer

Anbieter zum Thema

Unternehmen versinken in einer beispiellosen Datenflut — ohne richtig Nutzen daraus zu ziehen. Datengetriebene Wertschöpfung mit KI braucht nämlich direkten Zugriff auf große Datenmengen zu einem kleinen Preis. Innovative Storage-Architekturen und Hochgeschwindigkeits-Schnittstellen aufstrebender Anbieter versprechen Abhilfe.

Spieglein, Spieglein an der Wand, wer hat den intelligentesten Cloud-Speicher im ganzen Land? – Jenseits der Hyperscaler positionieren sich interessante Alternativen.(Bild: ©  ImageFlow - stock.adobe.com)
Spieglein, Spieglein an der Wand, wer hat den intelligentesten Cloud-Speicher im ganzen Land? – Jenseits der Hyperscaler positionieren sich interessante Alternativen.
(Bild: © ImageFlow - stock.adobe.com)

Cloud-native Datenspeichertechnologien haben sich in den letzten Jahren rasant weiterentwickelt — weg von traditionellen Speicherparadigmen hin zu einer neuen Generation von Speicherplattformen. Eine Handvoll Anbieter hat einige außergewöhnliche Ansätze für Enterprise-Cloud-Speicher entwickelt. Darauf basierend bieten sie Lösungen an, die komplexe geschäftliche Herausforderungen auf innovative Weise bewältigen.

Intelligente Cloud-Datenspeicher bieten den Unternehmen nicht nur einen Speicherort für ihre Daten, sondern schaffen einen Mehrwert, indem sie latenzsensible KI- und ML-Arbeitslasten beim Zugriff auf die benötigten Informationen in hybriden, geografisch verteilten, Cloud-zentrischen IT-Landschaften unter Wahrung strenger regulatorischer Konformität ermöglichen und dabei noch möglicherweise die Kosten senken.

Innovative Plattformanbieter von MinIO bis hin zu Cohesity wollen mit ihren innovativen Speicherlösungen Probleme lösen, für die sich die ganz großen Marktakteure – wie AWS, Azure, Google Cloud – offenbar noch zu schade sind. Die hyperskalaren Platzhirsche der Cloud-Szene sitzen nämlich am längeren Hebel und können so zum Beispiel stolze Preise für Netzwerkzugriffe auf Daten und Egress-Gebühren die Entnahme der Daten verlangen. Die kleinen aufstrebenden Herausforderer müssen sich im Gegensatz dazu für ihre Kunden schon recht innovative Lösungen einfallen lassen, um ihnen zusätzliche Vorteile zu bescheren. Aber einige haben das tatsächlich geschafft.

Die Kosten der Datenübertragung zwischen Cloud-Datenspeichern liegen den Unternehmen schwer im Magen, fand eine Analyse von Wasabi in Zusammenarbeit mit VansonBourne heraus. Für mindestens knapp jeden zweiten der Befragten ist der Datentransfer der größte Kostenfaktor beim Cloud-Speicher.(Bild:  Wasabi/VansonBourne)
Die Kosten der Datenübertragung zwischen Cloud-Datenspeichern liegen den Unternehmen schwer im Magen, fand eine Analyse von Wasabi in Zusammenarbeit mit VansonBourne heraus. Für mindestens knapp jeden zweiten der Befragten ist der Datentransfer der größte Kostenfaktor beim Cloud-Speicher.
(Bild: Wasabi/VansonBourne)

Laut einer Studie von MinIO nutzen rund 83 Prozent der Unternehmen Objektspeicher als zentrale KI-Datenplattform ihrer IT-Landschaften. 89 Prozent der befragten Unternehmen haben bestätigt, dass sie mit ihrem Cloud-Objektspeicher im Großen und Ganzen zufrieden sind, fanden die Analysten von Wasabi heraus. Der größte Schmerzpunkt seien demnach die Kosten. Cloud-Nutzer stehen beim Zugriff auf Cloud-Objektspeicher vor vielen verzwickten Herausforderungen. Dazu zählen neben der erheblichen finanziellen Belastung durch Egress-Kosten beim Verschieben großer Datenmengen unter anderem die hohen Leistungsanforderungen KI-gestützter Anwendungen, die technische Komplexität des Multicloud-Managements und zahlreiche andere. 49 Prozent der Kosten für Cloud-Speicher machen verschiedene Gebühren für den Datentransport aus, nicht bloß die Kosten für die reine Speicherkapazität, so die Analysten von Wasabi. Diese Kosten ließen sich potenziell vermeiden, wenn die Unternehmen nicht so viel von ihren Datenbeständen für die Analyse hin und her verschieben müssten.

Eine Reihe neuartiger Cloud-Plattformen entstanden mit dem Ziel, diese und andere Herausforderungen im Zusammenhang mit Cloud-Datenspeichern zu bewältigen.

MinIO AIStor: der schnellste Objektspeicher der Welt

Mit AIStor will MinIO, aufstrebender Cloud-Speicher-Spezialist aus dem kalifornischen Redwood City, will den schnellsten Objektspeicher der Welt erfunden haben. Der Datendurchsatz der Lösung überschreitet laut Anbieter 2,2 TiB/s — umgerechnet etwa 2,42 TB pro Sekunde — sofern die Infrastruktur mitspielt. Eine hardwarenahe Implementierung des Go-basierten Stacks mit direktem NVMe-Zugriff macht es möglich. Jetzt kommt das Aber…

MinIO unterstützt intelligente Cloud-Versionierung, die den Verlust von Daten verhindern können, soll.(Bild:  MinIO)
MinIO unterstützt intelligente Cloud-Versionierung, die den Verlust von Daten verhindern können, soll.
(Bild: MinIO)

AIStor ist nicht ein reiner Cloud-Speicherdienst, sondern eine softwaredefinierte Speicherplattform, die hybride und Multicloud-Umgebungen mit einer universellen Speicherebene — einem privaten Namensraum — umspannt. Sie läuft auf einer beliebigen Kombination aus Standard-Servern, NAS-Geräten und/oder Cloud-Instanzen und schafft eine vereinheitlichte Management-Schnittstelle für softwaredefinierten Multicloud-Datenspeicher.

Die native Multicloud-Integration unterstützt die Lastenverteilung mit AWS ELB und dem Azure Load Balancer. Die Plattform schafft eine hybride Speicherhierarchie (Stichwort: Data Tiering): Sie schiebt „heiße“ Daten auf lokale Speicher, „kalte Daten“ auf AWS S3 oder Azure Blob Storage. Die Metadatenabfragen erfolgen in Millisekunden. AIStor kann zudem Daten direkt in die GPU oder CPU wahlweise über RDMA oder RoCEv2 schreiben, um KI-ML-Arbeitslasten zu beschleunigen. Unternehmen können ihre KI-Modelle und verwandte Daten in der privaten Cloud von MinIO, in dem sogenannten AIHub aufbewahren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Plattform bewältigt beliebige Workloads auf jeder Cloud-Umgebung, sei es öffentlich, privat, an der Edge oder verteilt über heterogene Multicloud-Landschaften hinweg. Dabei kann sie von Petabyte- zu Exabyte-Clustern ohne Downtime skalieren. Unternehmen wie F5, die eine zentrale Governance mit möglichst hohen IOPS verbinden müssen, nutzen diese Architektur für ihre KI-Arbeitslasten im Petabyte-Maßstab. AIStor läuft selbst einfach auf Kubernetes. Die Management-Konsole (Global Console) liegt als Overlay über dem Speichercluster. Jeder neue Cluster steigert sowohl die Kapazität als auch die Verarbeitungsleistung linear, also ohne Leistungseinbuße. Als vollständig Amazon-S3-kompatibler Objektspeicher lässt sich AIStor ohne Codeänderungen in bestehende Cloud-native Anwendungen einbinden, sofern sie bereits S3-Schnittstellen nutzen (Altlasten lassen sich über Gateways einbinden).

MinIO unterstützt die Public Clouds von AWS, Google Cloud Platform, Azure genauso entschlossen wie private Clouds, die auf OpenStack oder VMware by Broadcom laufen. Kubernetes-Cluster lassen sich via CSI-Treiber einbinden. Die Einbindung von Edge-Geräten gelingt zum Beispiel mit NVIDIA Jetson. AIStor abstrahiert Infrastrukturunterschiede dieser Umgebungen und schafft eine einheitliche Sicht. Für datenintensive Workloads bietet AIStor Plug-and-Play-Schnittstellen zu ML-Frameworks (darunter PyTorch, TensorFlow, Metaflow), Vektor-Datenbanken (Weaviate, Pinecone) und Data-Lake-Formaten (Apache Iceberg, Delta Lake). MinIO kann bereits auf über sechs Millionen AWS-Bereitstellungen verweisen. Bei einer Cloud-Speichergröße von 100 PiB ist AIStor bis zu 80 Prozent günstiger im Vergleich zu einem reinen AWS-Cloud-Speicher. MiniIO verspricht außerdem eine Reduktion von TCO-Kosten von bis zu 70 Prozent im Vergleich zu einer reinen HDFS-Implementierung.

Cohesity Data Cloud: KI-gestütztes Datenmanagement für hybride Datenlandschaften

Datenschutzspezialist Cohesity aus dem kalifornischen San Jose bietet mit einer Lösung namens Data Cloud eine leistungsstarke Plattform für cloudbasiertes Datenmanagement. Die Lösung kombiniert Backup, Datei-/Objektspeicherung, KI-gestützte Analysen und Cybersecurity-Features in einem hybriden System, das Datensilos von On-Premise-, Edge- und Public-Cloud-Umgebungen aufbricht und zu einem einheitlichen Datenspeicher verbindet.

Das Forschungsinstitut Gartner hat im August 2024 die Cloud-Datenspezialistin Cohesity bereits zum fünften Mal in Folge als einen der Marktführer im Magic Quadrant für Enterprise Backups and Recovery Software ausgezeichnet. Im Dezember 2024 hat Cohesity den Mitbewerber Veritas übernommen.(Bild:  Gartner)
Das Forschungsinstitut Gartner hat im August 2024 die Cloud-Datenspezialistin Cohesity bereits zum fünften Mal in Folge als einen der Marktführer im Magic Quadrant für Enterprise Backups and Recovery Software ausgezeichnet. Im Dezember 2024 hat Cohesity den Mitbewerber Veritas übernommen.
(Bild: Gartner)

Verteilte Daten aus lokalen Servern, NAS/SAN-Systemen wie NetApp oder IBM FlashSystem, aus VMware-Umgebungen, Public Clouds der drei Hyperscaler (AWS, Google Cloud und Azure), Kubernetes-Clustern und aus Edge-Geräten fließen dank der einheitlichen Oberfläche im wahrsten Sinne des Wortes zusammen. Cohesity führt nämlich intelligente Optimierungen der Datenbestände durch.

Den Grundstein dieser Optimierungen bildet eine intelligente globale Deduplizierung, gefolgt von einer ausgefuchsten Kompression. Durch den Wegfall überschüssiger Redundanz schrumpft der Bedarf an Datenspeicher bei den meisten Cohesity-Kunden um 98,96 Prozent oder sogar noch mehr, bestätigt ein Bericht der Enterprise Strategy Group. Die Deduplizierungs-Engine von Cohesity arbeitet mit variabler Blocklänge global über das gesamte Cluster und lässt sich je nach Workload und Datenattributen entweder inline oder nachträglich ausführen. Die patentierte SnapTree-Snapshot-Technologie von Cohesity begrenzt die Anzahl der Zugriffsschritte auf maximal zwei, um eine nahezu unbegrenzte Anzahl unveränderlicher Snapshots bei gleicher Leistung bereitzustellen.

Cohesity verwandelt den oft gefürchteten Prozess der Sicherung und Wiederherstellung von Daten und Arbeitslasten in einen rationalisierten und effizienten Vorgang. Die Plattform nutzt KI/ML für die Vorhersage des Speicher- und Optimierungsbedarfs. Cohesity verschiebt „kalte“ oder selten genutzte Daten automatisch in kostengünstigere Cloud-Speicherklassen wie AWS S3 Glacier, während häufig benötigte Daten schneller zugänglich bleiben.

„Wir [...] bieten für Unternehmensdaten Sicherheits- und KI-Funktionen, über die in der Branche bisher niemand nachgedacht hat.“, sagt Sanjay Poonen, CEO und Präsident bei Cohesity.(Bild:  Cohesity)
„Wir [...] bieten für Unternehmensdaten Sicherheits- und KI-Funktionen, über die in der Branche bisher niemand nachgedacht hat.“, sagt Sanjay Poonen, CEO und Präsident bei Cohesity.
(Bild: Cohesity)

Cohesity DataProtect, ein Teil der Data Cloud, ermöglicht nahezu verzögerungsfreie Wiederherstellung von Daten und Systemen, und zwar mit RTOs (Recovery Time Objectives) von wenigen Minuten oder Sekunden statt Stunden oder Wochen. Eine spezielle Option überträgt nur die Unterschiede zwischen dem Original und dem ausgewählten Zustand der Wiederherstellung, was die Menge der zu übertragenden Daten auf das Erforderliche minimiert und die Wiederherstellungszeiten weiter schrumpft. Dank der SnapTree-Technologie von Cohesity sind Snapshots unveränderlich und können nicht von Ransomware verschlüsselt oder gelöscht werden. Im Falle eines Angriffs lassen sich Daten zuverlässig und schnell wiederherstellen. Air-Gapped Backups sind mit Cohesity FortKnox (isoliert in AWS/Azure) möglich.

Die Cloud-Plattform von Cohesity reduziert Speicherkosten um bis zu 70 Prozent im Vergleich zu traditionellen Lösungen, und zwar durch die effiziente Datenkomprimierung, Deduplizierung und intelligentes Tiering.

Zadara Sovereign Edge Cloud: skalierbarer Edge-Storage als Service

Mit der Sovereign Edge Cloud, einer vollständig verwalteten Plattform für skalierbare Speicher-, Compute- und Netzwerkdienste, adressiert Zadara IT-Dienstleister und andere Technologieunternehmen und positioniert sich dabei klar als eine Alternative zu VMware. Besonders vielseitig und anspruchsvoll ist das Storage-Angebot von Zadara. Es ist darauf ausgelegt, jede Art von Daten an jedem beliebigen Ort protokollagnostisch in den Griff zu bekommen, sei es in On-Premises-Umgebungen, in hybriden Clouds oder an Edge-Standorten.

Das Federated-Edge-Programm (FE) des kalifornischen Anbieters ist eine vollständig verwaltete, verteilte Edge-Cloud für Hosting-Anbieter und MSPs mit über 500 Standorten weltweit. Die gesamte globale Infrastruktur wird über das FE-Partnernetzwerk anfragegetrieben bereitgestellt, wobei MSPs in guter alter Cloud-Manier lediglich für die tatsächliche Nutzung zahlen. So entfällt für die Anwenderorganisationen die Notwendigkeit, eigene Edge-Rechenzentren zu errichten oder die benötigten Kapazitäten über Colocation zu beziehen. Stattdessen können Unternehmen die Edge-Clouds von Zadara ohne CapEx-Bindung provisionieren. Mit Zadara gehen die Anwenderorganisationen keinerlei langfristigen Verträge oder sonstige Verpflichtungen an und können so den wechselnden Bedürfnissen ihrer eigenen Kunden flexibler gerecht werden.

Das vereinheitlichte Speichermodell von Zadara umfasst Block-, Datei- und Objektspeicher. Der Blockspeicher von Zadara ist kompatibel mit AWS EBS (Elastic Block Store) und für niedrige Latenz und hohe Durchsatzraten optimiert. Zadaras Dateispeicher (NAS) unterstützt NFS- und SMB-Protokolle für skalierbare Dateifreigaben. Der Objektspeicher des Anbieters (ZOS) unterstützt unbegrenzte Skalierbarkeit und versteht sich auf AWS S3- und Swift-APIs. Die Plattform ermöglicht die Bereitstellung von Speicherressourcen an beliebigen Standorten und bietet eine nahtlose Integration mit Public Clouds wie AWS, Azure und Google Cloud.

Icedrive: Einmalzahlung statt Cloud-Abo

Icedrive bietet mit seinen Lifetime-Plänen eine abonnementfreie Alternative für langfristigen („lebenslangen“) Cloud-Speicher ohne wiederkehrende Gebühren. Das Unternehmen hat seinen Hauptsitz von dem ursprünglichen Standort in Wales nach Gibraltar verschoben, um verschlüsselten Speicher anbieten zu können.

Icedrive setzt auf Zero-Knowledge-Verschlüsselung mit dem Twofish-Algorithmus, der von Kryptografie-Experten als sicherere Alternative zu AES/Rijndael eingestuft wird. Dabei werden Dateien bereits auf dem Gerät des Nutzers verschlüsselt – einschließlich der Datei- und Ordnerbezeichnungen – und erst dann in die Cloud übertragen. Mit einer Kombination aus vorhersehbaren Kosten, hoher Sicherheit und nutzerfreundlicher Technik positioniert sich Icedrive als eine attraktive Option für Unternehmen, die langfristige Speicherlösungen in der Cloud suchen.

Die Honeypots von Ctera

Der Anbieter Ctera hat eine cyber-resiliente File Services Plattform entwickelt, die eine sichere und skalierbare Datenverwaltung über jede Cloud hinweg ermöglichen soll. Die Lösung unterstützt Unternehmen dabei, Dateien und Daten standortübergreifend zu sichern, zu synchronisieren und effizient zu verwalten – unabhängig von ihrem Speicherort.

62 Prozent der Unternehmen konnten ihre Ausgaben für Cloud-Datenspeicher im Jahre 2024 nicht im Zaum halten — das sind 9 Prozentpunkte mehr als im Jahr zuvor, wie eine Studie im Auftrag von Wasabi herausfand.(Bild:  Wasabi/VansonBourne)
62 Prozent der Unternehmen konnten ihre Ausgaben für Cloud-Datenspeicher im Jahre 2024 nicht im Zaum halten — das sind 9 Prozentpunkte mehr als im Jahr zuvor, wie eine Studie im Auftrag von Wasabi herausfand.
(Bild: Wasabi/VansonBourne)

Zu den bahnbrechenden Sicherheitsinnovationen zählt eine Honeypot-Funktion, die Lockdateien einsetzt, um Eindringlinge abzuschrecken und deren Versuche, Daten zu stehlen oder zu beschädigen, zu unterbinden. Ctera Vault bietet mit WORM-Funktionalitäten (Write Once, Read Many), um Daten in einer unveränderlichen Form für Archivierungs- und Compliance-Zwecke zu sichern. Ergänzend dazu integriert die Plattform modernste Sicherheitsfunktionen, wie End-to-End-Verschlüsselung und richtlinienbasierten Zugriffsschutz, um sensible Daten vor Cyberbedrohungen zu schützen. Dadurch wird nicht nur die Datenintegrität gewährleistet, sondern auch eine schnelle Wiederherstellung im Falle von Zwischenfällen ermöglicht. Die Architektur von Ctera erlaubt es, Daten über mehrere Standorte und Clouds hinweg zu verteilen, was die Ausfallsicherheit erhöht und Unternehmen eine höhere Flexibilität im Rahmen ihrer digitalen Transformation bietet.

Wasabi Hot Cloud Storage: Schnell, sicher, ohne Egress-Gebühren

Wasabi hat es sich zur Mission gemacht, „die Daten der Welt zu speichern“, indem es Cloud-Speicher erschwinglich, kalkulierbar und sicher macht. Wasabi verbindet ein vereinfachtes Preismodell mit beeindruckenden Leistungsmerkmalen.

Mit dem Angebot Wasabi Hot Cloud Storage erhalten Unternehmen eine einheitliche Speicherlösung, die mit der Geschwindigkeit der schnellsten Speicher-Tiers der Cloud-Landschaft mithalten kann, jedoch (beinahe) zu Preisen von Kalt-Speicherlösungen angeboten wird. Dieser clevere Preismechanismus ermöglicht es, leistungsstarke Cloud-Speicher zu deutlich niedrigeren Kosten bereitzustellen. Ein weiteres herausragendes Merkmal von Wasabi ist der Verzicht auf Egress-Gebühren und API-Anfragekosten. Dadurch entsteht eine transparente und vorhersehbare Kostenstruktur, die das Risiko eines unerwarteten Kostenanstiegs minimiert.

Wasabi garantiert eine Datenverfügbarkeit von 11 Neunen und bietet redundante Speicherung innerhalb des Frankfurter Rechenzentrums. Unternehmen können explizit auswählen, in welchem Rechenzentrum ihre Daten liegen, um geografische Compliance-Anforderungen zu erfüllen. Wasabi hat bereits seit 2022 eine deutsche Speicherregion in Frankfurt, um den wachsenden Bedarf an Cloud-Speicher in Deutschland zu decken und Datenschutzbedenken zu adressieren. Das Frankfurter Rechenzentrum erfüllt die strengen Anforderungen an Datenhoheit und Datenschutz in Deutschland und der EU. Mit einer Funktion namens Object Lock können Unternehmen unveränderliche Speicherbereiche einrichten, die Daten vor Manipulation oder Löschung schützen.

Daten vor unerwünschtem Zugriff schützen

Da es sich bei vielen der aufstrebenden Cloud-Anbieter um Unternehmen handelt, die in den Vereinigten Staaten beheimatet sind, dürfte für ihre Rechenzentren — nicht anders als im Falle der Hyperscaler — theoretisch der Cloud Act greifen, der US-Behörden unter bestimmten Bedingungen Zugriff auf Daten von US-Firmen gewährt. Das Berliner Unternehmen Enclaive GmbH hat eine Lösung entwickelt, die diesen Zugriff mit technischen Vorkehrungen verunmöglichen soll.

Fazit der Autoren

Enterprise-Cloud-Speicherdienste bieten heute weitaus mehr als nur einen Ablageort für Unternehmensdaten. Sie haben sich zu hochentwickelten Ökosystemen entwickelt, die geschäftskritische Prozesse und latenzsensible KI-ML-Arbeitslasten unterstützen. Innovative Cloud-Speicher bieten heute ein zuvor unerreichtes Maß an Automatisierung, Sicherheit, Kosteneffizienz und Leistung. Sie verfügen über umfassende Datenmanagement-Funktionen, tiefgreifende Datenanalysefähigkeiten und fortschrittliche Sicherheitsmechanismen. Die besten dieser intelligenten Cloud-Datenspeicher können die Wettbewerbsfähigkeit der Unternehmen auf ein neues Niveau heben.

(ID:50437351)