Speichertipp: Zenko als Multicloud-Controller Datenreplikation über Cloud-Grenzen hinweg steuern

Von Thomas Joos 1 min Lesedauer

Anbieter zum Thema

Verteilte Speicherumgebungen bringen technische Reibungsverluste mit sich. Zenko adressiert dieses Problem mit einem Multicloud-Controller, der verschiedene Speicherziele über eine zentrale Schnittstelle verwaltet, Datenformate erhält und Replikation kontrolliert über Cloud-Grenzen hinweg ermöglicht.

Mir der Open-Source-Lösung Zenko von Scality lassen sich komplexe Speicherarchitekturen über eine einheitliche API hinweg abstrahieren.(Bild:  Midjourney / KI-generiert)
Mir der Open-Source-Lösung Zenko von Scality lassen sich komplexe Speicherarchitekturen über eine einheitliche API hinweg abstrahieren.
(Bild: Midjourney / KI-generiert)

Zenko abstrahiert komplexe Speicherarchitekturen über eine einheitliche API hinweg und erlaubt eine gezielte Steuerung von Objektdaten in hybriden und Multicloud-Umgebungen. Die Open-Source-Lösung von Scality setzt oberhalb bestehender Speicherinfrastrukturen an, unabhängig davon, ob Daten in einem Scality-RING, auf Docker-Volumes oder in öffentlichen Cloud-Diensten wie AWS S3, Azure Blob oder Google Cloud Storage abgelegt werden. Für Entwickler und Administratoren ergibt sich dadurch eine konsistente Sicht auf verteilte Objektspeicher mit Suchfunktion, Zugriffskontrolle und Replikationsmechanismen.

Zenko wird auf Kubernetes betrieben und kann über vorbereitete Ressourcen direkt aus dem öffentlichen GitHub-Repository ausgerollt werden. Die Plattform ist Teil der SODA Foundation und steht unter Open-Source-Lizenz. Eine vollständige Dokumentation sowie ein öffentlich zugängliches Sandbox-Portal unter Zenko.io erleichtern den Einstieg. Auch ohne Entwicklerhintergrund lässt sich die Replikationslogik innerhalb weniger Minuten aufsetzen.

Speicherziele richtig definieren

Die Orbit-Oberfläche bildet den operativen Kern der Plattform. Dort lassen sich Speicherziele definieren, Policies verwalten und Replikationsszenarien überwachen. Jede neue Storage-Location wird über Zugangsdaten eingebunden und einem konkreten Cloud-Service zugewiesen, etwa einem AWS-Bucket in der Region us-west-1 oder einem GCP-Objektspeicher in Frankfurt. Der Zugriff erfolgt einheitlich über das S3-API, unabhängig vom Zielsystem.

Zenko übernimmt das Mapping und die Übersetzung der Aufrufe in die jeweiligen Cloud-spezifischen Formate. Entscheidend ist dabei, dass alle Objekte in ihrem nativen Zielformat abgelegt werden. Azure erhält Azure-konforme Daten, Google native GCS-Objekte. Daraus ergibt sich volle Kompatibilität mit Cloud-Analytics-Diensten und KI-gestützten Auswertungstools, ohne dass eigene Konnektoren oder Zwischenlayer notwendig wären.

(ID:50613464)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung