Suchen

Datenmigration, -konsistenz und -verfügbarkeit Cloud-basiert und data-driven zum Erfolg

Autor / Redakteur: Jürgen Lübeck* / Elke Witmer-Goßner

Effektive Datenanalyse in der Cloud bedingt die Bereitstellung großer Datenvolumen, die sicher und ohne Ausfallzeiten in die Cloud migriert werden müssen. Größtmöglicher Mehrwert kann dabei nur erzielt werden, wenn die Konsistenz und Verfügbarkeit der relevanten Daten über alle integrierten Systeme hinweg gegeben sind. Erst dann eröffnen sich ganz neue Szenarien für nachhaltige Geschäftsstrategien, -modelle und -erfolge.

Firmen zum Thema

Die größte Herausforderung für Unternehmen heute ist, den Brückenschlag zwischen On-Premises- und Cloud-Umgebungen zu meistern.
Die größte Herausforderung für Unternehmen heute ist, den Brückenschlag zwischen On-Premises- und Cloud-Umgebungen zu meistern.
(Bild: gemeinfrei© Free-Photos / Pixabay )

Unternehmen sitzen heute auf enormen Mengen ungenutzter Daten. Richtig verwertet – Stichworte sind Big Data Analytics, AI, IoT etc. –, bergen sie wertvolles Wissen und Erkenntnisse, mit denen zeitnah auf wechselnde Marktgegebenheiten reagiert und entscheidende Wettbewerbsvorteile gesichert werden können.

On-Premises- bzw. Hadoop-Umgebungen stoßen hier an die Grenzen der Skalierbarkeit. Denn die Datenvolumen nehmen kontinuierlich zu. Schon deshalb führt an der Cloud kein Weg mehr vorbei. Hinzu kommt außerdem das Thema Kosten. Bedeutet Cloud-Lösungen zu nutzen doch, die Ausgaben für Infrastruktur, Rechenleistung und Speicherkapazität deutlich zu reduzieren.

Ab in die Cloud, aber wie?

Unternehmen investieren somit in die digitale Zukunft und handeln kostenbewusst. Sie sehen die Cloud mittlerweile durchaus als Ausgangsbasis für digital basierte Geschäftsstrategien, -modelle und -erfolge. Folgt man etwa Entscheider-Befragungen wie dem aktuellen Cloud-Monitor des Branchenverbands Bitkom, geht es nicht mehr darum, ob Unternehmen auf Cloud-Lösungen setzen sollen, sondern für welche Anwendungen und in welcher Betriebsform sie das am besten tun.

Datenkonsistenz und -verfügbarkeit sind dabei entscheidende Faktoren für mehr Flexibilität und Agilität – und unabdingbare Voraussetzung etwa für die Verkürzung der Time-to-Market oder einen beschleunigten Idea-to-Cash-Zyklus in der Cloud. In den nächsten zwei Jahren, auch darin sind sich die Experten einig, kommt es deshalb zu einem wahren Schub in die Cloud. Es geht um Datenvolumen im Petabyte-Bereich.

Wettbewerbsvorteile bleiben ungenutzt

Bisher neigen Unternehmen noch dazu, geschäftskritische Daten an einem Ort (On-Premises) zu bündeln. Effekt: Die wachsende Menge an Daten entwickelt eine enorme „Daten-Schwerkraft“. Oft kommt hinzu, dass rechtliche und interne Vorgaben die verteilte Bereitstellung der Daten weiter erschweren. Um das gesamte Innovations- und Produktivitätspotenzial auszuschöpfen, gilt es deshalb, geschäftskritische Daten und relevante Anwendungen verteilt bereitzustellen – und die scheinbare Unvereinbarkeit von Daten-Schwerkraft und verteilten Umgebungen durch die Verwendung cloud-basierter Lösungen aufzulösen.

Entscheider tun sich damit allerdings noch schwer und lassen Wettbewerbsvorteile ungenutzt. Dies oft nur, weil spezifische Herausforderungen und gefühlte Hürden hoch erscheinen – oder weil sie schlicht nicht wissen, dass es entsprechende Lösungen gibt. So mangelt es auf oft an einem umfassenden Verständnis für das Cloud-Potenzial und die Relevanz bedarfsgemäßer Datenbereitstellung bei der Umsetzung künftiger digitaler Geschäftsmodelle. Helfen kann an dieser Stelle, einen objektiven und unaufgeregten Blick auf etablierte Cloud-Lösungen zu richten und deren Chancen gegen die (gefühlten) Risiken abzuwägen.

Wegbereiter und Wegbegleiter

Nicht selten verzögern Unternehmen die Migration geschäftskritischer Daten in die Cloud aus Angst vor Kontrollverlust, aus Sicherheitsbedenken und weil sie geschäftskritische Ausfallzeiten oder gar Datenverlust befürchten. Hier sind die Anbieter von Cloud-Lösungen gefordert, Vertrauen zu schaffen, indem das Risiko von Sicherheitslücken, Ausfallzeiten oder Datenverlust nachhaltig ausgeschlossen wird: Wenn Daten in die Cloud migriert werden sollen, dann garantiert sicher, verfügbar und konsistent.

Diese elementare Anforderung bezieht sich jedoch nicht nur auf die Migration, sondern erstreckt sich auf den längerfristigen Betrieb komplexer und integrierter Datensysteme. Wettbewerbsvorteile entstehen erst, wenn nicht nur einzelne Anwender oder Applikationen, sondern verbundene Systeme auf einen Datenbestand zugreifen können. Soll heißen, wenn Daten jederzeit und überall konsistent zur Verfügung stehen. In Hybrid- oder Multi-Cloud- bzw. Multi-Region-Szenarien.

Der Weg zum erfolgreichen Daten-Management und zur effektiven Cloud-Nutzung lässt sich in zwei Schritten erfolgreich bewerkstelligen:
Im ersten Schritt müssen Datenvolumen zuverlässig und sicher in die Cloud transferiert werden. Ausfallzeiten oder Datenverluste sind auszuschließen. Eine zumindest zeitweise parallele Verfügbarkeit von konsistenten Daten sollte gegeben sein. Die Einhaltung aller Geschäfts-, Compliance- und Business-Continuity-Anforderungen ist sicherzustellen.
Anschließend sind im zweiten Schritt Datenkonsistenz und -verfügbarkeit die ausschlaggebenden Faktoren. Unabhängig von Datenvolumen und auf beliebig vielen Systemen (On-premises und/oder Cloud), während sich die Daten im Zugriff befinden, um unterbrechungsfrei und in Echtzeit handeln zu können.

Welche „data-driven“ Möglichkeiten es gibt

WANdisco-Lösungen ermöglichen die Migration, Synchronisation und Echtzeit-Replikation großer Datenmengen zwischen On-Premises- und Cloud-Umgebungen. Das patentierte Verfahren LiveData sorgt dafür, dass Daten jederzeit konsistent und auf allen Systemen in Echtzeit verfügbar sind.
WANdisco-Lösungen ermöglichen die Migration, Synchronisation und Echtzeit-Replikation großer Datenmengen zwischen On-Premises- und Cloud-Umgebungen. Das patentierte Verfahren LiveData sorgt dafür, dass Daten jederzeit konsistent und auf allen Systemen in Echtzeit verfügbar sind.
(Bild: WANdisco)

Schlüssel zur effektiven Datennutzung in verteilten Umgebungen ist eine LiveData-Strategie, samt eines automatisierten Prozesses, der die vollständige Konsistenz der Daten garantiert – zu jeder Zeit und auf allen beteiligten produktiven Systemen. Insbesondere die Migration geschäftskritischer Daten im Petabyte-Bereich in die Cloud sowie die Synchronisation und Replikation von Daten in Hybrid- oder Multi-Cloud- bzw. Multi-Region-Umgebungen.

Wir sehen drei Szenarien, in denen eine moderne Datenmanagement-Lösung heutige Unternehmensanforderungen erfüllen kann:

1. Migration
Der heute erreichte Reifegrad etablierter Cloud-Angebote und unterstützender technologischer Lösungen ermöglicht Unternehmen, Anforderungen effizienter und sicherer als in rein lokalen Umgebungen zu erfüllen. Doch kann die dafür notwendige Überführung großer Datenmengen mit Herausforderungen verbunden sein. Moderne Technologien gewährleisten hier, Daten sicher, schnell und ohne deren Verfügbarkeit einzuschränken zu migrieren. Somit gehören die Beschränkungen und die Komplexität lokaler Hadoop-Umgebungen schnell der Vergangenheit an.
2. Hybrid Cloud
Sind die Daten in die Cloud migriert, kann für einen definierten Zeitraum der Parallelbetrieb notwendig sein. Oder eine Hybrid-Umgebung ist dauerhaft notwendig, weil zum Beispiel einige Applikationen noch nicht cloud-ready sind oder Regulatorik und Compliance dies erfordern. Dann ergibt sich die Notwendigkeit für eine multidirektionale Replikation von Daten in verteilten Umgebungen in Echtzeit und ohne Datenverlust. Auch hier können Anwender und Applikationen jederzeit auf die Daten zugreifen, lokal oder in der Cloud.
3. Multi Region bzw. Multi Cloud
Ob Echtzeitanwendungen, globale Datenverteilung, spezielle Anforderungen aus den Bereichen IoT, MachineLearning/AI oder die Vermeidung von Anbieterabhängigkeiten (Vendor Lock-in) – es gibt viele Gründe für Unternehmen, eine Multi-Region- bzw. Multi-Cloud-Architektur einzuführen. Dabei ergibt sich die Herausforderung, Daten in global verteilten Umgebungen konsistent zu halten sowie in Echtzeit und ohne Datenverlustrisiko zu replizieren. Hierfür bietet WANdisco praxiserprobte Lösungen, die zugleich auch die hohen Ausleitungskosten für Daten (Egress Charges) der Cloud-Anbieter minimieren können.

Für alle gilt der gleiche Grundsatz

Jürgen Lübeck, WANdisco.
Jürgen Lübeck, WANdisco.
(Bild: WANdisco)

Naturgemäß gibt es viele individuelle Szenarien für die Bereitstellung geschäftskritischer Daten in verteilten Umgebungen und mindestens ebenso viele Möglichkeiten, sie gezielt auf das eigene Business auszurichten. Die grundlegende Gemeinsamkeit aber ist: Eine an die Geschäftsanforderungen angepasste Datenverfügbarkeit in der Cloud verbessert die Wettbewerbsfähigkeit und sichert somit die Zukunft des Unternehmens. Oder um bei den Cloud-Analogien zu bleiben: the sky is the limit.

* Der Autor Jürgen Lübeck ist Regional Director DACH bei WANdisco, einem weltweit operierenden Spezialisten für die Konsistenz großer Datenmengen durch Echtzeit-Replikation.

Mehr zum Thema „Migration von Hadoop in die Cloud“ vermittelt WANdisco am 26. Mai 2020 um 10 Uhr auch in einem entsprechenden Webinar. Eine Registrierung ist noch möglich.

(ID:46577827)