Strategisch zur effizienten Datennutzung Data first, Cloud second!

Von Daniel Metzger*

Anbieter zum Thema

Wie lässt sich das Potenzial für das Kern- und Neugeschäft bestmöglich abschöpfen, das in den Daten steckt? Vor dieser Frage stehen alle Unternehmen. Die Antwortsuche führt schnell zu einer grundsätzlichen Anforderung: Ein kontinuierlicher Datenfluss, der vom Edge bis zum KI-Feature reicht, löst die Datensilos ab.

Datenmanagement und Datenintegration müssen in hybriden Cloud-Umgebungen strategisch angegangen werden.
Datenmanagement und Datenintegration müssen in hybriden Cloud-Umgebungen strategisch angegangen werden.
(Bild: gemeinfrei© Tammy Duggan-Herd / Pixabay)

Dessen Realisierung setzt zunächst eine Datenstrategie voraus, um auch Cloud-Services erfolgreich einzubinden, etwa über eine Enterprise Data Cloud. Die Cloud unterstützt Unternehmen bei der Digitalisierung und bringt ihnen die nötige Flexibilität und Agilität. Sie entwickelt sich zunehmend zum integralen Bestandteil der IT-Infrastruktur, so eine aktuelle IDC-Studie. 46 Prozent der deutschen Unternehmen befinden sich bereits in einer fortgeschrittenen Phase der Cloud-Nutzung, weitere 38 Prozent in einer frühen Phase. Dabei zeigt sich ein klarer Trend zur Multi-Cloud: 87 Prozent der Befragten betreiben bereits Umgebungen mit Services verschiedener Public-Cloud-Provider oder planen dies. Häufig kommt es auch zu hybriden Infrastrukturen, die eine Private-Cloud im eigenen Rechenzentrum mit der Public-Cloud kombinieren. So können Unternehmen sensible Daten im eigenen Rechenzentrum behalten und trotzdem von den Vorteilen verschiedener Public Cloud Services profitieren.

Schwierige Datenintegration und aufwändiger Cloud-Providerwechsel

Damit hybride Umgebungen in diesem Sinne Sicherheit und Flexibilität tatsächlich vereinen, rücken Datenmanagement und die Datenintegration in den Fokus. Gerade mit letzterem haben jedoch viele Unternehmen zu kämpfen, stellt die Cloud-Computing-Erhebung von IDC fest. Unter diesen Umständen fehlen Fachexperten entscheidende Datensets, die sie für den neuen Prototypen brauchen. Die Daten fließen in ihrer hybriden Infrastruktur durch mehrere Plattformen. Sie durchlaufen dabei mehrere Prozesse und Speicherorte, ohne dass vollkommen klar ist, wie das Interagieren mit anderen Daten und das Transformieren über bestimmte Datenverarbeitungslogiken erfolgt.

Erst mit dem Wissen über die Daten, das die Datenherkunft und die von den ursprünglichen Daten erstellten Derivate (Data Lineage) einschließt, gelingt es überhaupt, die Datenübergänge aufwändig manuell aufzusetzen – und die benötigten Daten bereitzustellen. An dieser Aufgabe verzweifeln viele Firmen. Darüber hinaus brauchen ihre Datenexperten und Entwicklern die richtigen Instrumente, um schnell und präzise Prognosen zu treffen oder neue Lösungen zu erschaffen.

Doch was passiert, wenn die Anstrengungen für Datenintegration und -management, das konsistent in allen Umgebungen greifen und Sicherheit, Datenschutz und Compliance durchsetzen muss, zu der Erkenntnis führen: Der bisherige Public-Cloud-Service bietet nicht die Leistungen, die ein Unternehmen für seine Datenanalyse braucht. Um sich eine solide Datenbasis für neue Geschäftsmodelle aufzubauen, wäre in dem Fall ein Cloud-Provider-Wechsel nötig.

Wer Pech hat, erhält von seinem alten Dienstleister nur Rohdaten zurück. Dadurch wären sämtliche vorher gelaufenen Data-Mining-Aktivitäten mit Vorbereitung und Anreicherung Makulatur. Das Switchen auf einen besser geeigneten Platform-as-a-Service (PaaS) beim neuen Provider verlangt meist Opfer, um sich aus dem Vendor-Lock-in zu befreien. Die logische Schlussfolgerung kann deshalb nur lauten: Zuerst eine Datenstrategie zu entwerfen und umzusetzen, die im zweiten Schritt zu einer erfolgreichen, weil effizienten Cloud-Nutzung für Kern- und Neugeschäft führt.

Konsistenzanspruch und Dateninventur

Daten sind heute die Vermögenswerte der Unternehmen. Wie diese kurz- und mittelfristig auf den Geschäftserfolg einzahlen, legt eine Firma in ihrer Datenstrategie fest. Dazu muss sie das Nötige an Technik, Prozessen und Schnittstellen ermitteln und definieren, wobei es Datensicherheit und -schutz sowie Branchenvorgaben zu berücksichtigen gilt. Das Ziel ist eine Datenarchitektur mit einem Datenmanagement, in der klar vorgegebene Prozesse und Richtlinien greifen, um aus den Datensets gesteuerte Datenströme für bessere und datenschutzkonforme Analysen und Geschäftsergebnisse zu gewinnen.

Es darf keine Rolle spielen, wo Daten verarbeitet werden. In allen Umgebungen müssen dieselben Datenservices und Analyse-Tools für die Nutzer bereitstehen. Der Konsistenzanspruch einer Datenstrategie ist daher die Datenverwaltung unternehmensweit durch zu deklinieren und durchzusetzen, um Cloud-Services nahtlos in die Infrastruktur einzubinden. Denn ohne Cloud-Computing wird es schwer, eine agile und flexible Unternehmens-IT aufzubauen, in der die Daten reibungslos fließen können und sich bedarfsbezogen bewegen lassen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ausgangspunkt für die Datenstrategie ist die Dateninventur, die in einem Datenkatalog mündet. Aus dem geht hervor, wo welche Daten in welchem Format vorliegen. Die anschließende Klassifizierung nach geschäftskritischen und personengebundenen Daten liefert die Vorlage, um Kriterien für Datenverfügbarkeit, -sicherheit und Compliance abzuleiten, die dann für das Datenmanagement verbindlich sind. Performance darf jedoch nicht zu Lasten der Sicherheit gehen. Andersherum ist genauso schlecht. Das Datenkonzept sollte daher alle möglichen Anforderungen ausbalancieren. Als wesentlicher Sicherheitsbaustein drängt sich das Implementieren eines identitätsbasierten Datenzugriffsrechts auf. Ebenso unerlässlich ist es, für den Katastrophenfall mit einem Backup- und Recovery-Konzept gewappnet zu sein.

Was kommt in die Cloud?

Hat ein Unternehmen den Datenumgang – auch für die Cloud – festgelegt, steht es vor der Frage, welche Workloads sich dafür eignen, in die Cloud verschoben oder dort neu aufgesetzt oder optimiert zu werden. Was lässt sich dort effizienter und dennoch sicher abbilden? Bei der Suche helfen Anwendungsbeispiele aus der eigenen oder einer fremden Branche. Man muss nicht alles neu erfinden oder selbst machen, sondern es lohnt sich zu prüfen, was sich wie von anderen Akteuren adaptieren und auf sich zuschneiden lässt. Je klarer ein Anwendungsfall definiert ist, umso einfacher fällt es, diesen erfolgreich zu realisieren.

Dennoch bleibt die Cloud-Migration ein herausfordernder Akt, der sich mit einer Enterprise Data Cloud jedoch wesentlich einfacher gestaltet. Solche Plattformen sind dafür konzipiert, den gesamten Daten-Lebenszyklus vom Edge bis zur KI-Anwendung abzubilden. Diese Technologie liegt im Trend. So beobachtet das Analystenhauses IDC, dass IT-Abteilungen immer häufiger eine IT-Plattform-Strategie zur Abbildung und Verknüpfung der Business-Funktionalitäten verfolgen, typischerweise unter Einbeziehen der Cloud.

Eine Enterprise Data Cloud in Transformationsaktion

Bei ihren Überlegungen zur Daten- und Cloud-Strategie sollten Unternehmen sorgfältig berücksichtigen, was sie in die Cloud stellen und warum. Denn mangelndes Datenmanagement lässt die Speicherkosten in die Höhe schnellen und kann im schlimmsten Falle dazu führen, dass die Daten nicht mehr richtig ausgewertet werden können. Hier schafft eine Enterprise Data Cloud Abhilfe.

Warum diese die beste Wahl für die Umsetzung der Daten- und Cloudstrategie ist, lässt sich an einem entscheidenden Punkt festmachen: Sie sorgt für eine einfache und komplette Datenintegration. Deshalb ist ein Unternehmen mit dieser Technologie, umgesetzt beispielsweise in der Cloudera Data Plattform, in der Lage, den gesamten Datenlebenszyklus abzubilden. Anwender können stets über ein Dashboard den Datenstrom vom Edge über Gateway, Big Data-Cluster, Analyse-Tool sowie KI-Anwendung verfolgen und steuernd eingreifen. Der Datenumgang ist von On-Premises-Systemen über Private-, Hybrid- bis Public- und Multi-Cloud konsistent geregelt.

Daniel Metzger, Cloudera.
Daniel Metzger, Cloudera.
(Bild: SEIDENABEL)

Die Daten, die für eine Nutzergruppe relevant sind, stehen dort für einen schnellen Zugriff bereit, wo sie gebraucht werden. Über Self-Services nutzen Anwender aus dem Fachbereich und anderen Abteilungen die Werkzeuge, die sie für ihre Datenverarbeitung benötigen. Auf diese Weise lässt sich eine anpassungsfähige Hybrid- oder Multi-Cloud aufbauen und betreiben. Auch steht einer ganzheitlichen Analyse nichts mehr im Wege. Dadurch sind alle Voraussetzungen gegeben, die digitale Transformation im Unternehmen zu beschleunigen – datenstrategisch vorgezeichnet und flexibel mit den passenden Cloud-Services vollendet.

* Der Autor Daniel Metzger ist Regional Vice President Central & Eastern Europe bei Cloudera.

(ID:47706576)