Virtualisierte Datenumgebungen

Mit DataOps auf dem schnellsten Weg in die Cloud

| Autor / Redakteur: Minas Botzoglou* / Florian Karlstetter

Eine DevOps-Lösung wie die Dynamic Data Platform von Delphix optimiert Migrationsprojekte und beschleunigt Entwicklungs- und Testprozesse.
Eine DevOps-Lösung wie die Dynamic Data Platform von Delphix optimiert Migrationsprojekte und beschleunigt Entwicklungs- und Testprozesse. (Bild: Delphix)

DevOps-Lösungen virtualisieren Datenbanken, Applikationen und Dateisysteme. Das versetzt Unternehmen in die Lage, effizient mit „echten“ Produktivdaten neue digitale Produkte zu entwickeln und zu testen. Anwenderfirmen können eine solche Plattform aber auch nutzen, um in einem Zug riesige Datenmengen in die Cloud zu verschieben. Die DataOps-Technologie sichert hierbei die Daten ab und hält sie aktuell.

Keiner will sie, dennoch sind die ungeliebten Datensilos in Unternehmen noch immer allgegenwärtig. So gibt es SQL- und No-SQL-„Silos“ sowie Repositories für unterschiedliche Datentypen und Binaries diverser Applikationen. Diese Segmentierung macht es schwer, übergreifende Entwicklungs- und Testumgebungen aufzusetzen.

„Data Operators“ tun sich jedoch nicht nur wegen den Datensilos schwer, Software-Entwicklern und Fachabteilungen diejenigen Datenumgebungen an die Hand zu geben, die sie benötigen. Unterschiedliche Sicherheitsanforderungen stellen weitere Gründe dar, die einem schnelleren Realisieren von digitalen Projekten im Weg stehen. Auch spielt die Angst, die Kontrolle über Datenbestände zu verlieren, eine Rolle – genau wie die Furcht vor Datenlecks.

Datenkopien ersetzen traditionelle Testumgebungen

Einen alternativen Ansatz bieten DataOps. Ihre Funktion besteht darin, die Anforderungen von Datennutzern und Datenkonsumenten im Unternehmen zu erfassen. Anschließend gilt es, Prozesse zu analysieren und Blockaden zu beseitigen. So sollte es möglich sein, dass Mitarbeiter im Self-Service-Verfahren virtuelle Kopien von Datenbeständen erstellen und nutzen können – in der erforderlichen Qualität und unter Einhaltung von Compliance- und Datenschutzvorgaben. Die Datenkopie, auch „Data Pod“ genannt, fungiert als Blaupause, um virtuelle Datenumgebungen abzubilden.

Um unter realitätsnahen Bedingungen digitale Angebote entwickeln zu können, benötigen Software-Experten Produktivdaten. Traditionelle Testumgebungen fallen allerdings alles andere als schlank aus. Ein Beispiel: Das Produktionssystem mit den „echten“ Daten hat ein Volumen von 25 Terabyte. Es sollen zwei Entwicklungsprojekte starten. Bei jedem werden Kopien der Produktivdaten verwendet, sprich insgesamt 50 TByte. Jede Testumgebung umfasst ebenfalls 25 TByte. Somit werden bereits Speicherressourcen von 100 TByte benötigt. Damit nicht genug, denn es müssen noch eine Umgebung für die Abnahme (25 TByte) und eine weitere für das Reporting (25 TByte) implementiert werden. Insgesamt summiert sich der Speicherbedarf für 25 TByte Produktivdaten auf letztlich 150 TByte, und zwar mit denselben Informationsbeständen. „Data Pods", die Daten und Applikationen zusammenfassen, benötigen nach Praxiserfahrungen von Delphix für jedes zusätzliche Data Pod nur etwa 25 GByte statt 25 TByte. Das verschafft gehörigen Spielraum im IT-Budget.

Das Werkzeug zur Datenvirtualisierung

Mit DataOps-Lösungen wie der Delphix Dynamic Data Platform lassen sich die virtuelle Datenumgebungen verwirklichen. Die zugrundeliegende Software wird hierfür auf einer der gängigen Virtualisierungsplattformen (Hypervisors) installiert und agiert mit den Speicher- und Serversystemen. Eine solche Plattform muss Standardschnittstellen zu relevanten Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch zu Applikationen mitbringen. Data Operators erhalten dann ein Werkzeug, mit dem sie Daten einfach aus verschiedenen Quellen miteinander verbinden und sichern können.

Fortlaufend synchronisiert die DevOps-Plattform die Kopie der Produktivdaten mit den Datenquellen, wobei sie nur Änderungen an Datensätzen und Applikationen sichert. Außerdem ist eine reife DataOps-Lösung für das Migrieren von Daten und Applikationen aus dem eigenen Rechenzentrum in eine Public Cloud oder in einer Hybrid-Cloud-Umgebung ausgelegt. Das setzt allerdings voraus, dass die Plattform in der Lage ist, alle gängigen Cloud-Lösungen wie Amazon AWS, IBM Cloud oder Microsoft Azure zu nutzen.

Sechs schnelle Schritte in die Cloud

Auf dem Weg in Cloud wird zunächst eine Platform-Engine im Firmenrechenzentrum bereitgestellt und mit dem Produktivsystem synchronisiert. In einem zweiten Schritt kann bei Bedarf eine automatisierte Maskierung der Daten erfolgen, damit keine sensiblen, geschäftskritischen Daten die Produktionsumgebung verlassen. Danach erfolgt als dritter Akt das Deployment der zweiten Engine in der Cloud, wobei das kontinuierliche Replizieren der Daten zwischen der On-Premise- und Cloud-Instanz startet. Damit sind die Voraussetzungen für die vierte Teiletappe geschaffen: die Provisionierung einer virtuellen Testumgebung in der Cloud – für das Entwickeln, Testen und Validieren von Applikationen.

Ergänzendes zum Thema
 
DataOps-Lösungen: Technologisches Anforderungsprofil

Die virtualisierte Datenumgebung lässt sich im fünften Schritt nutzen, um eine neue physikalische Infrastruktur aufzubauen. Diese hat den Zweck, die Performance der Produktion in der Cloud zu testen und zu verbessern. Wenn die Systeme live gegangen sind, eröffnet dieser Schlussakt die Möglichkeit, einen Support für die Produktionsumgebung einzurichten.

Parallel testen und schnell loslegen

Minas Botzoglou ist Regional Director DACH, Delphix. Sein Unternehmen verfolgt die Mission, Daten in Unternehmen ohne Reibungsverluste bereitzustellen und Innovation zu beschleunigen. Fortune-100-Unternehmen setzen die Delphix Dynamic Data Platform ein, um Daten aus der Cloud oder aus Vor-Ort-Umgebungen miteinander zu verbinden, zu virtualisieren, zu sichern und zu verwalten.
Minas Botzoglou ist Regional Director DACH, Delphix. Sein Unternehmen verfolgt die Mission, Daten in Unternehmen ohne Reibungsverluste bereitzustellen und Innovation zu beschleunigen. Fortune-100-Unternehmen setzen die Delphix Dynamic Data Platform ein, um Daten aus der Cloud oder aus Vor-Ort-Umgebungen miteinander zu verbinden, zu virtualisieren, zu sichern und zu verwalten. (Bild: Delphix)

Virtuelle Datenumgebungen basieren auf einem „echten“ Datenbestand. Daraus ergeben sich mehrere Vorteile. Anwender haben die Möglichkeit, mehrere Ausgaben („Branches“) der virtuellen Daten anzulegen und für unterschiedliche Zwecke zu nutzen. Branches lassen sich einsetzen, um Bugs zu finden oder um Analysen und Tests durchzuführen. Zudem funktioniert es, separate Branches für unterschiedliche Versionen einer Applikation einzurichten. Durch das Bereitstellen von Testumgebungen je nach Bedarf und in beliebiger Menge, können Mitarbeiter parallel testen, wodurch die Testzeiten sinken.

Zu den Vorzügen einer DataOps-Lösung zählen nicht nur kürzere Entwicklungs- und Testzeiten bei Applikationen und damit eine höhere Produktivität der Entwicklungsabteilung. Zusätzlich können Software-Experten viel schneller loslegen. Das weiß man auch bei einem weltweit führenden Brauerei-Konzern zu schätzen. Dieser benötigte im Schnitt 20 Stunden, um eine Datenumgebung für Entwickler und Tester bereitzustellen. Mit der Dynamic Data Platform von Delphix reduzierte sich die Bereitstellungszeit auf zehn Minuten – gut 99 Prozent weniger als zuvor.

In der Hälfte der Zeit am Ziel

Nach Erfahrungswerten von Delphix verlaufen Migrations- und Entwicklungsprojekte bis zu 50 Prozent schneller, wenn eine DataOps-Plattform eine virtualisierte Datenumgebung erzeugt. Ein Grund ist, dass sich große Datenmengen dank der Datenvirtualisierung- und Deduplizierungstechnik schneller in Cloud-Rechenzentren übermitteln lassen. Das spart Netzwerkbandbreite und Speicherkapazitäten. Die Daten in der Cloud werden fortlaufend mit den Quelldaten synchronisiert. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich Aufgaben und Prozesse im Zusammenhang mit der Software-Entwicklung automatisieren und beschleunigen lassen.

Delphix verbessert Geschwindigkeit und Sicherheit von Cloud Deployments

Optimierter Cloud- und Hybrid-Betrieb

Delphix verbessert Geschwindigkeit und Sicherheit von Cloud Deployments

11.10.17 - Die Delphix Dynamic Data Platform sichert die Datenbereitstellung und -verwaltung sowie den Datenzugriff. Applikationsdaten, die im Unternehmen selbst vorgehalten werden, lassen sich schnell in Cloud-Umgebungen bereitstellen – mit einer kontinuierlichen Datensynchronisation zwischen den Umgebungen. lesen

* Minas Botzoglou, Regional Director DACH, Delphix

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45003403 / Datenbanken / Big Data)