Kommentar von Andreas Ribbrock zur einen Wahrheit in der Datenanalyse Big-Data-Strategien

Autor / Redakteur: Dr. Andreas Ribbrock / Rainer Graefen

Big Data sei eine Ergänzung zum Data Warehouse, ist vielerorts zu hören. Andere meinen, Data Warehouse sei dasselbe wie Big Data. Unser Autor erklärt in seinem Kommentar das Ying und Yang auf dem Weg zum Business-Wissen.

Firma zum Thema

Dr. Andreas Ribbrock, Senior Architect, Teradata
Dr. Andreas Ribbrock, Senior Architect, Teradata
( Teradata)

Klassische Business Intelligence und Big-Data-Analyse: Zwei Welten, die in vielen Unternehmen technisch und infrastrukturell noch getrennt behandelt werden. Auf der einen Seite die herkömmlichen BI-Anwendungen, die zahlreichen Anwendern zugänglich sind.

Auf der anderen Seite die Big Data-Technologien als Hoheitsgebiet der Spezialisten, allen voran MapReduce basierend auf dem Framework Apache Hadoop. Doch erst wenn sie integriert analysiert werden, geben die Datenmengen ihren ganzen Wert preis.

Schwachstelle Informationsdichte

Grund für die unterschiedliche Behandlung von Big Data-Quellen im Gegensatz zu Daten aus traditionellen BI-Anwendungen ist deren meist grundlegend andere Struktur: Bildgebende Verfahren in der Medizin, Audioaufzeichnungen aus Call Centern oder Sensordaten aus der Produktion sind nur einige Beispiele für Datentypen, die sich den herkömmlichen Zeilen- und Spaltenformaten zunächst verweigern.

Ihre schiere Menge und eine für gewöhnlich geringere Informationsdichte macht eine Speicherung im Enterprise Data Warehouse unrentabel. Das praktisch beliebig skalierbare Software-Framework Hadoop ist deshalb oft das Mittel der Wahl, um Big Data zu verarbeiten und zu analysieren. Auf diese Weise entstehen zwangsläufig zwei jeweils halbe Wahrheiten.

Am Brückenschlag muss noch gearbeitet werden

Zukünftige Big Data-Lösungen werden deshalb vor allem zwei essenzielle Anforderungen erfüllen müssen:

  • Erstens müssen für eine konsistente Sicht auf die Daten eines Unternehmens alle Datentypen zusammengeführt werden. Viele Ergebnisse aus Big Data-Analysen werden erst in Kombination mit anderen Informationsdimensionen aus Kundendaten, Transaktionen oder Geschäftskennzahlen, die in der klassischen relationalen Datenbank gespeichert sind, sinnvoll interpretierbar.
  • Zweitens müssen Technologien wie Hadoop auch Business-Anwendern zugänglich gemacht werden. MapReduce und Hadoop-Frameworks sind meist noch die Domäne von Experten und lediglich in der IT-Abteilung angesiedelt – mit der daraus resultierenden Notwendigkeit für den Brückenschlag zwischen Abteilungen auch für einfache Änderungen und Wünsche.

Während viele klassische BI-Instrumente längst über alle Fachabteilungen und hierarchischen Ebenen hinweg bis zum taktischen Decision-Making auf operativer Ebene genutzt werden, steht Big Data dieser Weg erst noch bevor.

Big Data drängt in das Data Warehouse

Im Grunde sind Unternehmensdaten im Enterprise Data Warehouse immer noch am besten aufgehoben. Hier sind sie für alle analytischen Zwecke und alle Anwender, die auf Analysen angewiesen sind, schnell und über etablierte Methoden des Zugriffsschutzes, sicher verfügbar.

Finanzkennziffern, Kundendaten oder Zahlen über Lagerbestände sind hier nur einige Beispiele. MapReduce und Hadoop sind also keine Alternative, sondern eine wichtige Ergänzung für analytisch geführte Unternehmen.

Sie werden als Bestandteil einer BI-Lösungsarchitektur zukünftig unverzichtbar sein und dem analytischen Horizont klassischer Daten eine immens wertvolle, zusätzliche Dimension hinzufügen.

Neugierige Anwender zum Fragen animieren

Die strategische Aufgabe lautet daher, diese zwei Welten in einer vollständig integrierten analytischen Umgebung zusammenzuführen. Erst die durchgängige Analyse unter Berücksichtigung aller Daten in höchster Aktualität schafft den informationellen Mehrwert, der die Chance der riesigen Datenmengen ist – ansonsten wären sie vor allem eins: Big Chaos.

Der problemlose Zugriff der Business Nutzer ist die zentrale Voraussetzung dafür. Es war eine der wichtigsten Entwicklungen der vergangenen Jahre, dass die Wissensarbeiter in den einzelnen Bereichen durch leicht zu bedienende Oberflächen Zugriff auf Daten bekommen haben, die davor nur von der IT „beherrscht" wurden.

Teradata und Teradata Aster verfolgen mit SQL-H und der Integration von SQL und MapReduce in die Aster Database konsequent das Ziel, Big Data zusammen mit den klassischen Datentypen über die gewohnten Schnittstellen all jenen in den Unternehmen zur Verfügung zu stellen, deren Job auf Business Intelligence und Analytics fußt. In dieser voll integrierten Umgebung hängt der Erfolg von Big Analytics dann davon ab, dass die Anwender neugierig sind und kreative Fragen entwickeln.

(ID:36694910)