Big Data Analysen

Goldgräberstimmung

| Autor / Redakteur: Wilfried Platten / Florian Karlstetter

Im Hintergrund

An sich ist Business Analytics kein neues Phänomen. Früher kursierten dafür Begriffe wie Business Intelligence, Data Mining oder Data Warehousing. Gemeint ist damit Ähnliches, aber nicht Gleiches.

Die Auswertung großer Datenmengen aus heterogenen Datenquellen erfordert drei komplexe, zeitaufwändige Schritte:

  • 1. Der ETL-Prozess: Die Extraktion (E) der gewünschten und selektierten Daten aus der jeweiligen Datenquelle – Die Transformation (T) dieser Daten in ein gemeinsames, bereinigtes Format – Und das Laden (L) der gereinigten Daten in das Data Warehouse.
  • 2. OLAP: Die Metadaten-Modellierung , also die Würfelbildung mit der Definition der jeweils gewünschten Dimensionen, etwa die Absatzzahlen in einem bestimmten Gebiet in einem gewissen Zeitraum.
  • 3. Business Intelligence und Data Mining: Die eigentliche analytische Auswertung dieser Daten für die Identifikation typischer Muster und die Voraussage künftiger Entwicklungen.

Aus vielen Quellen

Big Data wird aus vielen Quellen gespeist: Nach wie vor größter Datenpool sind die traditionellen Tresore wie relationale, non-relationale, objektorientierte und analytische Datenbanken (Oracle, DB2, Informix). Für die Verarbeitung großer Datenmengen in Clustern kommen neue wie Hadoop mit seinem verteilten Dateisystem HDFS dazu. Nicht zu vergessen die Flut an operativen Informationen aus Anwendungen wie beispielsweise ERP- oder CRM-Systemen und gegebenfalls die Daten aus den Cloud-Applikationen, etwa Salesforce. Sie alle müssen genutzt und ausgewertet werden. Ein analytisches System muss also in der Lage sein, mit dieser Vielfalt an Quellen klar zu kommen – und das schnell und sicher. Schnelligkeit ist dabei ein entscheidendes Kriterium.

Auf vielen Ebenen

Womit wir beim letztlich entscheidenden Punkt sind: der Datananalyse. Sie umfasst zwei große funktionale Blöcke: Data Mining und Data Discovery.

Data Mining wird genutzt für prognostische Analysen. Es ist also der Versuch, aus dem Datenwust Vorhersagen zu generieren, etwa Informationen über ein bestimmtes Kundenverhalten zu gewinnen, das dann extrapoliert werden kann. Dieses Werkzeug wird üblicherweise nur von entsprechenden Experten eingesetzt.

Etwas umfangreicher ist die Bandbreite beim Data Discovery, das auch von einer größeren Zahl von Anwendern genutzt wird. Es umfasst sowohl das Reporting für operative und Adhoc-Berichte, als auch die Visualisierung der analytischen Ergebnisse. Die optische Aufbereitung erfolgt in Dashboards. Auf diesen Cockpits kann sich der Anwender die Ergebnisse, die er gerade sehen will, grafisch darstellen lassen. Anders ließen sich Ergebnisse aus Big Data Analysen, wie beispielsweise die Marketinganalyse von Weblog-Daten in Hadoop, gar nicht lesen.

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 37320770 / Business Intelligence)