Datenanalyse in Zeiten von Big Data, Maschine-zu-Maschine-Kommunikation und dem Internet der Dinge

Wie die nutzungsbasierte Abrechnung die Welt der Datenanalyse verändert

| Autor / Redakteur: Karl van Den Bergh, Head Product & Alliances bei Jaspersoft / Florian Karlstetter

Cloud-Lösungen für die Datenanalyse mit einem nutzungsbasierten Abrechnungsmodell als Grundlage für die Bewältigung von Big Data.
Cloud-Lösungen für die Datenanalyse mit einem nutzungsbasierten Abrechnungsmodell als Grundlage für die Bewältigung von Big Data. (Bild: Elnur Amikishiyev, iStockphoto)

In seiner Studie „The Digital Universe in 2020 “ prophezeit IDC, dass die weltweite Datenmenge bis zum Jahr 2020 auf 40 Zettabytes bzw. 40 Billionen Gigabytes ansteigen wird. Dies entspricht 1,7 Megabytes an neuen Informationen, die jeden Tag pro Sekunde für jeden einzelnen Menschen auf unserem Planeten generiert werden.

Das Problem dabei: Die Kosten, um aus dieser Informationsflut wertvolle Erkenntnisse zu gewinnen, werden nicht weniger. Geht die Entwicklung so weiter, steuern wir auf eine Zukunft zu, in der es mehr Informationen geben wird, als wir uns leisten können. Möglicherweise ist es an der Zeit darüber nachzudenken, ob unsere Abrechnungsweise für Datentools heute noch zeitgemäß ist.

Die Datenexplosion

Die Anzahl an Daten, die direkt vom Menschen generiert werden (z. B. Blogs, Fotos oder Videos), machten bisher einen Großteil der weltweit verfügbaren Informationen aus – das hat sich inzwischen geändert. In nicht allzu ferner Zukunft werden die Daten, die wir über uns selbst sammeln – unsere digitale Spur oder unser Datenschweif – die Anzahl an direkt generierten Informationen übertreffen. Eine andere Datenquelle, die ebenfalls rasant wächst, stammt aus der Maschine-zu-Maschine-Kommunikation. Hier sorgt die steigende Anzahl vernetzter Geräte im „Internet der Dinge“ für ein schnelles Wachstum. Im Jahr 2005, so IDC, machten diese Informationen bereits 11 % aller Daten aus. Bis 2020 soll ihr Anteil auf 41 % steigen. Zu dieser Entwicklung werden nicht zuletzt auch die Schwellenländer beitragen.

Während sich das Datenwachstum in den entwickelten Volkswirtschaften zu stabilisieren scheint, geht es bei diesen Ländern gerade erst richtig los. Ihr Anteil am digitalen Universum wird sich von 36 % in 2012 auf 62 % in 2020 annähernd verdoppeln.

Keine ausreichenden Investitionen in Analysetools

Wir haben es mit enormen Datenmengen zu tun, die extrem schnell wachsen. Was also tun? So wie es aussieht, werden die Ausgaben im Bereich Datenanalyse nicht mit dem rasanten Anstieg der Datenmengen in den nächsten Jahren Schritt halten können. In einer Welt, die so grundlegend von Informationen abhängt, ist das keine gute Nachricht. Laut IDC werden heute lediglich etwa 0,5 % aller nützlichen Daten (etwa ein Drittel aller Daten weltweit) analysiert, um wertvolle Informationen zu gewinnen. Eine Besserung ist nicht absehbar. Aus heutiger Sicht wird die Menge an Daten schneller wachsen als die Ausgaben für Datenanalysetechnologien. So rechnet IDC bei den Investitionen pro mit einem Rückgang von 2,00 USD auf 0,20 USD zwischen 2012 und 2020.

Kostenreduzierung: notwendig aber nicht ausreichend

Erfreulicherweise nehmen die Kosten für die Datenanalyse bereits ab. Diese Entwicklung ist vor allem dem Aufkommen von Open-Source-Projekten für die Analyse großer Datenmengen zu verdanken. Ein gutes Beispiel ist hier das Hadoop-.

Jaspersoft bietet cloud-basierte Analyse-Werkzeuge zur Bewältigung von Big Data.
Jaspersoft bietet cloud-basierte Analyse-Werkzeuge zur Bewältigung von Big Data. (Bild: Jaspersoft)

Trotz sinkender Kosten fühlen sich die meisten Organisationen den steigenden Datenmengen nicht gewachsen. Zwar gibt es zahlreiche Low-Cost-Lösungen für die Analyse von Daten, doch diese erfordern meist technische Kenntnisse und Fähigkeiten, die schwer zu finden sind. Genau zu diesem Ergebnis kam eine Umfrage in der Jaspersoft-Community im Jahr 2012 . Auch eine Studie von McKinsey aus dem Jahr 2011 spiegelt diese Realität. Tatsächlich verfügen die meisten Organisationen nicht über das nötige Know-how, um ein Open-Source-Framework zu konfigurieren, zu implementieren und zu nutzen.

Doch es gibt Hoffnung. Mittlerweile bieten immer mehr Firmen Dienstleistungen rund um diese Frameworks an. Mit ihren Services vereinfachen sie die Nutzung dieser Plattformen und erleichtern so den Zugang für zahlreiche Organisationen. Allerdings sind diese Dienstleistungen teuer. Zwar kosten sie nicht so viel wie herkömmliche Lösungen, doch für die meisten Organisationen bleiben sie unerschwinglich.

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42459298 / Business Intelligence)