Suchen

Business Intelligence für die aktive Gestaltung der Zukunft

Prognostische Analytik – Was ist das denn?

Seite: 2/2

Firmen zum Thema

Die vielfältigen Einsatzgebiete

Ein sehr nützliches Werkzeug ist etwa die Survival Analysis (Überlebensanalyse). Deren Verfahren und die daz

Mit Clustering lassen sich Daten automatisch segmentieren und Muster erkennen.
Mit Clustering lassen sich Daten automatisch segmentieren und Muster erkennen.
(Bild: Information Builders)
u gehörenden Bewertungs-Routinen werden beispielsweise in der medizinischen Forschung zur Prognose der Wirkungsweise neuer Produkte eingesetzt. In der Fertigungsindustrie etwa erfolgt damit die Modellierung der Eintrittswahrscheinlichkeit möglicher Fehler und Ausfälle von Maschinen und einzelner Bauteile.

In automatisierten industriellen Fertigungsprozessen erfassen Sensoren fortlaufend die Prozessdaten und speichern sie. Lösungen für die prognostische Analyse helfen dabei, bestimmte Muster bei Produktionsfehlern frühzeitig zu prognostizieren. Produktionsplaner können sich dann darauf vorbereiten und rechtzeitig Ersatzteile bereithalten.

In den USA beispielsweise nutzen Strafverfolgungsbehörden Prognosemodelle zur Verbrechensprävention. Permanent angepasste Algorithmen, die in der Zwischenzeit sogar aktuelle Wetterdaten einbeziehen, ermöglichen, dass Polizeistreifen und Sicherheitsmaßnahmen gezielt dort eingesetzt werden, wo die Wahrscheinlichkeit am größten ist, dass es zu Gewalttätigkeiten kommt.

Die passende Technik

Auf Basis von Modellierungswerkzeugen präsentieren Online-Shops Käufern Komplementärprodukte und berechnen dafür die Kaufwahrscheinlichkeit. Unternehmen aus dem produzierenden Gewerbe optimieren über Prognosen die ein- und ausgehenden Warenströme sowie die Maschinenauslastung in der Fertigung. Logistikunternehmen testen Modelle, um ihre Tourenplanung weiter zu optimieren.

Eine wichtige Rolle spielt dabei eine gleichbleibend hohe Datenqualität, denn bei nahezu allen Anwendungen zur prognostischen Analyse und Modellierung werden Daten aus einer Vielzahl von Datenquellen benötigt. Technisch betrachtet ist die IT-Abteilung dafür zuständig, um ein leistungsfähiges Fundament einer hohen Datenqualität in den Quellsystemen aufzubauen.

Am besten folgt das Datenqualitäts-Management und die Einhaltung der Datenqualität (Data Governance) einem Kreislaufmodell. Notwendig sind eine systematische Analyse inklusive Datenbereinigung, Datenkonsolidierung, Überwachung der Datenintegration sowie eine permanente Überprüfung der Datenqualität im Hinblick darauf, ob die internen und externen Regeln und Vorschriften zur Einhaltung der Datenqualität befolgt werden.

Ohne Qualität in den Daten funktioniert gar nichts

Für die Modellerstellung und Simulation stehen vielfältige Analyseverfahren wie Entscheidungsbäume, neuronale Netzwerke, lineare und logistische Regression bereit.
Für die Modellerstellung und Simulation stehen vielfältige Analyseverfahren wie Entscheidungsbäume, neuronale Netzwerke, lineare und logistische Regression bereit.
(Bild: Information Builders)
Ein weiterer Erfolgsfaktor neben der Datenqualität ist die optimale Performance bei der Verarbeitung der zum Teil sehr umfangreichen Datenmengen. Wer hier an Big-Data-Analysen denkt, liegt genau richtig. Information Builders beispielsweise nutzt dazu „Web Focus Hyperstage“, eine für Abfragen optimierte, spaltenorientierte und direkt mit der BI-Plattform verbundene Datenbank.

Sie verwendet In-Memory-Verfahren sowie umfangreiche Komprimierungsfunktionen und sorgt so für eine deutlich höhere Performance von BI- und Predictive-Analytics-Applikationen. Davon profitieren insbesondere Anwendungen, bei denen eine hohe Zahl von Ad-hoc-Anfragen oder sehr große Datenmengen zu verarbeiten sind.

Mit einer solchen Lösung können Unternehmen die Herausforderungen im Zusammenhang mit sehr großen Datenmengen, komplexen Abfragen oder die Verarbeitung von nicht-indizierten Daten schneller als je zuvor bewältigen und damit beispielsweise wichtige Informationen und Annahmen zu künftigen Geschäftsablaufen, Workflows in der Produktion oder dem Kundenverhalten zügig bereitstellen und Trends beeinflussen.

Der Autor:

Klaus Hofmann zur Linden ist Technical Manager Germany bei Information Builders in Eschborn.

(ID:38517340)