Suchen

Business Intelligence für die aktive Gestaltung der Zukunft Prognostische Analytik – Was ist das denn?

Autor / Redakteur: Klaus Hofmann zur Linden / Ulrike Ostler

Die traditionellen Verfahren von Business-Intelligence (BI) für Berichte und Analysen konzentrieren sich auf die Vergangenheit und heute auch immer stärker auf die geschäftlichen Abläufe in der Gegenwart. Die prognostische Analytik dagegen liefert einen Blick auf mögliche oder gewünschte künftige Entwicklungen und bietet so eine hervorragende Ergänzung zu BI.

Firmen zum Thema

Möglichkeiten zur Datenvisualisierung können helden, das Verständnis der Business-Daten zu erleichtern und die Auswirkungen von Entscheidungen besser zu verstehen.
Möglichkeiten zur Datenvisualisierung können helden, das Verständnis der Business-Daten zu erleichtern und die Auswirkungen von Entscheidungen besser zu verstehen.
(Bild: Information Builders)

Reporting- und Analyse-Werkzeuge in Form von Business-Intelligence-Anwendungen leisten in vielen Unternehmen wertvolle Dienste, wenn es darum geht, die Ergebnisse abgeschlossener Geschäftsperioden zu verstehen. Auch bei der Betrachtung der Gegenwart gibt es deutliche Fortschritte.

BI-Anwendungen sind heute vielfach nahe am Geschehen und die Prozessverantwortlichen sowie die Entscheider können rasch nachvollziehen, was sich aktuell in der Beschaffung, der Produktion, im Marketing, dem Vertrieb oder im Finanzwesen tut. Wenn fortlaufend die Soll- mit den Ist-Werten verglichen werden, können Unternehmen zeitnah bei Fehlentwicklungen korrigierend eingreifen.

Während Fragen zur Vergangenheit und Gegenwart mit Hilfe weit verbreiteter BI-Anwendungen akzeptabel beantwortet werden können, sieht es mit dem Blick in die Zukunft und detaillierten Prognosen anders aus. Damit befassten sich lange Zeit lediglich die Statistikspezialisten in den Unternehmen und berechneten Wahrscheinlichkeiten zum Eintreten bestimmter Ereignisse, etwa in der medizinischen Forschung, der Risikobewertung von Kreditverträgen oder bei der Einschätzung von Schadensfällen einzelner Versicherungsarten.

Der Blick zurück reicht nicht

Primär ging es um eine reaktive Vermeidung von Schäden und weniger um eine aktive Gestaltung der Zukunft. Prognostische Analytik (Predictive Analytics) und Modellierung (Predictive Modeling) waren nahezu ausschließlich das Metier von Spezialisten, die über umfangreiches und ausgeprägtes mathematisches und statistisches Know-how verfügen mussten. Erst seit einiger Zeit hat sich das geändert - prognostische Analytik findet immer häufiger Eingang in das Tagesgeschäft.

Für die Marktforscher von Forrester Research etwa muss eine Lösung für die prognostische Analyse in der Lage sein, klare nachvollziehbare und aussagekräftige Muster und Beziehungen in Datenbeständen zu identifizieren. Darauf aufbauend ist es möglich, künftige Ereignisse vorherzusagen und unterschiedliche Handlungsalternativen zu bewerten.

Die Mustererkennung wiederum ist eines der Tätigkeitsfelder von Data Mining. Information Builders beispielsweise stellt dazu das Predictive-Analytics-Tool „Web Focus R Stat“ bereit. Eingebettet in eine Entwicklungsumgebung ermöglicht das Tool die Auswertung von Informationen aus nahezu jeder Datenquelle. Das Werkzeug selbst selbst ist eine Sammlung weit verbreiteter quelloffener Statistikfunktionen.

Verbindung der Werkzeuge

Durch eine Verknüpfung mit R Stat wird die BI-Plattform Web Focus um vielfältige Funktionen für Predictive Analytics und Predictive Modeling angereichert. Die Verzahnung von R Stat mit der BI-Plattform ermöglicht den unterschiedlichsten Fachabteilungen in den Unternehmen, leistungsfähige statistische Funktionen zu nutzen, die ansonsten nur mit erheblichen Zusatzkosten verfügbar wären.

BI-Spezialisten und Fachleute aus Marketing, Vertrieb oder der Produktion können dann mit den gleichen Statistikwerkzeugen auf die benötigten Daten zugreifen, sie ändern und transformieren. Damit lassen sich Prognosemodelle entwickeln, Risikoabschätzungen vornehmen und fertige Applikationen – zugänglich über einen einfachen Browser – an Mitarbeiter im Unternehmen verteilen.

Der Vorteil: Funktionen der prognostischen Analytik stehen nicht nur mathematisch vorgebildeten Spezialisten zur Verfügung, sondern können von den unterschiedlichsten Anwendergruppen im Unternehmen für Analysen und Modellierung eingesetzt werden – angefangen von Entwicklern und Systemanalytikern bis zu technisch weniger versierten und direkt im Kundenkontakt tätigen Mitarbeitern.

Die vielfältigen Einsatzgebiete

Ein sehr nützliches Werkzeug ist etwa die Survival Analysis (Überlebensanalyse). Deren Verfahren und die daz

Mit Clustering lassen sich Daten automatisch segmentieren und Muster erkennen.
Mit Clustering lassen sich Daten automatisch segmentieren und Muster erkennen.
(Bild: Information Builders)
u gehörenden Bewertungs-Routinen werden beispielsweise in der medizinischen Forschung zur Prognose der Wirkungsweise neuer Produkte eingesetzt. In der Fertigungsindustrie etwa erfolgt damit die Modellierung der Eintrittswahrscheinlichkeit möglicher Fehler und Ausfälle von Maschinen und einzelner Bauteile.

In automatisierten industriellen Fertigungsprozessen erfassen Sensoren fortlaufend die Prozessdaten und speichern sie. Lösungen für die prognostische Analyse helfen dabei, bestimmte Muster bei Produktionsfehlern frühzeitig zu prognostizieren. Produktionsplaner können sich dann darauf vorbereiten und rechtzeitig Ersatzteile bereithalten.

In den USA beispielsweise nutzen Strafverfolgungsbehörden Prognosemodelle zur Verbrechensprävention. Permanent angepasste Algorithmen, die in der Zwischenzeit sogar aktuelle Wetterdaten einbeziehen, ermöglichen, dass Polizeistreifen und Sicherheitsmaßnahmen gezielt dort eingesetzt werden, wo die Wahrscheinlichkeit am größten ist, dass es zu Gewalttätigkeiten kommt.

Die passende Technik

Auf Basis von Modellierungswerkzeugen präsentieren Online-Shops Käufern Komplementärprodukte und berechnen dafür die Kaufwahrscheinlichkeit. Unternehmen aus dem produzierenden Gewerbe optimieren über Prognosen die ein- und ausgehenden Warenströme sowie die Maschinenauslastung in der Fertigung. Logistikunternehmen testen Modelle, um ihre Tourenplanung weiter zu optimieren.

Eine wichtige Rolle spielt dabei eine gleichbleibend hohe Datenqualität, denn bei nahezu allen Anwendungen zur prognostischen Analyse und Modellierung werden Daten aus einer Vielzahl von Datenquellen benötigt. Technisch betrachtet ist die IT-Abteilung dafür zuständig, um ein leistungsfähiges Fundament einer hohen Datenqualität in den Quellsystemen aufzubauen.

Am besten folgt das Datenqualitäts-Management und die Einhaltung der Datenqualität (Data Governance) einem Kreislaufmodell. Notwendig sind eine systematische Analyse inklusive Datenbereinigung, Datenkonsolidierung, Überwachung der Datenintegration sowie eine permanente Überprüfung der Datenqualität im Hinblick darauf, ob die internen und externen Regeln und Vorschriften zur Einhaltung der Datenqualität befolgt werden.

Ohne Qualität in den Daten funktioniert gar nichts

Für die Modellerstellung und Simulation stehen vielfältige Analyseverfahren wie Entscheidungsbäume, neuronale Netzwerke, lineare und logistische Regression bereit.
Für die Modellerstellung und Simulation stehen vielfältige Analyseverfahren wie Entscheidungsbäume, neuronale Netzwerke, lineare und logistische Regression bereit.
(Bild: Information Builders)
Ein weiterer Erfolgsfaktor neben der Datenqualität ist die optimale Performance bei der Verarbeitung der zum Teil sehr umfangreichen Datenmengen. Wer hier an Big-Data-Analysen denkt, liegt genau richtig. Information Builders beispielsweise nutzt dazu „Web Focus Hyperstage“, eine für Abfragen optimierte, spaltenorientierte und direkt mit der BI-Plattform verbundene Datenbank.

Sie verwendet In-Memory-Verfahren sowie umfangreiche Komprimierungsfunktionen und sorgt so für eine deutlich höhere Performance von BI- und Predictive-Analytics-Applikationen. Davon profitieren insbesondere Anwendungen, bei denen eine hohe Zahl von Ad-hoc-Anfragen oder sehr große Datenmengen zu verarbeiten sind.

Mit einer solchen Lösung können Unternehmen die Herausforderungen im Zusammenhang mit sehr großen Datenmengen, komplexen Abfragen oder die Verarbeitung von nicht-indizierten Daten schneller als je zuvor bewältigen und damit beispielsweise wichtige Informationen und Annahmen zu künftigen Geschäftsablaufen, Workflows in der Produktion oder dem Kundenverhalten zügig bereitstellen und Trends beeinflussen.

Der Autor:

Klaus Hofmann zur Linden ist Technical Manager Germany bei Information Builders in Eschborn.

(ID:38517340)