Die Maschinen in den Werkhallen schweigen nicht mehr. Dank moderner Protokolle und Gateways produzieren sie kontinuierlich Daten. Doch oft fehlt das Verständnis für diese und Unternehmen ertrinken in Informationen, ohne dass Nutzen generiert wird.
Erst durch semantische Harmonisierung werden KI und Advanced Analytics realisierbar und ohne eine einheitliche Semantik bleibt der Einsatz von KI in der Industrie oft ein isoliertes Experiment ohne klaren ROI.
Die Situation in vielen Fertigungsunternehmen gleicht einem Raum voller Experten, die alle gleichzeitig in unterschiedlichen Sprachen und Dialekten sprechen. Die Lautstärke ist enorm, der Informationsgehalt für Außenstehende jedoch gleich Null. Das letzte Jahrzehnt war geprägt von dem Bestreben, Maschinen „smart“ zu machen und zu vernetzen. Speicherprogrammierbare Steuerungen (SPS) wurden angezapft, Retrofitting betrieben und Gateways installiert. Dadurch besteht zwar Konnektivität, aber keine echte Verständigung.
Datenmengen stellen heute nicht mehr das primäre Problem dar – ihre Nutzbarkeit hingegen schon. Der Schritt zur echten datengetriebenen Fertigung erfordert mehr als das bloße Verlegen von Kabeln oder das Aufsetzen von Schnittstellen. Hierarchische, starre Systeme – symbolisiert durch die klassische Automatisierungspyramide – brechen zunehmend auf und weichen dynamischen Architekturen. Wer an dieser Stelle jedoch ausschließlich auf Technologie setzt und die semantische Ebene vernachlässigt, schafft lediglich ein digitales Chaos.
Der Abschied vom Datensilo: Ereignisse statt Zustände
Traditionelle Systeme basieren häufig auf zyklischen Abfragen, dem sogenannten Polling. Dabei wird der Status einer Maschine in festen Intervallen geprüft, unabhängig davon, ob eine Änderung eingetreten ist. Das belastet Netzwerke unnötig und bindet Rechenkapazität, da in der überwiegenden Zahl der Fälle keine neuen Informationen vorliegen.
Moderne Architekturen kehren dieses Prinzip um und setzen auf eine „Event-Driven Architecture“ (EDA). Maschinen kommunizieren nur dann, wenn ein relevantes Ereignis eintritt. Protokolle wie MQTT haben sich hier als Standard etabliert, um Nachrichten leichtgewichtig und effizient zu transportieren.
Doch hier endet oftmals die Planung vieler IoT-Projekte. Werden diese „Events“ unreflektiert in einen großen Data Lake in der Cloud geleitet, entsteht schnell ein „Data Swamp“. Denn nur weil unterschiedliche Anlagen – etwa eine Fräsmaschine und ein Schweißroboter – beide MQTT als Transportprotokoll nutzen, bedeutet dies nicht, dass sie dieselbe inhaltliche Sprache sprechen. Meldet die eine Anlage „Temp_1“ und die andere „Heat_Val_X“, bleiben diese Daten ohne Kontext für KI-Anwendungen oder Echtzeitanalysen weitgehend wertlos.
Semantik als gemeinsame Grammatik: UNS-Prinzipien – ohne Dogma
An diesem Punkt wird das Konzept des „Unified Namespace“ (UNS) häufig diskutiert. Strategisch betrachtet dient der UNS als Orientierung für die Datenbereitstellung in der Produktion. Er definiert eine klare semantische Struktur, oft angelehnt an Standards wie ISA-95 (z. B. Unternehmen/Standort/Linie/Zelle/Maschine).
Doch Struktur allein reicht nicht aus – sie muss durchgesetzt und gemanagt werden. Ein reiner Message-Broker transportiert Daten zwar effizient, versteht oder validiert sie jedoch nicht. Für eine skalierbare IIoT-Strategie ist daher eine Plattform erforderlich, die über den reinen Transport hinausgeht und die Verwaltung dieser Datenmodelle übernimmt. Geht eine neue Maschine ans Netz, muss das System in der Lage sein, das Datenmodell zu erkennen und heterogene Variablen automatisch auf kanonische Werte zu mappen.
Erst durch diese semantische Harmonisierung werden KI und Advanced Analytics realisierbar. Ein Algorithmus für Predictive Maintenance kann nur dann skalierbar lernen, wenn ein Parameter wie „Überhitzung“ werksübergreifend einheitlich definiert ist. Ohne eine solche einheitliche Semantik bleibt der Einsatz von KI in der Industrie oft ein isoliertes Experiment ohne klaren ROI.
Selbst wenn UNS-Prinzipien anfangs gut funktionieren, steigt der operative Aufwand häufig mit der Realität industrieller Organisationen. Zukäufe, neue Werke, neue Lieferanten, neue Domänen und unterschiedliche Teams (Produktion, BI, Data Science, IT) bringen eigene Anforderungen und Konventionen mit. Der Anspruch eines einzigen, dauerhaft einheitlichen Namensraums kann dadurch zu Abstimmungsengpässen führen.
Hinzu kommt, dass die notwendige Integrations- und Transformationslogik zu kritischer Infrastruktur wird. Sie braucht Versionierung, Tests, Monitoring und Betrieb und wird damit schnell zu einem unterschätzten Kostentreiber, wenn sie „unter dem Radar“ bleibt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ein weit verbreiteter Irrtum der frühen Industrie-4.0-Phase war die Annahme, alle Daten müssten zur Verarbeitung in die Cloud gesendet werden. Das erweist sich heute oft als weder wirtschaftlich noch technisch sinnvoll, da das Streamen von Terabytes an rohen Sensordaten hohe Netzwerkübertragungskosten und erhebliche Kosten bei Cloud-Providern.
Die Lösung liegt in der intelligenten Vorverarbeitung direkt an der Datenquelle – dem „Edge Computing“. Dabei geht es nicht zwingend darum, leistungsstarke Server neben jede Maschine zu stellen (Thick Edge), sondern vielmehr um den Einsatz von „Thin Edge“-Lösungen: Schlanke Software-Agenten, die auf dem Gateway oder der Steuerung laufen.
Diese Agenten fungieren als intelligenter Filter und wenden die Logik der zentralen Plattform lokal an. Beispielsweise ist eine hochfrequente Vibrationsmessung für die Cloud oft irrelevant, solange der Betrieb störungsfrei läuft. Die Edge-Logik berechnet lokal Mittelwerte oder führt Frequenzanalysen durch. Nur bei Erkennung einer Anomalie oder Schwellenwertüberschreitung wird das relevante „Event“ an die Cloud gesendet.
Eine solche Architektur spart massiv Bandbreite und Speicherkosten. Zudem erhöht sie die Ausfallsicherheit, da die Maschine in der Lage sein muss, lokal Entscheidungen zu treffen und Daten zu puffern, bis die Verbindung wiederhergestellt ist, falls die Internetverbindung ausfällt. Auch die Datenaufbereitung kann bereits an der Edge stattfinden – inklusive der semantischen Harmonisierung, etwa durch das Mapping heterogener Signale auf kanonische Werte.
Der vielleicht kritischste Aspekt, der in rein technologischen Betrachtungen oft zu kurz kommt, ist die Governance. Es ist vergleichsweise einfach, einen Prototypen zu bauen, der Daten sendet. Die Komplexität steigt jedoch exponentiell, wenn dies für Tausende von „Connected Assets“ weltweit sicher betrieben werden soll.
Herausforderungen wie das Ausrollen von Sicherheitsupdates auf tausenden Gateways während des laufenden Betriebs, die Verwaltung von Zertifikaten und Identitäten oder der Schutz vor unbefugten Änderungen am Datenmodell erfordern professionelle Strukturen.
Eine IIoT-Plattform fungiert hier als das Betriebssystem der digitalen Fertigung. Sie umfasst Datenmanagement und Governance entlang des gesamten Datenstroms – von der semantischen Standardisierung über Datenqualität bis zur Analysefähigkeit für Use Cases wie OEE und Prozessoptimierung – und die Sicherheitsarchitektur des gesamten Datenstroms. Sie stellt sicher, dass die Datenmodelle und Semantik konsistent bleiben und Regeln sowie Standards dauerhaft eingehalten werden, so dass die Daten sauber von der OT-Seite zur IT-Seite gelangen und zum Beispiel in modernen Lakehouse-Architekturen mit offenen Standards wie Iceberg und Katalogen zur Verfügung gestellt werden.
Vom Hören zum Verstehen
Die Industrie steht an einem Wendepunkt. Die Phase der reinen Konnektivität, in der das primäre Ziel die bloße Vernetzung war, neigt sich dem Ende zu. Es beginnt die Ära der Datennutzung. Die technologischen Grundlagen dafür sind vorhanden: Event-Driven Architectures und Protokolle wie MQTT bilden das Fundament, Edge Computing liefert die nötige Effizienz.
Der Schlüssel zum Erfolg liegt jedoch in der Orchestrierung dieser Bausteine zu einer verständlichen, sicheren und skalierbaren Gesamtlösung. Wenn Maschinen sprechen, bedarf es einer Architektur, die diese Signale nicht nur empfängt, sondern inhaltlich versteht. Nur so lassen sich Daten in messbare Werte und technische Exzellenz in digitale Geschäftsmodelle verwandeln.
* Der Autor Dr. Jürgen Krämer ist Chief Product Officer und Geschäftsführer bei Cumulocity und verantwortet damit das gesamte Produkt- und Service-Portfolio der Marke. Er leitet die Teams für Produktmanagement und -marketing, Professional Services und das Partner-Ökosystem. Mit über 20 Jahren Erfahrung in der Softwareentwicklung und einem Doktor in Informatik war Jürgen Krämer unter anderem CEO und Mitgründer eines preisgekrönten Spin-offs der Universität Marburg, das 2010 von der Software AG übernommen wurde. Bereits zweimal wurde er vom Magazin Capital zu einem der „Top 40 unter 40“ in Deutschland gewählt und ist Mitglied des Bitkom Management Clubs.