IoT-Datenanalyse Edge als Vorbereitung für die Cloud
Anbieter zum Thema
Edge Computing könnte das nächste große Ding werden. Denn angesichts wachsender Datenmengen erweist sich deren Analyse in der Cloud inzwischen oft als zu unperformant. Hinzu kommen Sicherheitsbedenken. So spricht einiges für eine Zwischenschicht – der Edge.

Das Industrial Internet of Things produziert heute bei Maschinen- und Anlagenbauern aller Größen Daten am laufenden Band. Um sie mit Hilfe von künstlicher Intelligenz auszuwerten, werden gerne Public-Cloud-Angebote genutzt. Denn KI-Ansätze benötigen Daten als Lernmenge, die in einer Public-Cloud-Lösung naturgemäß größer sind als auf On-Premises installierten Systemen. Außerdem kann man in der Cloud auf Out-of-the-box-Lösungen zugreifen.
Trotzdem zögern viele Unternehmen diesen Schritt zu gehen. Dafür gibt es zwei gewichtige Gründe, rechtlicher wie technischer Art. Zum einen stellt sich in vielen Geschäftsprozessen das Problem, dass die Ausleitung von Daten in die Cloud aus Governance-Gründen untersagt ist. Denn in den IIoT-Daten steckt ein hohes Maß an Intellectual Property, also geheimes, werthaltiges Wissen über Produkte und Produktionsverfahren, die man nicht veröffentlichen oder teilen möchte oder darf. Denkt man zum Beispiel an die Fertigung von Rüstungsgütern oder Teilen und Werkstücken im Kundenauftrag, wird der schützenswerte Charakter solcher Daten offensichtlich. Ein weiteres Problem ist das immer größere Volumen. Wenn eine Maschine heute mehrere tausend Datenpunkte im Millisekunden-Bereich erzeugt, ist eine Echtzeitverarbeitung in der Cloud aus Latenzgründen kaum mehr möglich.
Skalierbare Architekturen im Edge-Cloud-Kontinuum
Eine Lösung dafür ist das Edge Computing, da es die Vorteile von Local- und Cloud-Computing bedarfsgerecht vereint. Edge Computing lässt sich als Vorbereitung für die Cloud verstehen – eine On-Premises-Lösung am Edge mit Funktionen für Analytik, Vorverarbeitung und dezentrale Intelligenz, die zusammen mit der Cloud eine Art Kontinuum bildet. Near Edge bezeichnet das Edge Computing in Cloudnähe, Far Edge jenes in Maschinennähe. Diese Unterscheidung erlaubt im Bedarfsfall skalierbare Architekturen im Edge-Cloud-Kontinuum.
Am Edge lassen sich IoT-Daten so aggregieren und anonymisieren, dass sie in der Cloud verwendet werden können – dies ist der rechtliche Aspekt. Voraussetzung dafür sind Konnektoren zwischen Edge und Cloud zur Datenübertragung sowie Datenmodelle, die auf beiden Seiten Datenintegration unterstützen. Was die technischen Vorteile angeht, lassen sich dank neuer und skalierbarer Technologien auch hohe Datenvolumina am Edge ohne Latenzprobleme bearbeiten. Dadurch werden Echtzeitanalysen erst möglich. Eine Warnung, dass die Maschine aufgrund Überschreitens kritischer Grenzen in wenigen Minuten ausfallen könnte, kommt dann auch zur rechten Zeit, ebenso wie ein sofortiger Produktionsstopp im Rahmen einer datenbasierten Qualitätskontrolle, die jedes einzelne Werkstück unmittelbar nach seiner Herstellung prüft. Auf diese Weise werden Ausschussmengen reduziert und nebenher Material- und Energiekosten eingespart. In solchen Fällen mit großen zu analysierender Datenmengen und schnell benötigter Antworten ist Edge Computing im Grunde unumgänglich.
Für das alleinige Aufbereiten der Daten mit Aggregation, Anonymisierung und Analyse ist KI nicht zwingend erforderlich. In dem von X-Integrate entwickelten Edge-Lösungsansatz Data in Motion können auf der einen Seite Maschinen-Sensordaten in nahezu Echtzeit erfasst, vor-verarbeitet und analysiert werden. Auf der anderen Seite werden beim Data-at-Rest-Ansatz zusätzlich Rohdaten oder bereits vorverarbeitete Daten zur Prozessdokumentation für nach-gelagerte oder komplexe Analysen in Verbindung mit an anderer Stelle erhobenen Daten langfristig vorgehalten. Letztere dienen auch als Input für unüberwachtes maschinelles Lernen zur Mustererkennung sowie für überwachtes Lernen zur Ableitung von Prognosen für unbekannte Daten. Inzwischen gibt es auch Algorithmen, die ein verstärkendes Lernen am Edge erlauben und durch die Interaktion mit der Umgebung zur Modelloptimierung beitragen. Hier-von profitieren insbesondere weitgehend abgeschottete Edge-Umgebungen, die auch längerfristig Cloud-unabhängig und dennoch verlässlich funktionieren müssen.
Die Edge-Lösungen von X-Integrate sind skalierbar; Producer-Bestandteile zur Datenaufnahme, Analytics-Komponenten sowie Consumer-Komponenten zum Ausleiten der Daten sind containerisiert verfügbar und können so anwendungsspezifisch und für den jeweiligen Anwendungsfall passgenau zusammengestellt werden. So wurde auf Basis von Open-Source-Applikationen eine Alternative zu den IoT-Frameworks namhafter Anbieter geschaffen, die insbesondere KMUs einen schnellen und kostengünstigen Einstieg in die IoT-Welt und somit in neue digitale Geschäftsmodelle ermöglicht.
Vorteile des Edge gegenüber reinem Cloud Computing:
- Sicherheit, Privatsphäre und Datenhoheit für den Eigentümer der Daten.
- Große Datenmengen werden zeitnah direkt am Ort ihrer Entstehung verarbeitet.
- Reduzierung von Datenvolumina in Richtung Private/Public Cloud.
- Unabhängigkeit von einer verfügbaren Cloud, z. B. für Umgebungen, in denen Systeme weitgehend autark arbeiten sollen.
- Optionaler Einsatz von KI oder ML und somit Inferenz am Edge.
- Trainierte Modelle aus einer zentralen Cloud werden am Edge angewandt.
- Optimierung von öffentlich verfügbaren Modellen durch Edge-trainierte Modelle.
- Mesh-Networking-Ansätze: Miteinander vermaschte Edges lernen voneinander.
Neue Geschäftsmodelle durch Datenanalyse am Edge
Natürlich werden Daten nicht aus Selbstzweck gesammelt. Vielmehr soll ihre Analyse als Basis für digitale Geschäftsmodelle dienen. Der Anlagenhersteller liefert Maschinen mit integrierter Sensorik, die sein Kunde, der Betreiber der Maschine, zu seinem Vorteil nutzt: Durch die Datenanalyse erzielt er Kostenvorteile, die er entweder selbst einbehalten oder an wiederum seine Kunden weitergeben kann – diejenigen also, die mit diesen Maschinen produzierte Werkstücke von ihm erwerben. Wettbewerbsvorteil für den Maschinenbetreiber: Er kann seine eigenen Produktionskosten optimieren und Werkstücke günstiger als der Wettbewerb an-bieten.
Dies steigert die Wettbewerbsfähigkeit aller am Wertschöpfungsprozess beteiligten Stakeholder. Durch die Bereitstellung oder Erweiterung von Maschinen mit integrierten Edge-Geräten und hierauf vorinstallierten oder erweiterbaren Edge-Applikationen können sowohl standardisierte als auch spezifisch angepasste Analyse-Tools eine Verfolgung der fertigungsbegleitenden Qualitätssicherung ermöglichen. Transparente Pay-per-Use-Fakturierungsmodelle wer-den erst möglich, indem über Sensorik Verschleiß und Auslastung gemessen und basierend darauf der Maschinenverbrauch errechnet und fakturiert wird.
Dabei ist unerheblich, ob die Maschine beim Anlagenhersteller selbst steht und für seinen Kunden, den Maschinenbetreiber, produziert oder bei diesem direkt. Analog zur Wartung rechnet der Hersteller die Überlassung dann als variablen Kostenbestandteil auf Basis der Nutzung ab, analog zum Kilometerleasing bei Kraftfahrzeugen. Ein Beispiel: Es wird gemessen, ob die Maschine im 1-, 2 oder 3-Schicht-Betrieb verwendet wird oder wie hoch ihre Belastung ist. Das kann zum Beispiel durch Messung der Vibrationen im Betrieb geschehen. Wer daher sorgsam mit ihr umgeht, spart neben Wartungskosten zusätzlich durch verbesserten Werterhalt der Maschine. Durch temporäre Vermietung von Überkapazitäten wird im gleichen Atemzug die Anlage optimal ausgelastet.
Viele weitere Business-Szenarien sind denkbar, etwa beim Gebäudemanagement: Durch die Integration von Daten aus Raumbuchungssystemen mit am Edge konsolidierten Sensordaten aus den einzelnen Etagen und Räumen kann die Wärmeabgabe in einzelnen Etagen und Räumen sowohl gezielt gesteuert als auch für das gesamte Gebäude hinweg optimiert wer-den. Pilotprojekte versprechen sich hier Einsparungen von ca. 25 Prozent der jährlichen Heizkosten.
Data in Motion
Man bezeichnet diesen Ansatz auch als Data in Motion: Die Daten werden dabei nicht irgendwohin abgespeichert und später analysiert wie beim Data at Rest, sondern direkt nach ihrer Generierung in nahezu Echtzeit verarbeitet, was Monitoring oder Alerting erst ermöglicht. Dies ist insofern sinnvoll, als viele Daten nur kurzfristig für eine Verarbeitung interessant sind. Nutzer können also genau selektieren, was nach der Analyse gelöscht und was dauerhaft aufbewahrt wird, weil sie es später noch benötigen – in diesem Fall steht am Ende die Speicherung in einer Datenbank oder in einem Data Lake, je nach Anwendungsfall im Betrieb oder in der Cloud.
Integration von Shop- und Office Floor
In die Cloud wird dann nur ein kleiner Teil der Shopfloor-Daten verschoben, um ihn dort etwa mit Office-Floor-Daten aus ERP/CRM-Systemen zu integrieren. Dies funktioniert beispielsweise über herstellerneutrale Open-Source-Frameworks wie den Open Integration Hub des Kölner Cloud Ecosystem e. V., der Technologie, Standard-Datenmodelle, Regelwerke und eine Community aus Konnektoren umfasst. Im Rahmen des vom Bundesministeriums für Wirtschaft und Klimaschutz geförderten Projekts OIH plus wurde das Framework um Komponenten zur industriellen Interoperabilität erweitert. KMUs können dadurch ihre Anlagenprozesse und IoT-Daten vereinfacht digitalisieren und mit Daten aus dem Office Floor integrieren.
* Der Autor Stephan Pfeiffer ist als Projektleiter/Solution Architect bei X-Integrate tätig.
Dieser Beitrag wurde erstmals auf unserem PartnerportalIndustry of Things veröffentlicht.
(ID:48564233)