Maschinelles Lernen in der Cloud Die „Cloudifizierung“ der Maschinenintelligenz

Von Anna Kobylinska und Filipe Pereira Martins* 6 min Lesedauer

Anbieter zum Thema

Immer mehr Unternehmen suchen nach Möglichkeiten, maschinelle Intelligenz mal eben „aus der Cloud zu holen“, um die atemberaubenden Fortschritte der ML-Vorreiter für ihr eigenes Geschäft zu erschließen – ein ML-Modell nach dem anderen.

Cloud-Dienste demokratisieren den Zugriff auf massiv skalierbare Rechenleistung zum Trainieren von ML-Modellen.(Bild:  Gorodenkoff - stock.adobe.com)
Cloud-Dienste demokratisieren den Zugriff auf massiv skalierbare Rechenleistung zum Trainieren von ML-Modellen.
(Bild: Gorodenkoff - stock.adobe.com)

Maschinelles Lernen hat sich als einer der zentralen Anwendungsfälle für die massiven Rechenkapazitäten der Cloud etabliert – und als eine Quelle datengetriebener Wertschöpfung herumgesprochen. Das wachsende Interesse an maschineller Intelligenz aus der Cloud spiegelt sich in der stetig zunehmenden Verfügbarkeit von ML-Diensten und -Werkzeugen der führenden Cloud-Anbieter wider.

Maschinelles Lernen (ML) ist ein Teilgebiet der künstlichen Intelligenz, das die Lernfähigkeiten natürlicher Lebewesen nachahmt: Softwareanwendungen lernen komplexe Ursache-Wirkung-Zusammenhänge aus historischen Trainingsdaten und können dann Vorhersagen über künftige Ereignisse treffen. Das Ziel von maschinellem Lernen besteht darin, cyberphysische Systeme zu befähigen, datengetriebene Entscheidungen zeitnah und autonom zu treffen, also ohne menschliche Aufsicht in Echtzeit.

Das Training maschineller Lernmodelle erfordert große Mengen an Daten und massive Rechenleistung. Der Nutzwert maschineller Intelligenz hängt maßgeblich davon ab, wie effektiv das implementierte ML-Modell aus realen Daten korrekte Schlüsse zieht. Die Inferenz „im Feldeinsatz“ benötigt deutlich weniger Ressourcen als die Lernphase, sobald das Modell erst einmal „steht“ und als funktionsfähig bestätigt werden konnte.

Praktische Anwendungsfälle von ML reichen von der Optimierung der Energieeffizienz industrieller Prozesse über die Qualitätssicherung in der Fertigung bis hin zur vorausschauenden Wartung des Geräteparks. Machine-Learning-Algorithmen können nicht nur vordefinierte Fehler aufspüren, sondern auch bisher unbekannte Probleme erkennen. Maschinelles Lernen kann Lieferketten optimieren, Nachfrageprognosen erstellen und Lagerbestände verwalten. ML-Modelle können Kundenpräferenzen analysieren und personalisierte Produkte oder Dienstleistungen empfehlen.

„Like a Bosch“

Zu den Vorreitern von maschinellem Lernen in der Cloud zählt die Bosch-Gruppe.

Bosch hat in Zusammenarbeit mit dem Amazon ML Solutions Lab (MLSL) ein internes Prognose-Framework entwickelt, um ML-getrieben hierarchische Umsatzprognosen über eine breite Palette von Produktgruppen und geografischen Regionen zu berechnen. Das Framework verwendet maßgeschneiderte Ensembles von verschiedenen ML-Basismodellen, die von einem Meta-Learner ausgewählt werden.

Maschinell lernen „like a Bosch“: Bosch Research fördert drei Forschungslabore an der Universität Freiburg mit dem Ziel, die maschinelle Intelligenz autonomer Fahrzeuge auf ein neues Sicherheitsniveau zu heben.(Bild:  Bosch)
Maschinell lernen „like a Bosch“: Bosch Research fördert drei Forschungslabore an der Universität Freiburg mit dem Ziel, die maschinelle Intelligenz autonomer Fahrzeuge auf ein neues Sicherheitsniveau zu heben.
(Bild: Bosch)

Zusätzlich macht sich Bosch neuronale Netzwerke wie CNN-QR und DeepAR+ aus Amazon Forecast zu Nutze. In Zusammenarbeit mit AWS hat Bosch eine Digital Twin-Lösung auf der Basis des AWS Digital Twin Frameworks erstellt. Diese Lösung bietet kontextualisierte Echtzeitdaten aus operativen und transaktionalen Systemen, immersive Interaktivität in 3D sowie Simulationen und Vorhersagen auf der Basis von maschineller Intelligenz.

Das Unternehmen hat außerdem eine Reihe von Lösungen für die ML-gestützte Qualitätssicherung in der Industrie 4.0 entwickelt. Eine Anwendungsplattform namens Machine Vision AI von Bosch ermöglicht die maschinenbasierte visuelle Inspektion von Werkstücken. Diese Plattform kann schwer erkennbare Merkmale wie Kratzer und Absplitterungen auf Oberflächen sowie Defekte in Schweißnähten identifizieren. Das Visual Quality Inspection (VQI)-System von Bosch automatisiert dann den Qualitätsprüfungsprozess. Statt erst zu produzieren und dann zu kontrollieren, erfolgt die Qualitätskontrolle von Produkten parallel zum Fertigungsprozess. Bei dem Bosch Rexroth APAS Inspector handelt es sich um einen Produktionsassistenten für die automatische visuelle Inspektion.

Die Bosch-Gruppe will ihre Computer-Vision-Expertise in die Entwicklung autonomer Fahrzeuge einbringen, unter anderem in Zusammenarbeit mit Forschenden an der Universität Freiburg.

Cloud-ML aus Daten der industriellen Edge

Auch Siemens nutzt maschinelles Lernen für die vorausschauende Wartung, zum Beispiel im Rahmen des Senseye Predictive Maintenance-Systems. Algorithmen treffen Voraussagen über die Lebensdauer von Komponenten und die resultierenden Ausfallzeiten basierend auf Sensordaten. Denn Anomalien in den Sensordaten weisen auf zukünftige Fehlfunktionen hin. KI-gesteuerte Anwendungen auf der Shop-Floor-Ebene müssen strenge industrielle Betriebsanforderungen erfüllen. Prädiktive Wartung kann Ausfälle vorwegnehmen und teure Stilllegung von Fertigungslinien verhindern.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Referenzarchitektur für das Trainieren industrieller ML-Modelle auf Microsoft Azure mit Daten aus der Siemens Industrial Edge.(Bild:  Microsoft)
Referenzarchitektur für das Trainieren industrieller ML-Modelle auf Microsoft Azure mit Daten aus der Siemens Industrial Edge.
(Bild: Microsoft)

Siemens will das eigene Portfolio an industriellen KI-Lösungen Cloud-freundlicher gestalten. Eine im März dieses Jahres veröffentlichte Referenzarchitektur löst betriebliche Herausforderungen bei der Ausführung von Maschinenlernmodellen (ML) mit Azure-Anbindung in Shop-Floor-Umgebungen. Beobachtungsdaten wie ML-Inferenzprotokolle und Metriken lassen sich auf die Azure Monitor-Plattform hochladen, um operative Dashboards zu erstellen und Benachrichtigungen bei Schwellenwertüberschreitungen auszulösen.

Kunden, die die Azure-Cloud für die Entwicklung, Schulung, Bewertung, Registrierung und Verpackung von ML-Modellen verwenden, können diese im Rahmen des Siemens Industrial-Edge-Ökosystems sicher und automatisch aus der Cloud auf ihre Fabrikstandorte übertragen und dort bereitstellen. Dies ermöglicht die Nutzung automatisierter Pipelines für das Training von ML-Modellen innerhalb von Azure und die Bereitstellung der Resultate auf Siemens Industrial Edge zusammen mit industriellen KI-Anwendungen.

Edge-ML bei Infineon

Infineon Technologies setzt KI/ML für die Produktionsplanung in hochautomatisierten Wafer-Fabs und will die Technologie im neuen Werk für analoge/mixed-signal Technologien und Leistungshalbleiter in Dresden noch weiter ausbauen. Die Fabrik (bis 2026 im Bau) repräsentiert das größte Einzelinvestitionsvorhaben in der Geschichte des Unternehmens.

Smart Power Fab mit ML: In der neuen Chip-Fabrik von Infineon Technologies in Dresden kommt Maschinelles Lernen ausgiebig zum Einsatz. Die Fertigstellung ist für 2026 geplant; die Gemeinde freut sich auf 1.000 neue Arbeitsplätze.(Bild:  Infineon)
Smart Power Fab mit ML: In der neuen Chip-Fabrik von Infineon Technologies in Dresden kommt Maschinelles Lernen ausgiebig zum Einsatz. Die Fertigstellung ist für 2026 geplant; die Gemeinde freut sich auf 1.000 neue Arbeitsplätze.
(Bild: Infineon)

Infineon arbeitet an der Entwicklung und Bereitstellung seiner ML-Modelle mit Schlüsselpartnern wie Edge Impulse, Cyberon und SensiML zusammen, um die Entwicklung von ML-Modellen und die Integration in die ModusToolbox zu erleichtern. ModusToolbox hilft, gängige ML-Frameworks wie TensorFlow, Keras und PyTorch auf ressourcenarmen IoT-Endpunkten bereitzustellen. Dabei setzt der Halbleiterhersteller auf Edge Machine Learning (TinyML), um KI-Modelle direkt auf energieeffizienten IoT-Geräten zu betreiben. Durch die Verarbeitung der Rohdaten aus der Sensorik in Echtzeit am Gerät vermeidet Infineon Datenschutz- und Latenzprobleme, die durch das Senden der Rohdaten in die Cloud entstehen können.

Mit Cloud Computing zu ML-Intelligenz

Ein fein abgestimmtes ML-Modell ist das Erfolgsrezept für treffgenaue Vorhersagen; echte Daten sind die essenziellen „Zutaten“, die diesen Reifegrad ermöglichen. Unternehmen können die benötigten ML-Modelle in einer rauen, noch „ungeschliffenen“ Version einem Cloud-Dienst wie Googles Kaggle oder einem der zahlreichen quelloffenen Frameworks und Bibliotheken entnehmen und dann anhand eigener Daten feintunen.

Auch ein Chefkoch probiert ein neues Rezept irgendwann zum ersten Mal selbst aus. Das „Kochgeschirr“, also die notwendige Hardware und Software, stellt die Cloud bereit, flexibel nutzbar und ohne langfristige Kapitalbindung. Die wichtigste Zutat, die Daten, müssen die Unternehmen allerdings selbst beisteuern – und sei es als synthetische Datenbestände (Stichwort: GenAI – Bosch hat es in einem Pilotprojekt vorgemacht). Um die Rezepte zu verfeinern, sind dennoch „frische“, lebensechte Daten unumgänglich. Diese dienen dazu, das ML-Modell optimal auf die Gegebenheiten der gelebten Realität abzustimmen.

Nach der Feinabstimmung muss man das Modell testen, um zu überprüfen, wie gut es mit einer Auswahl an Trainingsdaten umgehen kann, die es zuvor noch nie „gesehen“ hat. Wie genau sind denn die Vorhersagen? ML-Dienste aus der Cloud reichen von vorgefertigten Algorithmen und Lernmodellen bis hin zu anpassbaren Umgebungen, die eine tiefergehende technische Kontrolle ermöglichen – einschließlich der Bereitstellung hardwarebeschleunigter Server-Instanzen.

Cloud-Anbieter wie AWS, Google Cloud und Microsoft Azure bieten eine Vielzahl von vorprogrammierten Modellen und Algorithmen von gängigen Aufgaben wie Bild- und Spracherkennung bis hin zu komplexen Vorhersagen.

AWS bietet spezialisierte Dienste wie Amazon Rekognition für Bild- und Videoanalyse, Amazon Comprehend für natürliche Sprachverarbeitung und Amazon Forecast für Zeitreihenprognosen. Auf Microsoft Azure sind vortrainierte Modelle für Aufgaben wie Spracherkennung, Textanalyse und Bilderkennung im Rahmen von Azure Cognitive Services verfügbar. Dienste wie Googles AutoML erlauben es Nutzern, ohne tiefe Expertise in maschinellem Lernen eigene Modelle zu trainieren.

Bildergalerie

Anpassbare ML-Umgebungen wie Google Cloud AI Platform, Azure Machine Learning Studio und AWS SageMaker bieten fortschrittliche Tools und Frameworks für die Entwicklung, das Training und die Implementierung von Modellen im gesamten Lebenszyklus. Sie unterstützen verschiedene Frameworks und Sprachen wie TensorFlow, PyTorch und R.

Microsoft Azure positioniert seinen Azure Machine Learning Service als eine integrierte Rundumglücklich-Plattform für die Verwaltung von ML-Modellen in ihrem gesamten Lebenszyklus. Azure ML unterstützt alle gängigen Open-Source-Frameworks einschließlich TensorFlow, PyTorch und scikit-learn und kann mit fortschrittlichen MLOps-Funktionen (Machine Learning Operations) zur Verwaltung und Skalierung von ML-Projekten auftrumpfen.

Die Verwendung geeigneter Bibliotheken, Werkzeuge und Algorithmen erleichtert zweifellos die Entwicklung und Implementierung fortschrittlicher maschineller Lernmodelle. Vorgefertigte Komponenten und erprobte Ansätze erlauben eine effiziente Wiederverwendung mit relativ geringem Aufwand. Allerdings ist die Auswahl der richtigen Werkzeuge, um die vorgefertigten Komponenten korrekt zu konfigurieren und nahtlos zu integrieren, nicht trivial. Unternehmen stehen hier vor einer echten Herausforderung.

Fazit

Viele Organisationen könnten die enormen Kosten für die Entwicklung und das Training ihrer ML-Modelle auf eigenen IT-Infrastrukturen nicht vertreten. Gäbe es nicht die Cloud, wäre ML niemals der breite Zuspruch vergönnt. Cloud-Dienste demokratisieren den Zugriff auf massiv skalierbare Rechenleistung zum Trainieren von ML-Modellen. Die Unternehmen haben die Qual der Wahl.

* Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali, Inc., USA.

(ID:50072251)