Der „Cloud-Rausch“ der KI/ML-Modellierung Schlau, schlauer, Cloud!

Von Filipe Pereira Martins und Anna Kobylinska*

Anbieter zum Thema

Wer Künstliche Intelligenz und Maschinelles Lernen nutzbringend einsetzen will, muss sich mit dem Konzept KI/ML-Modellierung anfreunden. Denn erst leistungsstarke KI/ML-Modelle können Rohdaten handlungsfähige Erkenntnisse entlocken.

KI- und ML-Anwendungen trainieren ihr „Wissen“ auf Basis riesiger Datenmengen; cloud-basierte Rechenressourcen unterstützen skalierbar, flexibel und kostengünstig die KI/ML-Modellierung.(Bild:  sdecoret - stock.adobe.com)
KI- und ML-Anwendungen trainieren ihr „Wissen“ auf Basis riesiger Datenmengen; cloud-basierte Rechenressourcen unterstützen skalierbar, flexibel und kostengünstig die KI/ML-Modellierung.
(Bild: sdecoret - stock.adobe.com)

Nirgendwo gestaltet sich die KI/ML-Modellierung so unternehmensfreundlich wie in der Cloud. KI-Anwendungen sind die treibende Kraft für den robusten Bedarf nach massiv skalierbarer verteilter paralleler Rechenleistung. Denn überall dort, wo die Skalierbarkeit ein Problem darstellt, schafft die Cloud Abhilfe.

Die Kunst, aus Daten zu lernen

Künstliche Intelligenz (KI, Engl. AI für Artificial Intelligence) ist eine angewandte Forschungsdisziplin, die sich mit der Erkundung von Mechanismen des menschlichen Lernens und der Umsetzung in maschinellem Lernen auseinandersetzt, um Maschinen mit menschenähnlicher Intelligenz auszustatten.

Beim Maschinellen Lernen (Engl. Machine Learning, kurz ML) handelt es sich um ein Teilgebiet der Künstlichen Intelligenz, das auf die Entwicklung von Algorithmen und Techniken für die maschinelle Entscheidungsfindung fokussiert. Im Grunde genommen ist Maschinelles Lernen ein Teilgebiet der KI. Das Ziel von ML besteht darin, autarke maschinelle Handlungen zu befähigen.

ML-Algorithmen sollen es Computern und anderen Geräten ermöglichen, aus Daten zu lernen, Muster und Zusammenhänge zu erkennen und Vorhersagen zu treffen. Bei der Entwicklung und Optimierung von Algorithmen, die dazu in der Lage sind, ist dann von der KI/ML-Modellierung die Rede.

Wie schlau eine KI ist, steht und fällt mit dem Reifegrad des verwendeten Modells. Dieses entsteht ausgehend von konzeptionellen Überlegungen mit anschließendem Training anhand lebensechter Daten und bildet das Rückgrat des betreffenden kognitiven Systems.

Die gängigen Ansätze umfassen:

  • überwachtes Lernen anhand speziell aufbereiteter Daten;
  • unüberwachtes Lernen durch die eigenständige Erkennung von Mustern und Strukturen in nicht-getaggten, dafür sehr großen, Datenbeständen;
  • bestärkendes Lernen durch Interaktionen des kognitiven Systems mit seiner Umgebung dank der Rückkopplung an eine Feedback-Schleife;
  • Transferlernen durch das Übertragen von Modellen und Algorithmen aus einer Anwendung in eine andere.

Um komplexe Aufgaben wie Spracherkennung, Bilderkennung und automatisierte Entscheidungsfindung zu bewältigen, setzt KI/ML-Modellierung auf sogenanntes Tiefes Lernen (Deep Learning) anhand besonders großer Datenmengen. Im Gegensatz zu traditionellen maschinellen Lernmethoden, bei denen die relevanten Parameter des Systems vorgegeben sind, lernt ein tiefes neuronales Netzwerk die relevanten Merkmale aus den Daten selbstständig. Das Training von KI/ML-Modellen mit tiefen Lernmethoden kann dennoch wahlweise überwacht oder unüberwacht ablaufen.

Architektur auf einen Blick: Workflow der Cloud-gestützten KI/ML-Modellierung am Beispiel von Microsoft Azure Machine Learning.(Bild:  Martins/Kobylinska - Microsoft)
Architektur auf einen Blick: Workflow der Cloud-gestützten KI/ML-Modellierung am Beispiel von Microsoft Azure Machine Learning.
(Bild: Martins/Kobylinska - Microsoft)

Tiefe Lernmethoden wie Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs) werden häufig in überwachten Lernszenarien eingesetzt, um komplexe Muster in Bildern, Sprache oder Text zu identifizieren. Im unüberwachten Lernen kommen Tiefe Lernmethoden wie Autoencodern und Generative Adversarial Networks (GANs) zum Zuge, um Muster und Strukturen in Daten zu identifizieren und generative Modelle zu erstellen.

Ein Vorteil cloud-basierter Plattformen besteht in der Fähigkeit, KI-Modelle direkt in der Cloud zu trainieren, bereitzustellen und zu skalieren. Dies bedeutet, dass Unternehmen schnell auf Änderungen in der Nachfrage nach AI-Services reagieren und ihre Ressourcen entsprechend anpassen können.

Die KI/ML-Modellierung ist eine Herausforderung von hoher Komplexität. Nur jedes zweite KI-Modell (54 %) schafft es von der Pilotphase in die Produktion, hält eine aktuelle Studie des Forschungsinstituts Gartner fest. Zu den größten Herausforderungen der KI/ML-Modellierung zählt das Skalieren von KI/ML-Modellen, glaubt Frances Karamouzis, Vice President Analyst bei Gartner. Große Datenbestände machen dies zwingend nötig.

Um AI-Modelle zu entwickeln, bedarf es typischerweise tatsächlich großer Mengen an Trainingsdaten, die die Parameter der Ein- und Ausgabe umfassen. Denn nur so lassen sich die Zusammenhänge zwischen Entscheidungen und ihren Folgen ausloten und in einem KI/ML-Modell adäquat erfassen.

Cloud Computing kann Abhilfe schaffen

KI/ML-Modellierung in der Cloud gelingt auf mehreren Wegen. Unternehmen haben die Qual der Wahl.

Eine Möglichkeit besteht in der Nutzung cloud-basierter Plattformen zur Entwicklung von KI/ML-Modellen von Grund auf mit gängigen quelloffenen Bibliotheken und KI/ML-Frameworks wie TensorFlow,r PyTorch, MXNet, Scikit-learn, Keras, Chainer, Apache Spark MLlib und anderen – direkt in der Cloud bei einem der Hyperscaler (zum Beispiel mit den sogenannten Deep Learning AMIs von Amazon).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Klick und fertig: Mit Cloud-Diensten wie AWS SageMaker Autopilot entstehen KI/ML-Modelle (fast) von selbst.(Bild:  Martins/Kobylinska - AWS)
Klick und fertig: Mit Cloud-Diensten wie AWS SageMaker Autopilot entstehen KI/ML-Modelle (fast) von selbst.
(Bild: Martins/Kobylinska - AWS)

Dienste wie Amazon AI, Google Cloud AI oder Azure AI adressieren ein breites Publikum von Entwicklern und Datenwissenschaftlern mit KI-Diensten und Tools für die Entwicklung, Schulung und Bereitstellung von KI/ML-Modellen sowie für die Integration von KI/ML-Funktionen in bestehende Anwendungen. Diese Lösungen glänzen nebenbei durch Möglichkeiten der Integration mit den übrigen Cloud-Diensten des betreffenden Anbieters.

Amazon SageMaker und Azure Machine Learning bieten jeweils eine integrierte Entwicklungsumgebung (IDE) für die Erstellung von KI/ML-Modellen unter Verwendung von gängigen Frameworks. Eine Vielzahl von verwandten Tools für das überwachte und unüberwachte Lernen, automatisiertes Machine Learning, NLP (eine Stärke von AWS), IoT (eine der Stärken von Azure) und die Integration mit anderen Diensten des betreffenden Anbieters runden das Leistungsspektrum ab.

Doch es geht noch besser: mit Cloud-Diensten zur KI/ML-Modellierung „auf Autopilot“.

Automatisierte KI/ML-Modellierung

Ein solches automatisiertes Machine-Learning-Tool bieten Amazon mit dem SageMaker Autopilot und Microsoft mit AutoML auf Azure. Amazon SageMaker Autopilot erleichtert Entwicklern und Datenwissenschaftlern die Erstellung, das Training und die Implementierung von KI-Modellen – oder besser gesagt nimmt sie ihnen ab. Der Autopilot nutzt fortschrittliche Algorithmen und Techniken für das automatisierte maschinelle Lernen und optimiert den gesamten Prozess der Modellentwicklung und des Trainings.

Microsoft bietet AutoML (kurz für Automated Machine Learning) als Teil von Azure Machine Learning an. AutoML automatisiert den Prozess der Modellentwicklung und des Trainings, indem es eigenständig mehrere Algorithmen und Hyperparameter-Kombinationen durchläuft, um das beste Modell zu finden.

Der Ansatz senkt die Einstiegshürden für die KI-Modellierung im Hinblick auf das erforderliche Fachwissen.

Anwendungsfallspezifische Modellierung

Einen anderen Ansatz befolgen AWS und Microsoft mit ihren zahlreichen anwendungsfallspezifischen KI-Diensten und -Tools für konkrete Nutzungsszenarien wie die Sprachverarbeitung, Bilderkennung, Empfehlungen und Vorhersage mit APIs für die Integration in unternehmenseigene Anwendungen. Auf AWS ist hierbei unter anderem von den Diensten Amazon Rekognition (Klassifizieren von Bild- und Videomaterial), Amazon Polly (Text-to-Speech) und Amazon Comprehend (Textanalyse) die Rede.

Einen vergleichbaren Leistungsumfang bietet Microsoft mit den Cloud-Lösungen Azure Cognitive Services (Sprach- und Bildverarbeitungsfunktionen wie Spracherkennung, Textanalyse, Bilderkennung und Übersetzung), Azure Cognitive Search (lernfähige Suche) und Azure Video Analyzer (Untersuchen von Videoclips).

Zwei weitere spezialisierte Dienste, Amazon Lex und Azure Bot Service, bieten Entwicklern die Möglichkeit, KI-gestützte Chatbots und Sprachassistenten mit Fähigkeiten zur natürlichen Sprachverarbeitung auszustatten.

Cloud-agnostisches MLOps mit DataRobot & Co.

Eine weitere Möglichkeit der KI/ML-Modellierung in der Cloud besteht in der Umsetzung von cloud-agnostischem MLOps mit Lösungen wie DataRobot. „Ihre (KI/ML-)Modelle waren gestern akkurat. Wie sieht es heute aus?“ – fragt rhetorisch DataRobot auf der Unternehmenswebseite und warnt nicht ganz uneigennützig: „In einer turbulenten Welt können sich Ihre Machine-Learning-Modelle schnell von Vermögenswerten in Haftungsrisiken verwandeln“.

Die KI-Plattform von DataRobot automatisiert den Aufbau, die Bereitstellung und das Management von ML-Modellen. Der Gedanke: Wer ML-Modellierung effizient implementieren kann, dürfte die eigenen Modelle auch leichter in Schuss halten können – vor allem mit Automatisierung.

Allumfassend: die Cloud-agnostische KI/ML-Modellierung mit DataRobot im Überblick.(Bild:  Martins/Kobylinska - DataRobot)
Allumfassend: die Cloud-agnostische KI/ML-Modellierung mit DataRobot im Überblick.
(Bild: Martins/Kobylinska - DataRobot)

Die KI-Plattform von DataRobot ist cloud-agnostisch konzipiert. Ob Azure, AWS, Googles GCP, Databricks oder reines Hadoop und Kubernetes: Mit der Plattform von DataRobot sind ML-Modelle überall in der Cloud zuhause. Durch die Instrumentalisierung von MLOps-Überwachungsagenten von DataRobot können Unternehmen jedes bereits bereitgestellte ML-Modell in Produktion um die nötigen Stellschrauben der Überwachung erweitern, um es effektiv in den Griff zu bekommen. Umfangreiche Datenwissenschafts- oder Programmierkenntnisse sind im Übrigen nicht erforderlich.

Vor rund zwei Jahren hat Data Robot den Dienst Algorithmia übernommen und in die eigene Plattform integriert. Mit Algorithmia erlangte DataRobot eine Plattform für die Bereitstellung von KI/ML-Modellen via APIs in der Cloud.

Azure OpenAI Service in der Implementierung von DataRobot bietet Unternehmen eine leistungsstarke Lösung zum Erstellen und Anpassen von generativen KI-Modellen auf Microsoft Azure. Generative KI-Modelle haben die Aufgabe, einzigartige Inhalte oder sonstige Daten zu erzeugen, die den Anspruch auf Originalität und Einzigartigkeit erheben können.

Generative KI-Modelle nutzen Machine-Learning-Algorithmen, um neue Daten oder Inhalte zu erstellen, die den Trainingsdaten ähneln. Die Plattform von DataRobot bietet eine Vielzahl von Tools und Ressourcen, um Benutzern bei der Entwicklung und Feinabstimmung ihrer KI-Modelle zu helfen, sowie eine Vielzahl von integrierten Funktionen, um ihre Bereitstellung und Verwaltung zu vereinfachen.

Im Wettbewerb um die besten Ideen: Kaggle.com

Mit Kaggle hat Google eine Cloud-Plattform für die KI/ML-Modellierung geschaffen, die es den Unternehmen erlaubt, die meistversprechenden Ansätze für den jeweiligen Anwendungszweck auszuloten. Mit einer Vielzahl von Tools und Ressourcen bringt Kaggle datengetriebene Unternehmen, Datenwissenschaftler und Cloud-Experten an einen Tisch.

Die Auftragserteilung auf Kaggle erfolgt üblicherweise durch die Ausschreibung eines Wettbewerbs für die besten Algorithmen der prädiktiven Modellierung und Datenanalyse für eine bestimmte Aufgabe. Nach Erstellung eines Kaggle-Kontos (oder einer Anmeldung über Google oder Facebook) kann der Nutzer einen sogenannten Kaggle-Kernel erstellen.

Ein Kaggle-Kernel ist ein interaktives Entwicklungsumfeld für die cloud-basierte KI/ML-Modellierung. Es ermöglicht das Ausführen von Code in einer Jupyter Notebook-ähnlichen Umgebung. Diesen Online-Service hostet Google in der eigenen Cloud mit einer breiten Palette von Werkzeugen und Ressourcen für die Entwicklung und das Training der benötigten KI/ML-Modelle und die Datenanalyse (die Inferenz-Phase).

Orchestrieren einer ML-Pipeline auf Microsoft Azure mit Microsofts Azure ML Studio: Das Beispiel trainiert ein kleines neuronales Keras-Faltungsnetzwerk, um Bilder in einem Datensatz zu klassifizieren.(Bild:  Martins/Kobylinska - Microsoft)
Orchestrieren einer ML-Pipeline auf Microsoft Azure mit Microsofts Azure ML Studio: Das Beispiel trainiert ein kleines neuronales Keras-Faltungsnetzwerk, um Bilder in einem Datensatz zu klassifizieren.
(Bild: Martins/Kobylinska - Microsoft)

Kaggle bietet auch ein cloud-basiertes Speichersystem für Daten. Benutzer können ihre Datensätze auf die Plattform hochladen und von überall her auf der Welt darauf zugreifen. Dies eliminiert für Unternehmen die Notwendigkeit, eigene Speichersysteme zu pflegen.

Schließlich bietet Kaggle einen cloud-basierten Dienst für die Echtzeit-Zusammenarbeit an der Entwicklung und Validierung von KI/ML-Modellen. Zu dem Leistungsumfang gehören Funktionen wie gemeinsam genutzte Notebooks, Kommentare und Versionskontrolle.

Massive Bestände anonymisierter Daten, die Unternehmen auf Kaggle ablegen, sollen das Trainieren von KI/ML-Modellen ermöglichen. Sie decken Kategorien wie die Klassifizierung von Text und Bild, Objekterkennung in Bildern, semantische Bildsegmentierung, Bildgenerierung, Audiosynthese, Erkennung der Körperhaltung und dergleichen andere ab.

Mit Kaggle erhalten Unternehmen Zugang zu cloud-basierten Rechenressourcen wie GPUs und TPUs, um die Machine-Learning-Berechnungen hardwarebeschleunigt auszuführen. Im Cloud-typischen Bereitstellungsmodell bezahlen die Nutzer nur für diejenigen Ressourcen, die sie tatsächlich verbrauchen.

Fazit der Autoren

Daten sind alles schön und gut, aber sie nützen nichts ohne die passende Geschäftslogik, die daraus handlungsfähige Erkenntnisse extrahieren kann. Cloud-basierte Plattformen und -Dienste bieten Unternehmen eine skalierbare, flexible und kosteneffiziente Möglichkeit, KI/ML-Modelle zu erstellen und dahingehend zu trainieren.

* Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).

(ID:49534151)