Wer Künstliche Intelligenz und Maschinelles Lernen nutzbringend einsetzen will, muss sich mit dem Konzept KI/ML-Modellierung anfreunden. Denn erst leistungsstarke KI/ML-Modelle können Rohdaten handlungsfähige Erkenntnisse entlocken.
KI- und ML-Anwendungen trainieren ihr „Wissen“ auf Basis riesiger Datenmengen; cloud-basierte Rechenressourcen unterstützen skalierbar, flexibel und kostengünstig die KI/ML-Modellierung.
(Bild: sdecoret - stock.adobe.com)
Nirgendwo gestaltet sich die KI/ML-Modellierung so unternehmensfreundlich wie in der Cloud. KI-Anwendungen sind die treibende Kraft für den robusten Bedarf nach massiv skalierbarer verteilter paralleler Rechenleistung. Denn überall dort, wo die Skalierbarkeit ein Problem darstellt, schafft die Cloud Abhilfe.
Die Kunst, aus Daten zu lernen
Künstliche Intelligenz (KI, Engl. AI für Artificial Intelligence) ist eine angewandte Forschungsdisziplin, die sich mit der Erkundung von Mechanismen des menschlichen Lernens und der Umsetzung in maschinellem Lernen auseinandersetzt, um Maschinen mit menschenähnlicher Intelligenz auszustatten.
Beim Maschinellen Lernen (Engl. Machine Learning, kurz ML) handelt es sich um ein Teilgebiet der Künstlichen Intelligenz, das auf die Entwicklung von Algorithmen und Techniken für die maschinelle Entscheidungsfindung fokussiert. Im Grunde genommen ist Maschinelles Lernen ein Teilgebiet der KI. Das Ziel von ML besteht darin, autarke maschinelle Handlungen zu befähigen.
ML-Algorithmen sollen es Computern und anderen Geräten ermöglichen, aus Daten zu lernen, Muster und Zusammenhänge zu erkennen und Vorhersagen zu treffen. Bei der Entwicklung und Optimierung von Algorithmen, die dazu in der Lage sind, ist dann von der KI/ML-Modellierung die Rede.
Wie schlau eine KI ist, steht und fällt mit dem Reifegrad des verwendeten Modells. Dieses entsteht ausgehend von konzeptionellen Überlegungen mit anschließendem Training anhand lebensechter Daten und bildet das Rückgrat des betreffenden kognitiven Systems.
unüberwachtes Lernen durch die eigenständige Erkennung von Mustern und Strukturen in nicht-getaggten, dafür sehr großen, Datenbeständen;
bestärkendes Lernen durch Interaktionen des kognitiven Systems mit seiner Umgebung dank der Rückkopplung an eine Feedback-Schleife;
Transferlernen durch das Übertragen von Modellen und Algorithmen aus einer Anwendung in eine andere.
Um komplexe Aufgaben wie Spracherkennung, Bilderkennung und automatisierte Entscheidungsfindung zu bewältigen, setzt KI/ML-Modellierung auf sogenanntes Tiefes Lernen (Deep Learning) anhand besonders großer Datenmengen. Im Gegensatz zu traditionellen maschinellen Lernmethoden, bei denen die relevanten Parameter des Systems vorgegeben sind, lernt ein tiefes neuronales Netzwerk die relevanten Merkmale aus den Daten selbstständig. Das Training von KI/ML-Modellen mit tiefen Lernmethoden kann dennoch wahlweise überwacht oder unüberwacht ablaufen.
Architektur auf einen Blick: Workflow der Cloud-gestützten KI/ML-Modellierung am Beispiel von Microsoft Azure Machine Learning.
(Bild: Martins/Kobylinska - Microsoft)
Tiefe Lernmethoden wie Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs) werden häufig in überwachten Lernszenarien eingesetzt, um komplexe Muster in Bildern, Sprache oder Text zu identifizieren. Im unüberwachten Lernen kommen Tiefe Lernmethoden wie Autoencodern und Generative Adversarial Networks (GANs) zum Zuge, um Muster und Strukturen in Daten zu identifizieren und generative Modelle zu erstellen.
Ein Vorteil cloud-basierter Plattformen besteht in der Fähigkeit, KI-Modelle direkt in der Cloud zu trainieren, bereitzustellen und zu skalieren. Dies bedeutet, dass Unternehmen schnell auf Änderungen in der Nachfrage nach AI-Services reagieren und ihre Ressourcen entsprechend anpassen können.
Die KI/ML-Modellierung ist eine Herausforderung von hoher Komplexität. Nur jedes zweite KI-Modell (54 %) schafft es von der Pilotphase in die Produktion, hält eine aktuelle Studie des Forschungsinstituts Gartner fest. Zu den größten Herausforderungen der KI/ML-Modellierung zählt das Skalieren von KI/ML-Modellen, glaubt Frances Karamouzis, Vice President Analyst bei Gartner. Große Datenbestände machen dies zwingend nötig.
Um AI-Modelle zu entwickeln, bedarf es typischerweise tatsächlich großer Mengen an Trainingsdaten, die die Parameter der Ein- und Ausgabe umfassen. Denn nur so lassen sich die Zusammenhänge zwischen Entscheidungen und ihren Folgen ausloten und in einem KI/ML-Modell adäquat erfassen.
Cloud Computing kann Abhilfe schaffen
KI/ML-Modellierung in der Cloud gelingt auf mehreren Wegen. Unternehmen haben die Qual der Wahl.
Eine Möglichkeit besteht in der Nutzung cloud-basierter Plattformen zur Entwicklung von KI/ML-Modellen von Grund auf mit gängigen quelloffenen Bibliotheken und KI/ML-Frameworks wie TensorFlow,r PyTorch, MXNet, Scikit-learn, Keras, Chainer, Apache Spark MLlib und anderen – direkt in der Cloud bei einem der Hyperscaler (zum Beispiel mit den sogenannten Deep Learning AMIs von Amazon).
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Klick und fertig: Mit Cloud-Diensten wie AWS SageMaker Autopilot entstehen KI/ML-Modelle (fast) von selbst.
(Bild: Martins/Kobylinska - AWS)
Dienste wie Amazon AI, Google Cloud AI oder Azure AI adressieren ein breites Publikum von Entwicklern und Datenwissenschaftlern mit KI-Diensten und Tools für die Entwicklung, Schulung und Bereitstellung von KI/ML-Modellen sowie für die Integration von KI/ML-Funktionen in bestehende Anwendungen. Diese Lösungen glänzen nebenbei durch Möglichkeiten der Integration mit den übrigen Cloud-Diensten des betreffenden Anbieters.
Amazon SageMaker und Azure Machine Learning bieten jeweils eine integrierte Entwicklungsumgebung (IDE) für die Erstellung von KI/ML-Modellen unter Verwendung von gängigen Frameworks. Eine Vielzahl von verwandten Tools für das überwachte und unüberwachte Lernen, automatisiertes Machine Learning, NLP (eine Stärke von AWS), IoT (eine der Stärken von Azure) und die Integration mit anderen Diensten des betreffenden Anbieters runden das Leistungsspektrum ab.
Doch es geht noch besser: mit Cloud-Diensten zur KI/ML-Modellierung „auf Autopilot“.
Automatisierte KI/ML-Modellierung
Ein solches automatisiertes Machine-Learning-Tool bieten Amazon mit dem SageMaker Autopilot und Microsoft mit AutoML auf Azure. Amazon SageMaker Autopilot erleichtert Entwicklern und Datenwissenschaftlern die Erstellung, das Training und die Implementierung von KI-Modellen – oder besser gesagt nimmt sie ihnen ab. Der Autopilot nutzt fortschrittliche Algorithmen und Techniken für das automatisierte maschinelle Lernen und optimiert den gesamten Prozess der Modellentwicklung und des Trainings.
Microsoft bietet AutoML (kurz für Automated Machine Learning) als Teil von Azure Machine Learning an. AutoML automatisiert den Prozess der Modellentwicklung und des Trainings, indem es eigenständig mehrere Algorithmen und Hyperparameter-Kombinationen durchläuft, um das beste Modell zu finden.
Der Ansatz senkt die Einstiegshürden für die KI-Modellierung im Hinblick auf das erforderliche Fachwissen.
Anwendungsfallspezifische Modellierung
Einen anderen Ansatz befolgen AWS und Microsoft mit ihren zahlreichen anwendungsfallspezifischen KI-Diensten und -Tools für konkrete Nutzungsszenarien wie die Sprachverarbeitung, Bilderkennung, Empfehlungen und Vorhersage mit APIs für die Integration in unternehmenseigene Anwendungen. Auf AWS ist hierbei unter anderem von den Diensten Amazon Rekognition (Klassifizieren von Bild- und Videomaterial), Amazon Polly (Text-to-Speech) und Amazon Comprehend (Textanalyse) die Rede.
Einen vergleichbaren Leistungsumfang bietet Microsoft mit den Cloud-Lösungen Azure Cognitive Services (Sprach- und Bildverarbeitungsfunktionen wie Spracherkennung, Textanalyse, Bilderkennung und Übersetzung), Azure Cognitive Search (lernfähige Suche) und Azure Video Analyzer (Untersuchen von Videoclips).
Zwei weitere spezialisierte Dienste, Amazon Lex und Azure Bot Service, bieten Entwicklern die Möglichkeit, KI-gestützte Chatbots und Sprachassistenten mit Fähigkeiten zur natürlichen Sprachverarbeitung auszustatten.
Cloud-agnostisches MLOps mit DataRobot & Co.
Eine weitere Möglichkeit der KI/ML-Modellierung in der Cloud besteht in der Umsetzung von cloud-agnostischem MLOps mit Lösungen wie DataRobot. „Ihre (KI/ML-)Modelle waren gestern akkurat. Wie sieht es heute aus?“ – fragt rhetorisch DataRobot auf der Unternehmenswebseite und warnt nicht ganz uneigennützig: „In einer turbulenten Welt können sich Ihre Machine-Learning-Modelle schnell von Vermögenswerten in Haftungsrisiken verwandeln“.
Die KI-Plattform von DataRobot automatisiert den Aufbau, die Bereitstellung und das Management von ML-Modellen. Der Gedanke: Wer ML-Modellierung effizient implementieren kann, dürfte die eigenen Modelle auch leichter in Schuss halten können – vor allem mit Automatisierung.
Allumfassend: die Cloud-agnostische KI/ML-Modellierung mit DataRobot im Überblick.
(Bild: Martins/Kobylinska - DataRobot)
Die KI-Plattform von DataRobot ist cloud-agnostisch konzipiert. Ob Azure, AWS, Googles GCP, Databricks oder reines Hadoop und Kubernetes: Mit der Plattform von DataRobot sind ML-Modelle überall in der Cloud zuhause. Durch die Instrumentalisierung von MLOps-Überwachungsagenten von DataRobot können Unternehmen jedes bereits bereitgestellte ML-Modell in Produktion um die nötigen Stellschrauben der Überwachung erweitern, um es effektiv in den Griff zu bekommen. Umfangreiche Datenwissenschafts- oder Programmierkenntnisse sind im Übrigen nicht erforderlich.
Vor rund zwei Jahren hat Data Robot den Dienst Algorithmia übernommen und in die eigene Plattform integriert. Mit Algorithmia erlangte DataRobot eine Plattform für die Bereitstellung von KI/ML-Modellen via APIs in der Cloud.
Azure OpenAI Service in der Implementierung von DataRobot bietet Unternehmen eine leistungsstarke Lösung zum Erstellen und Anpassen von generativen KI-Modellen auf Microsoft Azure. Generative KI-Modelle haben die Aufgabe, einzigartige Inhalte oder sonstige Daten zu erzeugen, die den Anspruch auf Originalität und Einzigartigkeit erheben können.
Generative KI-Modelle nutzen Machine-Learning-Algorithmen, um neue Daten oder Inhalte zu erstellen, die den Trainingsdaten ähneln. Die Plattform von DataRobot bietet eine Vielzahl von Tools und Ressourcen, um Benutzern bei der Entwicklung und Feinabstimmung ihrer KI-Modelle zu helfen, sowie eine Vielzahl von integrierten Funktionen, um ihre Bereitstellung und Verwaltung zu vereinfachen.
Im Wettbewerb um die besten Ideen: Kaggle.com
Mit Kaggle hat Google eine Cloud-Plattform für die KI/ML-Modellierung geschaffen, die es den Unternehmen erlaubt, die meistversprechenden Ansätze für den jeweiligen Anwendungszweck auszuloten. Mit einer Vielzahl von Tools und Ressourcen bringt Kaggle datengetriebene Unternehmen, Datenwissenschaftler und Cloud-Experten an einen Tisch.
Die Auftragserteilung auf Kaggle erfolgt üblicherweise durch die Ausschreibung eines Wettbewerbs für die besten Algorithmen der prädiktiven Modellierung und Datenanalyse für eine bestimmte Aufgabe. Nach Erstellung eines Kaggle-Kontos (oder einer Anmeldung über Google oder Facebook) kann der Nutzer einen sogenannten Kaggle-Kernel erstellen.
Ein Kaggle-Kernel ist ein interaktives Entwicklungsumfeld für die cloud-basierte KI/ML-Modellierung. Es ermöglicht das Ausführen von Code in einer Jupyter Notebook-ähnlichen Umgebung. Diesen Online-Service hostet Google in der eigenen Cloud mit einer breiten Palette von Werkzeugen und Ressourcen für die Entwicklung und das Training der benötigten KI/ML-Modelle und die Datenanalyse (die Inferenz-Phase).
Orchestrieren einer ML-Pipeline auf Microsoft Azure mit Microsofts Azure ML Studio: Das Beispiel trainiert ein kleines neuronales Keras-Faltungsnetzwerk, um Bilder in einem Datensatz zu klassifizieren.
(Bild: Martins/Kobylinska - Microsoft)
Kaggle bietet auch ein cloud-basiertes Speichersystem für Daten. Benutzer können ihre Datensätze auf die Plattform hochladen und von überall her auf der Welt darauf zugreifen. Dies eliminiert für Unternehmen die Notwendigkeit, eigene Speichersysteme zu pflegen.
Schließlich bietet Kaggle einen cloud-basierten Dienst für die Echtzeit-Zusammenarbeit an der Entwicklung und Validierung von KI/ML-Modellen. Zu dem Leistungsumfang gehören Funktionen wie gemeinsam genutzte Notebooks, Kommentare und Versionskontrolle.
Massive Bestände anonymisierter Daten, die Unternehmen auf Kaggle ablegen, sollen das Trainieren von KI/ML-Modellen ermöglichen. Sie decken Kategorien wie die Klassifizierung von Text und Bild, Objekterkennung in Bildern, semantische Bildsegmentierung, Bildgenerierung, Audiosynthese, Erkennung der Körperhaltung und dergleichen andere ab.
Mit Kaggle erhalten Unternehmen Zugang zu cloud-basierten Rechenressourcen wie GPUs und TPUs, um die Machine-Learning-Berechnungen hardwarebeschleunigt auszuführen. Im Cloud-typischen Bereitstellungsmodell bezahlen die Nutzer nur für diejenigen Ressourcen, die sie tatsächlich verbrauchen.
Fazit der Autoren
Daten sind alles schön und gut, aber sie nützen nichts ohne die passende Geschäftslogik, die daraus handlungsfähige Erkenntnisse extrahieren kann. Cloud-basierte Plattformen und -Dienste bieten Unternehmen eine skalierbare, flexible und kosteneffiziente Möglichkeit, KI/ML-Modelle zu erstellen und dahingehend zu trainieren.
* Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).