KI aus der Cloud Cloud Computing mit Künstlicher Intelligenz – die Unzertrennlichen
Anbieter zum Thema
Wenn es darum geht, mit KI zu innovieren, wollen immer mehr Unternehmen alle Register ziehen. Die Verschmelzung von Cloud Computing mit Künstlicher Intelligenz schafft hierzu beinahe unbeschränkte Möglichkeiten. Ob Bild, Text oder Ton: Generative KI ist in der Cloud zuhause.

Native KI-Fähigkeiten der führenden Public Clouds haben ihren Anbietern Scharen treuer Unternehmensanwender – und Partner – beschert, von aufstrebenden KI-Start-ups wie Stability AI bis hin zu etablierten Platzhirschen wie der Bosch-Gruppe. Im Dienst ihrer Nutzer tüfteln KI-Anbieter um die Wette an neuen KI-Modellen. Innovative KI-Schmieden sprießen inzwischen wie Pilze aus dem Boden.
Das in London ansässige KI-Start-up Stability AI debütierte kürzlich einen Bildgenerator namens Stable Diffusion auf dem Unterbau von AWS. Das kleine Unternehmen will damit dem Branchenvorreiter OpenAI mit dessen generativer KI DALL-E das Wasser abgraben.
OpenAI trainiert seine KI-Modelle auf Microsoft Azure und hat Anfang des Jahres 2023 den Zuschlag für satte 10 Milliarden US-Dollar an frischem Investitionskapital aus Redmond bekommen. Zum Vergleich: Stability AI kann gerade einmal auf knapp über 123 Millionen US-Dollar an Wagniskapital verweisen. So muss das kleine Start-up den Gurt entsprechend enger schnüren und sich nichtsdestotrotz überzeugende KI-Lösungen einfallen lassen. Als Nächstes will es mit einer ausgefuchsten Cloud-KI namens Stable Audio ins Musikgeschäft vordringen.
Alles nur Zukunftsmusik?
In seinem KI-Labor HarmonAI tüftelt Stability AI an einem Modell, das anhand von 800.000 Dateien des Musik-Anbieters AudioSparx und der zugehörigen Metadaten sein „Handwerk“ lernt. Das Ziel: Einen cloud-basierten KI-gestützten Audio-Generator zu erzeugen, das in der Lage sein soll, anhand einer Textbeschreibung neue Musik in der gewünschten Stilrichtung zu komponieren.
Stability AI plant, die Machine Learning- und KI-Dienste von AWS zu nutzen, um die Kosten des Trainings im Zaum zu halten. Das Start-up will dann seine Open-Source-Modelle auf Amazon SageMaker JumpStart veröffentlichen. Das Unternehmen kann ja bereits auf eine Gemeinde von rund 200.000 Enthusiasten verweisen. SageMaker JumpStart ist Amazons KI-Hub mit Grundlagenmodellen, Algorithmen und anderen vorgefertigten ML-Lösungen.
Stability AI hat seine Zielsetzung zeitgleich mit Amazons Ankündigung von Bedrock bekanntgegeben, einem neuen vollständig verwalteten Dienst, der KI-Basismodelle (Engl. Foundation Models) unter anderem von Anbietern wie Stability AI, AI21 Labs, Anthropic und Cohere über eine Cloud-API zugänglich macht.
MLOps auf AWS
In der AWS-Cloud stehen derzeit die Cloud-Dienste SageMaker, Rekognition und Comprehend bei der Umsetzung von konkreten Anwendungsfällen im Vordergrund. Amazon Web Services bietet MLOps-Fähigkeiten (DevOps für ML) über einen vollständig verwalteten Dienst namens AWS SageMaker an. Mit diesem Dienst können Entwickler und Datenwissenschaftler maschinelle Lernmodelle erstellen, trainieren, bereitstellen und verwalten – im großen Maßstab, versteht sich, und über den gesamten Lebenszyklus des betreffenden Anwendungsfalls hinaus.
Amazon SageMaker deckt unterschiedliche Teilaufgaben mit einer Reihe von spezialisierten Cloud-Diensten ab:
- AWS SageMaker Ground Truth übernimmt die Datenkennzeichnung (Labeling), also das Annotieren von Daten, das hauptsächlich im überwachten Training eine zentrale Rolle spielt.
- AWS SageMaker Studio ist eine integrierte webbasierte Entwicklungsumgebung für den Entwurf von KI-Modellen (also die sogenannte Build-Phase).
- AWS SageMaker Notebooks unterstützt die Zusammenarbeit von Teams an gemeinsamen Jupyter-Notebooks.
- AWS SageMaker Autopilot kann Modelle automatisch auswählen, entwickeln (Build) und trainieren.
- AWS SageMaker Pipelines stellt Entwickler/innen eine CI/CD-Pipeline für Maschinelles Lernen bereit.
- AWS SageMaker Model Monitor überwacht die Modellleistung und erkennt Abweichungen vom Soll-Zustand.
Während SageMaker den gesamten Lebenszyklus des Anwendungsfalls von der Datenvorbereitung bis zur Modellbereitstellung abdeckt, bietet das AWS-Ökosystem mit den Diensten Comprehend und Rekognition spezialisierte Lösungen für enger umrissene Aufgabenstellungen, nämlich: für die Analyse von Text und Bild bzw. Video.
Amazon Comprehend ist darauf ausgelegt, Texte in natürlicher Sprache zu verstehen (Stichwort: Natural Language Processing, kurz: NLP). Der Dienst kann Informationen wie Schlüsselbegriffe oder Namen aus unstrukturierten Textdaten extrahieren und sich aus dem Kontext einen Reim machen. Comprehend bewährt sich in Anwendungen der Kundenfeedback-Analyse, Content-Personalisierung und Datenmining.
Amazon Rekognition ermöglicht maschinelles Sehen; der Dienst kann Objekte, Szenen und Aktivitäten in Bildern und Videos erkennen. Rekognition kommt hauptsächlich in Anwendungen rund um die Überwachung, Content-Moderation und das Kundenengagement zum Einsatz.
Azure Machine Learning
Das Äquivalent zu Amazon SageMaker im Azure-Ökosystem nennt sich Azure Machine Learning. Die Plattform bietet umfassende MLOps-Funktionalität einschließlich CI/CD-Pipelines sowie Modellüberwachung und -verwaltung.
Azure Machine Learning hantiert mit sogenannten Arbeitsbereichen, um den Lebenszyklus von ML-Projekten zu verwalten. Ein Arbeitsbereich ist eine isolierte Cloud-Umgebung für die Entwicklung, das Training und die Bereitstellung von ML-Modellen. Im Rahmen von sogenannten Experimenten können Azure-Nutzer verschiedene Algorithmen und Hyperparameter testen und die Ergebnisse in einem zentralen Dashboard verfolgen. Das Ziel besteht darin, das beste KI-Modell für eine bestimmte Aufgabe zu finden.
Die benötigten Datensätze können aus mehreren Quellen stammen. Azure Machine Learning arbeitet eng mit anderen Azure-Diensten zusammen, darunter Azure Data Lake Storage, Azure Synapse Analytics und Azure Databricks. Bei einem „Experiment“ handelt es sich um eine Sammlung von Trainingsdurchläufen, Tests und Evaluierungen im Rahmen einer bestimmten Konfiguration der sogenannten Hyperparameter. Hierbei ist von externen Einstellungen für ein Experiment die Rede, die vor dem Training festgelegt werden, um die Struktur und das Verhalten des betreffenden Modells zu beeinflussen – im Gegensatz zu den Parametern, die das Modell während des Trainings aus den verfügbaren Daten erlernt.
Weitere Azure-KI-Dienste:
- Die Aufgaben von AWS SageMaker Autopilot übernimmt auf Azure ein Dienst namens AutoML. Um eine vollständige MLOps-Pipeline zu erstellen, lässt sich Azure Machine Learning mit Azure DevOps integrieren. Azure Notebooks unterstützen Jupyter-Notebooks für die Datenaufbereitung und -analyse.
- Mit Azure Pipelines lassen sich komplexe ML-Workflows aus Schritten wie Datenvorbereitung, Modelltraining und -bewertung zusammenstellen und die Ausführung automatisieren. Nach dem Training lassen sich die erstellten Modelle in der Registry zwecks Versionskontrolle erfassen und anhand von Metadaten verwalten. Eine lückenlose Versionierung erleichtert die Nachverfolgung von Änderungen und soll die Reproduzierbarkeit von Ergebnissen gewährleisten. Automatisiertes Tuning von Hyperparametern rundet das Ganze ab.
- Bei Azure Cognitive Services handelt es sich um vorab trainierte KI-Dienste, die spezifische Aufgaben wie die Textanalyse, Gesichtserkennung, Spracherkennung und dergleichen andere Problemstellungen meistern. Diese Dienste sind einfach über APIs zugänglich und erfordern keinerlei ML-Erfahrung.
- Mit Azure Databricks bietet Microsoft eine Analyseplattform auf Azure, die ein breites Spektrum von Nutzungsszenarien von klassischer Auswertung von Big-Data in Echtzeit bis hin zu ML-Anwendungen abdeckt. Azure Databricks basiert auf Apache Spark.
- Bei Azure Synapse Analytics handelt es sich um eine integrierte Analyseplattform, die Data Warehousing und Big Data-Analyse unter einen Hut bringt und durch die Integration mit Azure Machine Learning und anderen Azure-Diensten um ML-Funktionen ergänzt.
- Ein Dienst namens Azure Bot Services ermöglicht die Erstellung von Chatbots auf der Basis von Microsofts Bot Frameworks. Dank der Integration mit Cognitive Services können Unternehmen ihren Bots fortschrittliche Funktionen wie die Spracherkennung und das Verständnis natürlicher Sprache (NLU) beibringen.
- Mit Azure Kinect DK bietet Microsoft ein Entwickler-Kit für die Kinect-Sensorplattform mit Tools für die Entwicklung von Lösungen rund um Computer-Vision und Spracherkennung.
Auf dem Boden der Realität: Plattform für Lernende Systeme
Mit der Plattform für Lernende Systeme (PLS) hat das Bundesministerium für Bildung und Forschung (BMBF) in Kooperation mit dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) auf Anregung der Deutschen Akademie der Technikwissenschaften Acatech und des Fachforums Autonome Systeme des Hightech-Forums bereits vor mehreren Jahren ein Netzwerk aus Expertinnen und Experten für kognitive Systeme ins Leben gerufen. Die mittlerweile knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen und nennen Handlungsoptionen für den verantwortlichen Einsatz von KI.
Unter der Adresse www.plattform-lernende-systeme.de/ki-landkarte haben das BMBF und BMWK eine interaktive KI-Landkarte Deutschlands als Wegweiser durch die KI-Landschaft der Bundesrepublik veröffentlicht. Forscher und Praktiker können hier bahnbrechende KI-Projekte ausloten.
In der Zwischenzeit machen sich viele Branchenbeobachter Gedanken um die regulatorische Seite des verantwortungsvollen Umgangs mit KI. Im April 2021 hat die Europäische Kommission einen Vorschlag für das erste EU-regulatorische Rahmenwerk für Künstliche Intelligenz, The EU Artificial Intelligence Act 2023 (kurz: AI Act 2023), vorgelegt. Bis Ende des Jahres 2023 wird eine Einigung mit den EU-Mitgliedstaaten im Rat über die endgültige Ausgestaltung des Gesetzes erwartet. Die Abgeordneten haben sich bereits auf eine gemeinsame Verhandlungsposition geeinigt. Das geplante Rahmenwerk sieht eine Klassifizierung von KI-Systemen anhand deren möglichen Risiken für den Benutzer vor. In Deutschland hat unter anderem das Deutsche Institut für Normung (DIN) an einer Normungsroadmap für KI gearbeitet.
Kognitive Systeme werden somit in ihre Schranken gewiesen zu einem Zeitpunkt, wo Analysten zufolge den KI-Anwendern ohnehin eine Ernüchterung kurz bevorsteht. Gartners Hype Cycle for Artificial Intelligence vom Juli 2023 sieht generative KI am „Höhepunkt überzogener Erwartungen“ – in anderen Worten: auf dem Weg ins „Tal der Enttäuschung“. Generative KI müsse fortan über den Tiefpunkt der Ernüchterung hinaus den Abhang der Erkenntnisphase heraufklettern, um erst dann – hoffentlich – das Plateau der Produktivität zu erreichen. Wagemutige Start-ups lassen sich davon in ihren Implementierungen von Cloud-KI allerdings nicht abhalten; sie innovieren stattdessen weiter vor sich hin.
Fazit der Autoren
In einer datengetriebenen Welt zählt die künstliche Intelligenz (KI) zu den treibenden Kräften technologischer Innovationen; sie ist mittlerweile sogar eine Voraussetzung für die Wettbewerbsfähigkeit digitaltransformierter Unternehmen. Zum Glück bleibt die KI nicht allein den Großen vorbehalten.
Denn während die Entwicklung und Implementierung von KI-fähigen IT-Infrastrukturen mit hohen Kapitalausgaben verbunden ist, kann Cloud Computing die Eintrittsschranken senken und den Zugang „demokratisieren“. Mit der Möglichkeit, Rechenleistung und Speicherplatz bedarfsgerecht zu skalieren, schafft es einen marktgerechte(re)n Zugang zu kognitiven Technologien für aufstrebende Innovatoren.
Von maschinellem Lernen über Datenanalyse bis hin zur Workflow-Automatisierung – die KI aus der Cloud bietet Unternehmen ein Rundumglücklich-Paket an Technologien, die ihnen erlauben können, eigene KI-Lösungen zu entwerfen.
* Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).
(ID:49774498)