Cloud Computing und Künstliche Intelligenz KI ist das Next Big Thing aus der Cloud

Von Michael Hase |

Anbieter zum Thema

Infrastruktur bleibt für Hyperscaler das Brot-und-Butter-Geschäft. Partner von AWS, Google und Microsoft richten sich aber bereits auf das nächste Zukunftsthema aus: generative KI. Denn Cloud Computing und „GenAI“ gehören letztlich zusammen.

Mit ihren Plattformen ermöglichen die Hyperscaler einer breiten Masse von Unternehmen den Einstieg in die KI-Nutzung.
Mit ihren Plattformen ermöglichen die Hyperscaler einer breiten Masse von Unternehmen den Einstieg in die KI-Nutzung.
(Bild: fotomek - stock.adobe.com)

Die ersten Dezembertage 2022 markierten einen Einschnitt in der IT-Welt. Mit der Veröffentlichung des Dienstes ChatGPT, bei dem sich innerhalb von nur fünf Tagen eine Million Menschen registrierten, rückten die Fortschritte, die generative Künstliche Intelligenz („GenAI“) in den vergangenen Jahren gemacht hatte, schlagartig ins Bewusstsein eines Massenpublikums. Für viele Nutzer war der Chatbot, der auf nahezu jede erdenkliche Frage antwortet und dabei, wie es Gartner formuliert, zu „sehr menschlich anmutenden Interaktionen fähig“ ist, eine Sensation.

Die Kerntechnologie von generativer KI bilden sogenannte Grundlagenmodelle (Foundation Models), die mit Unmengen an Rohdaten trainiert werden. Anhand der erlernten Muster sind sie in der Lage, neue Inhalte wie Texte, Bilder, Musik oder Software zu erzeugen. So basiert ChatGPT auf dem Sprachmodell Generative Pre-trained Transformer (GPT), das die Data Scientists von OpenAI, dem Unternehmen hinter dem Bot, mit Text trainierten.

Bedeutend wie Dampfmaschine, Strom und Internet

Bislang steht bei GenAI die Fähigkeit, kreative Arbeit zu unterstützen, im Vordergrund. Doch das wird sich ändern, erwarten die Marktforscher von Gartner. „Bis 2025 werden mehr als 30 Prozent aller neuen Medikamente und Materialien systematisch mit Hilfe generativer KI-Techniken entdeckt – heute sind es null", sagte der Analyst Brian Burke zu Beginn dieses Jahres voraus. „Und das ist nur einer von zahlreichen Anwendungsfällen in der Industrie.“ Laut Gartner wird sich GenAI zu einer Allzwecktechnologie entwickeln, die ähnliche Auswirkungen auf die Wirtschaft haben wird wie die Dampfmaschine, die Elektrizität und das Internet.

Vom Hype um ChatGPT profitierte zunächst Microsoft. Der US-Konzern, der sich 2019 mit einer Milliarde Dollar an OpenAI beteiligt hatte, kündigte im Januar dieses Jahres weitere hohe Investitionen in das Startup an, um sich die Kontrolle über dessen Technologie zu sichern. In Medienberichten war von bis zu zehn Milliarden Dollar die Rede.

Microsoft hatte schon bald konkrete Anwendungsszenarien parat. Im März stellte der Hyperscaler den Copilot vor, ein Tool, mit dem er Fähigkeiten von ChatGPT in die Microsoft-365-Dienste integriert. Mit dem Azure OpenAI Service macht der Anbieter zudem die Grundlagenmodelle des Spezialisten per APIs für Anwender zugänglich. Dazu gehört neben der GPT-Familie das Modell Dall-e zur Bilderzeugung. Azure OpenAI bietet Unternehmen die Möglichkeit, spezifische KI-Anwendungen zu entwickeln, ohne dass sie selbst Modelle erstellen müssen.

Chancen im Dienstleistungsmarkt

Solche Neuheiten betreffen die Partner des IT-Giganten unmittelbar. Im Microsoft Cloud Partner Program bildet Azure Data & AI eines der sechs Lösungsfelder (Designations), auf die sich Dienstleister spezialisieren können. Zudem wurde auf der Konferenz Inspire im Juli das AI Cloud Partner Program gestartet. Tatsächlich setzen sich einige Häuser bereits damit auseinander. „Der Copilot ist eine bahnbrechende Innovation, die beim Modern Workplace künftig eine wesentliche Rolle spielen wird“, urteilt Stefan Zenkel, Geschäftsführer bei Acontech aus Fürth, einem Mitglied der Teccle Group. „Unternehmen, die sich nicht damit befassen, werden einen echten Effizienz- und Wettbewerbsnachteil haben.“

Acontech entwickelt derzeit ein Einführungskonzept, das über die technische Implementierung des Tools hinausgeht und zu dem Workshops, Fragebögen und pädagogische Leitfäden gehören. Der Fokus liegt Zenkel zufolge auf den Auswirkungen der Technologie auf die Menschen, auf ihre Zusammenarbeit und auf die Organisation. Es gehe darum, Prozesse am Arbeitsplatz effizienter zu gestalten und zugleich den Mitarbeitern die Ängste vor der KI zu nehmen.

Auch mit Azure OpenAI beschäftigt sich Zenkels Team. „Wir nutzen Kreativitäts- und Ideenfindungstechniken wie Design Thinking, um gemeinsam mit Kunden herauszuarbeiten, wie sie Prozesse durch KI unterstützen können.“ Oft laufe die Diskussion auf Bots hinaus. Dabei hilft Acontech den Unternehmen, die generischen Modelle an ihre spezifischen Anforderungen anzupassen. Zudem entwickelt der Dienstleister gerade vier standardisierte Bots für ausgewählte Verticals mit häufig wiederkehrenden Anwendungsfällen. „Damit richten wir uns an kleinere Unternehmen, die es sich nicht leisten können, mittlere fünfstellige Beträge in einen eigenen Bot mit Spezialwissen zu investieren.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Katalysator für GenAI

Bei den anderen Hyperscalern ist GenAI ebenfalls ein großes Thema. Wie Microsoft haben AWS und Google Cloud integrierte Plattformen aufgebaut, die die Entwicklung und das Training von KI-Modellen unterstützen. Auch sie stellen Anwendern vortrainierte Grundlagenmodelle zur Erzeugung von Texten, Bildern und Code bereit. Erst im April dieses Jahres hat AWS den Service Amazon Bedrock angekündigt, über den KI-Modelle von Startups wie AI21 Labs, Anthropic, Cohere und Stability AI verfügbar sind. Mit ihren Angeboten treiben die Provider nicht nur die Cloud-Nutzung voran. Sie ermöglichen auch einer breiten Masse von Unternehmen, die weder über spezielle Expertise noch über ausreichend Personal verfügen, den Einstieg in die KI-Nutzung. Die IDC-Analystin Ewa Zborowska bezeichnete die Cloud unlängst als „Katalysator für generative KI“.

Die Hyperscaler treiben den KI-Markt voran

Die Cloud verhilft Künstlicher Intelligenz (KI) zum Durchbruch. So bieten die Hyperscaler mit Plattformen wie Azure ML (Microsoft), Sagemaker (AWS) und Vertex AI (Google) spezifische Frameworks, Bibliotheken und Collaboration-Tools an, die auf die Entwicklung generativer KI-Modelle zugeschnitten sind. Und sie stellen auf Abruf skalierbare Ressourcen für High Performance Computing (HPC) bereit, die für das Training der Modelle notwendig sind. Ohne die Rechenleistung von Azure wäre der Erfolg von ChatGPT kaum möglich gewesen.

Die Cloud-Anbieter unterstützen Anwender aber auch dadurch, dass sie ihnen über Managed Services den Zugriff auf vortrainierte Grund­lagenmodelle geben: Microsoft über den Azure OpenAI Service, ­Google über Model Garden und AWS über Bedrock. Damit ermöglichen sie es Kunden, KI-Funktionen per API in Anwendungen einzubinden, ohne dass sie selbst Modelle entwickeln und aufwändig trainieren müssen. Denn das ist ein komplexer, zeitraubender Prozess, der rare Expertise erfordert. Stattdessen können sich Unternehmen darauf konzentrieren, die Modelle für ihre Zwecke anzupassen.

Der Markt hat seit der Veröffentlichung von ChatGPT massiv an Fahrt aufgenommen. In diesem prestigeträchtigen Wettbewerb, in dem es um die Milliardengeschäfte der Zukunft geht, möchte anscheinend keiner der Beteiligten ins Hintertreffen geraten. So veröffentlichte Google im März die ChatGPT-Alternative Bard, die seit Juli auch Deutsch spricht. Und im Juni kündigte der Anbieter das Tool Duet AI an, das den Google Workspace – ähnlich wie bei Microsoft 365 der Copilot – um intelligente Funktionen erweitert. Nicht alle Neuheiten, die die Cloud Provider in diesem Jahr vorgestellt haben, sind derzeit schon allgemein verfügbar. Teils werden sie noch als Preview in ausgewählten Kreisen von Kunden und Partnern erprobt.

Großes Echo bei Kunden

AWS plant bislang offenbar keinen Chat-Dienst, der für private Nutzer zugänglich ist, sondern fokussiert sich auf Business-Anwender. Im Juni hat der Hyperscaler das Generative AI Innovation Center angekündigt, ein Programm, in das 100 Millionen Dollar fließen sollen und dessen Zweck es ist, den Einsatz von KI bei Kunden zu fördern. Helfen soll ihnen dabei der Channel.

„GenAI gehört zu den Themen, mit denen wir uns beschäftigen müssen und die auch bei Kunden ein großes Echo auslösen“, sagt Sven Ramuschkat, Geschäftsführer beim AWS-Partner Tecracer aus Hannover. „Aus unserer Sicht ist es ein Gamechanger.“ Die Technologie werden beim IT-Arbeitsplatz ebenso wie bei Contact Centern zu riesigen Umwälzungen führen. Nachfrage gebe es bereits im Markt. „Wir haben die ersten Konzepte für Proof of Concepts definiert, die wir gemeinsam mit den Kunden angehen wollen.“ Die Niedersachsen planen, Chatbots jeglicher Art zu bauen, die Kunden und Mitarbeiter von Unternehmen mit Informationen versorgen. Diese Informationen sollen mittels AI aus Datenbeständen extrahiert werden, die mit der Suchmaschine Amazon Kendra durchforstet werden. „Das sind Leuchtturmprojekte, aber noch nichts, bei dem wir Hunderte von Manntagen verkaufen können.“

Beim Ansatz von AWS schätzt der Tecracer-Chef, dass der Cloud-Anbieter über Bedrock „mehrere Modelle verschiedener Anbieter bereitstellt, die man einheitlich über eine gleiche API ansprechen kann“. Er rechne damit, dass schnell Weitere hinzukommen werden. In der breiten Auswahl liege ein Vorteil. „Nicht für jedes Anwendungsszenario brauchen wir ein großes Modell“, so Ramuschkat weiter. „Man muss nicht mit Kanonen auf Spatzen schießen.“ Eine Aufgabe von Tecracer sieht er darin, Kunden bei solchen technologischen Entscheidungen zu beraten: „Die Kompetenz eines Partners ist es, dass er für einen Use Case das geeignete Modell auswählen kann.“

Push für Daten- und KI-Lösungen

Im Google-Channel registriert man ebenfalls wachsendes Interesse an GenAI. „Durch den Hype getrieben, kommen jetzt immer mehr Projekte auf uns zu, in denen wir Daten so aufbereiten, dass Kunden sie mit Machine-Learning- und AI-Anwendungen nutzen können“, berichtet Benny Woletz, Geschäftsführer bei Cloudwürdig aus Magstadt. Der Dienstleister, der zur Public Cloud Group (PCG) gehört, wird sich dem Manager zufolge künftig stärker auf Daten- und KI-Lösungen fokussieren und seine Kompetenz auf diesem Gebiet weiter ausbauen. Daher splitten die Schwaben die Einheit, die sich mit der Google Cloud Platform (GCP) befasst, in ein Infrastruktur- und ein Data-Team auf. Letzteres bekommt mit Matthias Krenzel, der als Head of Data bei den Handelsunternehmen Peek & Cloppenburg und Breuninger tätig war, zum 1. September einen Leiter.

Wie Woletz ausführt, hat Cloudwürdig bei Data einige Leuchtturmprojekte umgesetzt. Nach seiner Erwartung bietet der Markt künftig aber noch weit mehr Potenzial, und „deshalb werden wir in das Thema investieren". Diese Einschätzung stimmt mit der von Analysten überein. Laut Forrester Research werden Data und Analytics in der Cloud in diesem Jahr weltweit ein Volumen von 40 Milliarden Dollar erreichen. Der Wert soll sich bis 2026 auf fast 90 Milliarden Dollar erhöhen. Bei solchen Perspektiven sieht sich der Partner von Google gut positioniert. Denn der Hyperscaler habe „bei Data und AI die größte Visibilität im Markt“, betont Woletz. Mit Infrastrukturmodernisierung werde sich Cloudwürdig wohl noch auf Jahre beschäftigen. Aber er rechnet auch damit, dass das Data-Segment deutlich wachsen und sich das Geschäft dadurch stärker vertikalisieren wird.

Automatisierung des Cloud-Betriebs

Auf einen weiteren Aspekt von GenAI weist Forrester-Analyst Lee Sustar hin: „KI in der Cloud“ gelte es zu unterscheiden von „KI der Cloud“, die den Betrieb zu automatisieren hilft. „KI kann eingesetzt werden, um die Cloud intelligenter und für den Nutzer weniger komplex zu machen.“ Diesen Ansatz, der als AI for IT Operations („AIOps“) bezeichnet wird, nutzt Cloudeteer aus Hamburg im Service: Automaten qualifizieren Tickets vor und reichern sie mit Informationen an, die durch GenAI erzeugt werden. Der Service Manager werde gebrieft, was auf dem System passiert, und erhalte konkrete Anweisungen, erläutert Marc Sundermann, CEO des Dienstleisters. „Damit befähigen wir Mitarbeiter, die keine Cloud-Architekten sind, auf die richtigen Dashboards zu schauen und die richtigen Stellschrauben zu bedienen.“

Manche Prozesse laufen sogar vollkommen automatisch ab. „Gewisse Regeltätigkeiten, die wir in komplexen Cloud-Systemen vornehmen, lassen wir durch Automaten ausführen“, schildert Sundermann das Szenario. So könne die Wartung eines Systems stattfinden, ohne dass ein Mensch eingreift. „Die Bots sind so intelligent, dass sie Tasks vorqualifizieren und bestimmte Entscheidungen auf der Basis von Rahmenparametern eigenständig treffen.“ Am besten funktioniere AIOps bei Kubernetes-Archiktekturen, deren Betrieb sich bis zu 85 Prozent automatisieren lasse. Cloudeteer könne dadurch Leistungen, meist handelt es sich um den Betrieb unkritischer Workloads, preisgünstiger anbieten. „KI ist unsere Antwort auf das Near- und Off-Shoring internationaler Wettbewerber.“

(ID:49688308)