Ortsunabhängige Bereitstellung von Trainingsdaten Wenn Künstliche Intelligenz auf die Hybrid Cloud trifft

Ein Gastbeitrag von Dominic Schmitt* 4 min Lesedauer

Anbieter zum Thema

Mit ChatGPT hat das Thema Künstliche Intelligenz einen Höhenflug hingelegt, den vorher so niemand erwartet hätte. Fakt ist: KI findet ihren Einsatz in immer mehr Bereichen. Was Unternehmen jedoch gerne vergessen – KI-Anwendungen sind auf eine Infrastruktur mit der nötigen Rechenleistung und der entsprechenden Flexibilität für das Training der Modelle angewiesen.

Mit offenen Hybrid-Cloud-Plattformen können für rechenintensive KI-Anwendungen genug Ressourcen am richtigen Ort zur Verfügung gestellt werden.(Bild:  AndErsoN - stock.adobe.com)
Mit offenen Hybrid-Cloud-Plattformen können für rechenintensive KI-Anwendungen genug Ressourcen am richtigen Ort zur Verfügung gestellt werden.
(Bild: AndErsoN - stock.adobe.com)

Im Kundenservice beantworten KI-basierte Chatbots Fragen. Vollautomatische Assistenten in Fahrzeugen verhindern Blechschäden beim Einparken. Intelligente Industrieroboter unterstützen den Menschen, um Abläufe effizienter und gleichzeitig sicherer zu gestalten. In der Medizin wiederum hilft die KI Ärzten bei Diagnose und Therapieauswahl. Und im Finanzsektor verhindert die Technologie Kreditkartenbetrug.

Ob nun im Einkauf, im Vertrieb, in der Logistik, im Marketing oder in der Forschung: Künftig werden wir mehr und mehr KI-Komponenten in allen Stufen der Wertschöpfungsketten sehen. Denn nur mit Hilfe von KI- und ML-Technologien können Unternehmen fundierte Entscheidungen in Bezug auf die strategische Planung treffen und damit Prozesse beschleunigen, die Qualität verbessern und die Mitarbeitenden von Routineaufgaben entlasten.

Ein KI-Projekt ist kein Selbstläufer

Künstliche Intelligenz und Machine Learning bringen zwar viele Vorteile mit sich, doch die Einführung dieser Technologien kann sehr wohl eine Herausforderung sein. In puncto Hardware stoßen herkömmliche Systeme schnell an ihre Grenzen – hier sind leistungsstarke GPU (Graphics Processing Unit)-Ressourcen gefordert, genauso wie eine skalierbare Architektur, um KI/ML-Workloads auch in großem Umfang integrieren und bearbeiten zu können. Neben den Hardware-Investitionen müssen Unternehmen darüber hinaus architektonische, kulturelle und prozessbezogene Aspekte bei der Realisierung einer agilen Umgebung berücksichtigen. Proprietäre Lösungen sind hier zu komplex und zu unflexibel, sodass die notwendige Agilität verhindert wird.

Die Aufgabenstellung lautet folglich, eine flexible und skalierbare Basis für das Training, die Wartung, die Feinabstimmung und die tatsächliche Nutzung von KI-Modellen in der Produktivumgebung zu schaffen. Konkret geht es dabei erstens um die Entwicklung von Modellen einschließlich Training, Tests und Auswahl des Modells mit der höchsten Vorhersagegenauigkeit. Zweitens muss eine Integration der Modelle in die Prozessstufen der Anwendungsentwicklung erfolgen. Drittens ist die Überwachung und Verwaltung der Modelle zur Messung der Performance und Reaktion auf potenzielle Datenabweichungen in der Produktion unerlässlich. Und viertens müssen die Ressourcen dort zur Verfügung stehen, wo sie benötigt werden – ob im Rechenzentrum, am Edge oder in der Cloud.

Eine offene Hybrid-Cloud-Plattform ist die Antwort

Die ideale Basis für diese doch recht vielfältigen Aufgaben ist eine offene Kubernetes-basierte Hybrid-Cloud-Plattform, die eine konsistente Infrastruktur für die Entwicklung und das Training der Modelle wie auch die Einbettung der KI in Anwendungen liefert. Mit ihrer Hilfe können skalierbare Konfigurationen erstellt werden, die speziell auf die Anforderungen von Data Scientists und Entwickler zugeschnitten sind. Auch die Feinabstimmung bestehender Modelle im Hinblick auf die unternehmensspezifischen Anforderungen unterstützt diese Plattform, wodurch die Kosten für das anfängliche Modelltraining gesenkt und die Zeit bis zur Wertschöpfung reduziert werden.

Vor allem erfüllt eine Hybrid-Cloud-Plattform dank ihrer Security-Kontrollen, Versionierung und Archivierung wichtige Voraussetzungen für die sichere Umsetzung von KI- und ML-Projekten. Schließlich sind bei der Bereitstellung solcher Anwendungen in der Produktivumgebung die Security- und Compliance-Richtlinien eines Unternehmens zu berücksichtigen. Mit einer offenen Plattform stellen Unternehmen sicher, dass sie keine Experimente auf dem Weg in den Produktivbetrieb riskieren.

Ein zentraler Vorteil einer offenen Hybrid-Cloud-Plattform ist darüber hinaus die hohe Flexibilität, die sie hinsichtlich der genutzten Infrastruktur bietet: Unternehmen mit strengen regulatorischen Anforderungen können Modelle mit sensitiven Daten on-premises entwickeln, trainieren und anschließend in der Cloud nutzen. Umgekehrt ist es möglich, Modelle beispielsweise mit anonymisierten Testdaten in der Public Cloud zu entwickeln sowie zu trainieren und diese anschließend in eine On-Premises-Anwendung oder an der Edge zu integrieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um nun eine erfolgreiche KI-Umsetzung zu unterstützen, sollte eine gute Lösung folgende Features und Komponenten bereitstellen:

  • Deployment-Pipelines für die Nachverfolgung von KI/ML-Experimenten inklusive automatisierter ML-Workflows, die Data Scientists und Entwicklern bei der schnelleren Iteration von Projekten und bei der automatisierten Bereitstellung und Aktualisierung von Anwendungen unterstützen.
  • Ein Model Serving Framework, in das Data Scientists ihre trainierten und validierten ML-Modelle einstellen und auf die Applikationsentwickler dann über Standard-APIs zugreifen können. Dank GPU-Unterstützung für Inferenz und benutzerdefinierte Model-Serving-Laufzeiten werden Performance und Bereitstellung von Basismodellen spürbar verbessert.
  • Ein Model Monitoring, das Unternehmen das Management der Performance- und Betriebsmetriken über ein zentrales Dashboard ermöglicht.

MLOps-Modelle verbessern die Effizienz und mindern Risiken

Eine genauso wichtige Rolle nehmen MLOps-Modelle ein. Das heißt, das aus der Softwareentwicklung bekannte DevOps-Konzept wird auf das maschinelle Lernen übertragen. Ein ML-Lebenszyklus beinhaltet viele komplexe Bausteine, unter anderem Datenerfassung und -aufbereitung, Training, Modelloptimierung und -implementierung, Überwachung sowie Erklärbarkeit. Zudem setzt er eine enge, aufgabenübergreifende Zusammenarbeit voraus, um alle diese Prozesse zu synchronisieren.

Nur so ist eine effiziente, zuverlässige und qualitativ hochwertige Gestaltung von ML-Modellen garantiert und nur so lassen sich die Modelle als Software-Artefakte wiederholt einsetzen. Durch die Anwendung von DevOps- und GitOps-Prinzipien auf das Machine Learning wird der iterative Prozess der Modellintegration vereinfacht und automatisiert – und zwar im Hinblick auf Softwareentwicklung, Rollout, Monitoring, Retraining und erneutes Deployment.

Mit einer offenen Hybrid-Cloud-Plattform als Basis können Unternehmen MLOps für ein konsistentes Lifecycle-Management sowohl im eigenen Rechenzentrum als auch in der Public Cloud und in Edge-Computing-Umgebungen einsetzen. Nahezu jedes Unternehmen wird sich in der nächsten Zeit intensiv mit den Themen KI und ML beschäftigen müssen. Eine optimale Lösung bieten Open-Hybrid-Cloud-Plattformen, die in Kombination mit einem breiten Ökosystem von Partnertechnologien, Services und Schulungen Firmen in die Lage versetzen, schnell eine produktionsbereite Umgebung bereitzustellen.


* Der Autor Dominic Schmitt ist Director Ecosystem Central Europe bei Red Hat.

Bildquelle: Red Hat

(ID:49841708)