Hybrid-Cloud-Plattformen rücken ins Blickfeld KI muss als Teaminitiative gesehen werden

Von Andreas Bergqvist 2 min Lesedauer

Anbieter zum Thema

KI-Initiativen in Unternehmen müssen immer als abteilungsübergreifende Teamaufgaben betrachtet werden. Eine offene Hybrid-Cloud-Plattform kann dabei als ideales Fundament für den Aufbau und Betrieb einer KI-Umgebung sowie die Einbindung aller Prozessbeteiligten fungieren.

In einer KI-Initiative übernehmen unterschiedliche Funktionsträger teamübergreifend wichtige Aufgaben.(Bild:  Red Hat)
In einer KI-Initiative übernehmen unterschiedliche Funktionsträger teamübergreifend wichtige Aufgaben.
(Bild: Red Hat)

Die kontinuierliche Weiterentwicklung der generativen KI hat dazu geführt, dass sich immer mehr Unternehmen mit dem Thema beschäftigen. Schließlich versprechen KI- und ML-Technologien zahlreiche Vorteile wie eine Prozessbeschleunigung, eine höhere Qualität von Produkten und Services oder auch eine Entlastung der Mitarbeiterinnen und Mitarbeiter. Für die erfolgreiche Umsetzung einer KI-Strategie sind verschiedene Prozessschritte notwendig: von der Strategieentwicklung bis hin zur Überwachung und Verwaltung der Modelle zur Messung der Performance und Reaktion auf potenzielle Datenabweichungen in der Produktion. Diese verschiedenen Aufgaben betreffen unterschiedlichste Abteilungen und Stakeholder eines Unternehmens.

In einem typischen KI-Projekt findet sich folgende Aufgabenteilung: die Geschäftsleitung legt die Ziele fest, Data Engineers sowie Data Scientists sammeln und bereiten die zu verwendenden Daten auf und ML-Engineers entwickeln die Modelle für die Anwendungen, die die Entwickler erstellen – und das alles in einer Umgebung, die von IT Operations verwaltet wird. Nun stellt sich die Frage, wie eine ideale technologische Basis für diese heterogenen Aufgaben und Herausforderungen aussieht, also ein gemeinsames Fundament für alle Prozessbeteiligten. Hier rücken zunehmend offene auf Kubernetes basierende Hybrid-Cloud-Plattformen ins Blickfeld der Unternehmen, denn sie bieten eine konsistente Infrastruktur für die KI-Modellentwicklung, das KI-Modelltraining und auch die KI-Modelleinbettung in Anwendungen.

Um den Weg vom Experiment zum produktiven Betrieb für alle Prozessbeteiligten zuverlässig zu organisieren und eine konsistente Zusammenarbeit zu ermöglichen, sollten zu den wesentlichen Funktionen einer solchen Plattform gehören:

  • eine Modellentwicklung mit einer interaktiven, kollaborativen Benutzeroberfläche für Data Science und Modelltraining, -optimierung und -bereitstellung,
  • ein Modell-Serving mit einem Modell-Serving-Routing für die Bereitstellung von Modellen in Produktionsumgebungen,
  • ein Modell-Monitoring mit einer zentralisierten Überwachung zur Überprüfung der Performance und Genauigkeit der Modelle.

Der Plattformansatz bietet zahlreiche Vorteile:

  • Hohe Flexibilität durch das Hybrid-Cloud-Modell: Unternehmen können containerisierte, intelligente Applikationsmodelle flexibel on-premises, in der Cloud oder am Edge bereitstellen.
  • Einfache Verwaltung und Konfiguration mit hoher Skalierbarkeit: IT Operations kann eine zentrale Infrastruktur für Data Engineers und Data Scientists zur Verfügung stellen, die damit von der Wartung und Verwaltung der Umgebung entlastet werden.
  • Kollaborative Zusammenarbeit: Eine gemeinsame Plattform bringt Daten, IT und Teams zusammen. Damit werden auch Prozessbrüche zwischen Entwicklern, Data Engineers, Data Scientists und DevOps-Teams vermieden sowie ein integrierter Handover-Support zwischen ML-Teams und App-Entwicklern bereitgestellt.
  • Open-Source-Innovation: Unternehmen erhalten Zugang zu Upstream-Innovationen bei Open-Source-basierten KI/ML-Tools.

Insgesamt bietet eine offene Hybrid-Cloud-Plattform eine funktionsübergreifende Teamgrundlage für KI-Initiativen. Eine solche Infrastruktur unterstützt die Entwicklung, das Training, die Bereitstellung und Überwachung sowie das Management des Lebenszyklus von KI/ML-Modellen und -Anwendungen – und zwar von der Experimentier- und Proof-of-Concept-Phase bis hin zum Produktivbetrieb. Die Plattform fügt KI in die bestehende DevOps-Struktur eines Unternehmens auf komplementäre, integrierte Weise ein, ohne dass eine separate Lösung implementiert werden muss.


* Der Autor Andreas Bergqvist ist EMEA SSP, OpenShift AI, bei Red Hat.

Bildquelle: Red Hat

(ID:50207624)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung