Red Hat Summit: Connect 2025: Open Source als Hebel für Wahlfreiheit Wie Unternehmen souveräne KI in die Produktion bringen

Von Elke Witmer-Goßner 6 min Lesedauer

Anbieter zum Thema

Rund 1.200 Teilnehmende erlebten in Darmstadt, wie Red Hat digitale Souveränität und künstliche Intelligenz (KI) zusammenführt: mit EU‑konformem „Sovereign Support“, einer offenen, hybrid einsetzbaren KI‑Plattform und konkreten Praxisfällen von Volkswagen über Rossmann bis Turkish Airlines.

Fazit des Red Hat Summit: Connect 2025 in Darmstadt: Digitale Souveränität ist in Deutschland zur Chefsache geworden; Open-Source-Technologien bilden ein belastbares Fundament, um die KI‑Ära souverän zu gestalten.(Bild:  Red Hat)
Fazit des Red Hat Summit: Connect 2025 in Darmstadt: Digitale Souveränität ist in Deutschland zur Chefsache geworden; Open-Source-Technologien bilden ein belastbares Fundament, um die KI‑Ära souverän zu gestalten.
(Bild: Red Hat)

Digitale Souveränität wird Chefsache

Digitale Souveränität gibt bei vielen Unternehmen und Organisationen bei IT-Entscheidungen den Takt vor. In einer aktuellen Red‑Hat‑Erhebung liegt sie bei hiesigen Unternehmen mit 80 Prozent Priorität auf Platz eins – vor Security (79 %), Hybrid- bzw. Multicloud (78 %), Virtualisierung (77 %) und Kostenoptimierung (75 %). Auch bei den KI‑Prioritäten dominiert Souveränität: 85 Prozent wollen die breite Mitarbeiteradoption ermöglichen, 84 Prozent Flexibilität für beliebige Modelle sicherstellen und 83 Prozent Transparenz und Offenheit verankern.

Gregor von Jagow, Senior Director und Country Manager Germany bei Red Hat.(Bild:  Red Hat)
Gregor von Jagow, Senior Director und Country Manager Germany bei Red Hat.
(Bild: Red Hat)

„Offene Technologie, Transparenz, Wahlfreiheit – das ist seit Jahrzehnten unser Spielfeld. Aber wir investieren zusätzlich, weil Souveränität jetzt absolute Priorität hat“, sagte Gregor von Jagow, Country Manager Deutschland bei Red Hat in seiner Keynote anlässlich des „Red Hat Summit: Connect 2025“ in Darmstadt. Die Resonanz auf das Eventformat unterstreicht die Relevanz: Über die drei Veranstaltungsteile – Hands‑on‑Day, Partner‑Day und Konferenztag – kamen über 1.200 Besucherinnen und Besucher, davon mehr als 700 am Haupttag.

Neuer EU‑Support: Souveränität zum Anfassen

Konkrete Antwort auf regulatorische und geopolitische Anforderungen ist Red Hats „Sovereign Support“, der ab Januar in Europa verfügbar sein soll. Kernelemente: Tickets werden ausschließlich durch in der EU ansässige, sicherheitsüberprüfte Mitarbeitende bearbeitet, und Supportdaten verbleiben in der Region und unterliegen dem europäischen Rechtsrahmen.

Das Angebot adressiert die Sorge vor einer länder- wie herstellerseitigen Abhängigkeit im Markt. Ohne selbst Cloud‑Provider zu sein, positioniert sich Red Hat als Partner, der den souveränen Betrieb über das gesamte Open‑Hybrid‑Cloud‑Spektrum hinweg – Private, Public, Sovereign und Edge – unterstützt. Von Jagow betonte zugleich das Grundprinzip des Open‑Source‑Modells: „Kein Lock‑in. Kunden behalten Wahlfreiheit – technologisch und operativ.“

Open Hybrid Cloud und KI: Von der Pilotphase in die Produktion

Die Keynotes von Tim Cramer (SVP Product Engineering) und Udo Urbantschitsch (VP EMEA Technology Sales) zogen eine klare Linie: Vom Cloud‑Zeitalter geht es jetzt in die KI‑Ära. Dafür werden Konsistenz, Sicherheit und Automatisierung als Fundament benötigt. Red Hat bündelt dazu Linux (RHEL), Kubernetes (OpenShift), Automatisierung (Ansible) mit einer offenen KI‑Ebene (OpenShift AI/Red Hat AI) zu einer durchgängigen Plattform für klassische Anwendungen und KI‑Workloads.

Technische Eckpfeiler dafür sind:

  • Offene KI‑Inference auf vLLM‑Basis: Der Red Hat AI Inference Server setzt auf vLLM für niedrige Latenzen und hohe Skalierung und bildet die Laufzeit für State‑of‑the‑Art‑LLMs ab.
  • Agentische KI mit LlamaStack und Model Context Protocol (MCP): Eine zentrale Schnittstelle entkoppelt Agenten von Modellen, Vektor-Datenbanken und Laufzeitkomponenten – also Integration durch Plattform‑ statt Agenten‑Code.
  • InstructLab & RAG für Enterprise‑Daten: Modularisiertes Tuning, verbesserte Dokumentenaufbereitung (Docling) und RAG‑Best‑Practices helfen, proprietäre Daten sicher und leistungsfähig anzubinden.
  • Model Registry: Versionierung, Katalogisierung und Übergabe zwischen Model‑Building und ‑Betrieb für die Produktionstauglichkeit.
  • Lightspeed‑Assistenz: KI‑gestützte Unterstützung in RHEL, OpenShift und Ansible soll Betrieb und Entwicklung beschleunigen, Fehler reduzieren und Aufwände senken.

Red Hat skizzierte zudem das jüngste Release Red Hat AI 3.0 für mehr Flexibilität bei Modellen und Hardware, stärkere Produktionsfeatures sowie erweiterte Guardrails und Observability, ausgelegt für den Sprung von POCs in den skalierten Betrieb.

Volkswagen, Rossmann, Turkish Airlines – KI trotz Bürokratie

Wie sich KI in hochregulierten und komplexen Umgebungen etablieren lässt, zeigte Volkswagen mit „OpenShift Lightspeed – KI trotz Bürokratie“. Die Ausgangslage: >30 On‑Prem‑OpenShift‑Cluster, >200 Worker‑Nodes, >400 Projekte bei rund 300.000 Mitarbeitenden in Deutschland. Der Weg: 3 Monate Vorbereitung, 6 Monate technische Umsetzung, 6 Monate Prozessarbeit. Das Ergebnis: Die Ticketanzahl blieb zwar unverändert, aber Nutzer finden sich schneller zurecht, und der Support erhält qualitatives Zusatzfeedback – ein messbarer Produktivitätsgewinn, der sich vor allem in großen Organisationen direkt auszahlt.

Eine neue Red-Hat-Studie unterstreicht den Trend: Für 80 Prozent der deutschen IT‑Verantwortlichen ist digitale Souveränität in den nächsten 18 Monaten Top-Priorität – vor Security, Multicloud und Virtualisierung.(Bild:  Red Hat)
Eine neue Red-Hat-Studie unterstreicht den Trend: Für 80 Prozent der deutschen IT‑Verantwortlichen ist digitale Souveränität in den nächsten 18 Monaten Top-Priorität – vor Security, Multicloud und Virtualisierung.
(Bild: Red Hat)

Rossmann demonstrierte gemeinsam mit Microsoft die Plattformtransformation: Nach Evaluierung von Kultur‑, Governance‑ und Technik‑Fit entschieden sich die Drogeriemarkt‑Spezialisten für Azure Red Hat OpenShift (ARO) als Managed Service, kombiniert mit einem On‑Prem‑OpenShift‑Footprint. 2025 laufen ARO‑Cluster, On‑Prem‑Cluster und Advanced Cluster Management noch unter GitOps‑Regeln, Jenkins wurde durch GitLab und Argo CD ersetzt. Das Ziel: vereinheitlichte Plattformen für skalierbare, regelkonforme Anwendungen und in der nächsten Phase ein Developer Hub für beschleunigte Entwickler‑ und Admin‑Experience. Für 2026 steht die Nutzung von OpenShift Virtualization auf ARO auf der Agenda.

Wie KI bereits heute den Geschäftserfolg treibt, illustrierte das Beispiel Turkish Airlines: 60 produktive KI‑Modelle und weitere 40 in Entwicklung, Einsätze von dynamischer Preisgestaltung über Betrugserkennung bis Logistik und mehr als 10 Millionen US-Dollar jährliche Treibstoffersparnis durch ein einziges Effizienz‑Modell. Der erfolgreiche Weg führte von Predictive AI zu innovativer GenAI mit klarer Wertschöpfungslogik entlang Umsatz, Kosten und Risiko.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Virtualisierung modernisieren – ohne Lock‑in

Das Thema Virtualisierung bleibt, ebenfalls getrieben durch Souveränitätsfragen, ganz oben auf der Agenda. Red Hat propagiert dabei keine 1:1‑Ablösung etablierter Plattformen, sondern die containerbasierte Modernisierung mit OpenShift Virtualization. Ein aus den Präsentationen hervorgehobenes Beispiel: Die Emirates NBD migrierte über 9.000 VMs, betreibt 37.000 Container auf OpenShift und verschob im Schnitt 140 VMs pro Nacht. Heute laufen 70 Prozent der Applikationslandschaft auf RHEL. Der Weg ist kuratiert: von Assessment über Proof of Value bis zur Migrationsfabrik, flankiert von Training und Technical Account Management.

Microsoft und Intel: Ökosystem macht Tempo

Microsoft hob zehn Jahre gemeinsamer Produkte und Services hervor – vom frühen RHEL‑Angebot in Azure über den Managed‑Dienst Azure Red Hat OpenShift bis hin zu Confidential Containers und OpenShift Virtualization, die inzwischen auf Azure Red Hat OpenShift (ARO) allgemein verfügbar sind. Für Kunden zähle der pragmatische Pfad: die Red‑Hat‑Produkte „as a managed service“, abgerechnet über das Azure‑Konto, und der gezielte Sprung in die KI-Ära mit „Red Hat AI on Azure“, inklusive Kostenoptimierung, Private‑Data‑Integration und schnellerer Delivery.

Intel wiederum skizzierte die offene und diverse Hardware‑Seite: vom CPU‑basierten, kostenwirksamen Inference kleiner bis mittelgroßer LLMs auf Xeon über Virtualisierungs‑ und Security‑Features (TDX/SGX, Confidential Computing, Post‑Quantum‑Bausteine) bis zu Gaudi‑3‑Beschleunigern für KI‑Inference mit Preis‑/Leistungsvorteilen. Ein gemeinsames Angebot: kostenfreie Proof‑of‑Concepts für Inference, RAG, Agentic AI oder Virtualisierung mit Zugang zu aktueller Hardware und Experten von Intel und Red Hat.

„Open Source first“ – Souveränität heißt Wahlfreiheit

Valentina Kerst, Geschäftsführerin der Akademie für Künstliche Intelligenz im KI‑Bundesverband, verortete digitale Souveränität als „Schlüssel zum digitalen Erfolg“ – und gab drei Erfolgsfaktoren mit:

  • Open Source als Fundament für Transparenz, Nachvollziehbarkeit und Vertrauen;
  • Wissen als Entscheidungsbasis für bewusste und kompetente Wahl, wo Daten liegen, wie Modelle betrieben und integriert werden;
  • Ökosysteme als Multiplikator, wie Netzwerke, regionale Hubs wie das „AI Village Hürth“ und Konsortien, die Geschwindigkeit und Qualität steigern.

Die politische Einordnung – vom deutsch‑französischen Schulterschluss bis zu regulatorischen Leitplanken – stütze diesen Kurs: Souveränität als Wahlfreiheit statt Autarkie, als Fähigkeit, zwischen Public, Private, Sovereign Cloud und Edge bewusst zu entscheiden, Modelle zu wechseln, Datenräume zu schützen und Technologien offen zu kombinieren.

Von der Idee zum Impact: Was jetzt zählt

Trotz KI‑Hype bleibt der Schritt in die produktive Breite herausfordernd, hierin sind sich Anbieter, Partner und Kunden einig. Viele Projekte stehen noch im Pilotstatus. Zugleich wächst der Druck, messbaren Nutzen zu liefern. Aus Darmstadt lassen sich fünf Handlungsanweisungen mitnehmen:

  • Souveränität konkretisieren: Datenflüsse, Support‑Ketten, Rechtsräume, Exit‑Strategien – alles vorab klären und technisch abbilden (Sovereign Support, EU‑Residency, Policy‑as‑Code).
  • Plattform denken: Linux, Kubernetes, Automation und offene KI als einheitliche Schicht von On‑Prem bis Public und Sovereign Cloud.
  • Agentische KI industrialisieren: LlamaStack, MCP, vLLM und Model Registry nutzen, um Integrationscode zu vereinheitlichen und Latenzen im Griff zu behalten.
  • Daten nutzbar machen: RAG‑Muster, Dokumentenaufbereitung mit Docling und InstructLab‑Tuning für proprietäre Wissensbestände professionalisieren.
  • Mit Best Practices beschleunigen: Cases wie Volkswagen, Rossmann und Turkish Airlines zeigen, wo Effizienz, Resilienz und neue Erträge realistisch sind, trotz Bürokratie und Compliance.

(ID:50648047)