Red Hat Summit 2025: sichere und KI-optimierte Hybrid-Clouds im Fokus Red Hat ebnet Weg hin zu KI-nativer Unternehmens-IT

Von Elke Witmer-Goßner 6 min Lesedauer

Anbieter zum Thema

Mit den auf dem Red Hat Summit 2025 in Boston präsentierten strategischen Neuerungen stellt der Open-Source-Anbieter die Weichen für zukunftssichere, KI-gestützte Hybrid-Cloud-Infrastrukturen – ganz im Sinne eines offenen, souveränen IT-Betriebs.

Die KI-native Plattformstrategie von Red Hat soll maximale Infrastrukturneutralität ermöglichen, indem sich generative KI und Container-Workloads flexibel auf beliebiger Hardware und in jeder Cloud betreiben lassen.(Bild:  Red Hat)
Die KI-native Plattformstrategie von Red Hat soll maximale Infrastrukturneutralität ermöglichen, indem sich generative KI und Container-Workloads flexibel auf beliebiger Hardware und in jeder Cloud betreiben lassen.
(Bild: Red Hat)

Mit dabei: die nächste Generation von Red Hat Enterprise Linux (RHEL 10), ein performanter AI Inference Server für generative KI-Workloads und mit Red Hat Edge Manager eine neue zentrale Lösung zur Verwaltung großer Geräteflotten am Netzwerkrand.

Mit Red Hat Enterprise Linux 10 (RHEL 10) und dem neuen AI Inference Server will Red Hat die Evolution von Unternehmens-IT konsequent vorantreiben: KI-gestützte Administration, quantenresistente Sicherheit, containerisierte Betriebssysteme und standardisiertes GenAI-Inferencing versprechen mehr Effizienz, Zukunftssicherheit und Unabhängigkeit.

RHEL 10: das KI-gestützte Rückgrat für hybride IT-Umgebungen

Mit der Vorstellung von RHEL 10 auf dem Red Hat Summit 2025 präsentiert der Open-Source-Pionier eine Plattform, die klassische Betriebssystemfunktionen mit generativer KI und Sicherheitsmechanismen der nächsten Generation verknüpft. Der strategische Fokus liegt auf Hybrid-Cloud-Tauglichkeit, Resilienz, Skalierbarkeit und automatisierter Verwaltung.

Intelligente Linux-Verwaltung mit Lightspeed

Dem zunehmenden Fachkräftemangel im Linux-Bereich will Red Hat mit der KI-basierten Assistenzfunktion Red Hat Enterprise Linux Lightspeed begegnen. Diese direkt in die Befehlszeile integrierte, generative KI liefert kontextbezogene Empfehlungen, etwa zur Fehlerbehebung oder zur Umsetzung von Best Practices. So sollen auch weniger erfahrene Admins komplexe Umgebungen sicher und effizient betreiben können.

Quantenresistenz mit FIPS-konformer Kryptografie

RHEL 10 integriert als erste Unternehmensdistribution Post-Quantum-Kryptografie gemäß den Federal Information Processing Standards (FIPS). Dies soll nicht nur gegen zukünftige Bedrohungen durch Quantencomputer (Stichwort: „Harvest now, decrypt later“) schützen, sondern bereits heute absehbare regulatorische Anforderungen durch Signaturschemata und quantenresistente TLS-Zertifikate erfüllen.

Container als Betriebssystemsprache: Image Mode und Insights

Ein Highlight in RHEL 10 ist der neue Image Mode, der einheitliche Workflows für das Erstellen, Bereitstellen und Verwalten containerisierter Workloads mit sich bringt. Entwickler und IT-Betriebsteams können von konsistenter Konfiguration, geringerer Fehleranfälligkeit und einem durchgängigen DevOps-Paradigma profitieren. Ergänzt wird dies durch Empfehlungen des Red Hat Insights Image Builders und Einblicke in Lebenszyklen durch Insights Planning.

Plattform für KI-Workloads und neue Architekturen: RHEL 10 bildet das Fundament für die KI-Angebote von Red Hat. Dazu zählen insbesondere RHEL AI (für serverseitige KI-Integration), Red Hat OpenShift AI (für modellzentrierte MLOps) und Red Hat AI Inference Server (für inferenzoptimierte Ausführung). Zudem ermöglicht die Vorschau auf RISC-V eine frühe Migration zu offenen Hardwareplattformen – mit Red Hat als Betriebssystembasis.

GenAI auf jedem Accelerator in jeder Cloud

Parallel zur Betriebssystem-Offensive hat Red Hat mit dem AI Inference Server eine offene, leistungsstarke Lösung für generatives KI-Inferencing vorgestellt. Diese basiert auf dem Open-Source-Projekt vLLM und integriert Technologien von Neural Magic, um performantes Inferencing über die gesamte Hybrid Cloud hinweg zu ermöglichen.

Generatives Inferencing sei zunehmend der Engpass in KI-Workflows – hohe Latenz, Ressourcenhunger und steigende Infrastrukturkosten sind häufige Herausforderungen. Red Hat adressiert diese Herausforderung mit einem komprimierten, hochgradig optimierten Inference-Stack, der durch Model-Compression-Tools zur Ressourcenschonung, ein kuratiertes Modell-Repository bei Hugging Face und Third-Party-Support für Nicht-Red-Hat-Plattformen eine universelle Nutzbarkeit sicherstellen will.

vLLM: Der De-facto-Standard für KI-Inferencing

Das zugrunde liegende vLLM-Projekt bietet hohe Inferenzdurchsätze, Unterstützung langer Kontexte, Multi-GPU-Fähigkeit und Continuous Batching. Zudem ist es kompatibel mit führenden Frontier-Modellen wie Llama, Mistral, Gemma oder DeepSeek, wodurch Unternehmen flexibel auf aktuelle Open-Weight-Innovationen zugreifen können. Virtualized LLM (vLLM) abstrahiert die Inference-Schicht von der zugrunde liegenden Hardware und macht sie somit plattformunabhängig. Das heißt: Entwickler oder Unternehmen können LLMs auf verschiedenen Infrastrukturen (z. B. Nvidia, Intel, AMD, Cloud-Umgebungen) betreiben, ohne Anpassungen am Modell oder Code vornehmen zu müssen.

Laut Red Hat vergrößere vLLM den Markt, weil es die Einstiegshürden senke. Modellhersteller müssen sich nicht mehr um die spezifische Hardware kümmern – die gleiche Lösung läuft flexibel überall. Das erhöht die Verbreitung, senkt Kosten und beschleunigt die Integration von LLMs in bestehende Systeme. Der Nutzen gilt sowohl für Red Hat als auch für die Partner und Modellanbieter.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Jan Wildeboer, EMEA Evangelist bei Red Hat, vergleicht den neuen Inference-Ansatz mit der Gebrauchtwagennutzung – also einem pragmatischen Vorgehen, bei dem nicht immer die neuste Hardware genutzt wird. Stattdessen werden vorhandene Ressourcen – ältere GPUs oder vortrainierte Modelle – weiterverwendet, indem man sie mit optimierten Verfahren wie Quantisierung oder Kompression effizient inferiert. Das erlaubt kostengünstige, hardware-schonende Inference-Prozesse mit nahezu originaler Modellqualität (99 % Genauigkeit) auf kleineren oder günstigeren GPUs. Diese Strategie ermögliche es, auch in Szenarien mit begrenztem Budget KI-Anwendungen zu realisieren.

China, erklärt Wildeboer, habe aufgrund von Exportrestriktionen (z. B. bei Nvidia-GPUs) früh begonnen, Wege zu finden, wie man auch mit älteren Chipgenerationen leistungsfähige Inference-Prozesse aufbauen kann. Diesem Beispiel folgt Red Hat nun mit einem vergleichbaren pragmatischen Modell, das auch für Edge- und ressourcenarme Szenarien funktioniert. Wildeboer: „Wir haben jetzt eine Art Zwei-Stufen-Ansatz: Die neuesten und besten GPUs für das Training – und gleichzeitig kann ich die Modelle auch mit bestehender Infrastruktur inferieren.“

Hintergrund: Das Projekt llm-d

Mit llm-d (Large Language Model Distributed) hat Red Hat ein neues Open-Source-Projekt vorgestellt, das auf verteilte, skalierbare und hochperformante Inference für generative KI (GenAI) abzielt – also auf die Ausführung großer Sprachmodelle (LLMs) in Produktivumgebungen. Anders als beim Training geht es hier um die effiziente Anwendung bereits trainierter Modelle, was laut Red Hat künftig die wichtigste Herausforderung in der KI sein wird.

Das Projekt llm-d ist keine Red-Hat-Entwicklung, sondern aus einer Zusammenarbeit zwischen mehreren Akteuren wie UBI, IGM, Research, und Nvidia hervorgegangen. Ziel ist es, Inference für Large Language Models (LLMs) skalierbar über mehrere Knoten hinweg zu ermöglichen – also nicht nur lokal auf einem einzelnen Server, sondern clusterfähig. Llm-D soll dabei eine Art verteilte Inferenzplattform werden.

Kernziele von llm-d:
• Inference auf mehreren Servern gleichzeitig, nicht nur auf einem einzelnen Knoten.
• Einsatz überall: beliebige Modelle, beliebige Hardware-Beschleuniger, jede Cloud.
• Kubernetes-native Architektur für einfache Integration in bestehende IT-Infrastrukturen.
• Nutzung von vLLM als de-facto Standard für Inference-Server mit umfassender Hardware-Unterstützung.

Technische Highlights:
• Prefill/Decode Disaggregation: Trennung von Kontextverarbeitung und Token-Generierung auf verschiedene Server.
• KV-Cache Offloading: Auslagerung von Zwischenspeichern aus dem GPU-Speicher in günstigeren RAM oder Netzwerkspeicher.
• AI-Aware Network Routing: Intelligente Weiterleitung von Anfragen an Server mit „warmen“ Caches.
• Skalierbare Kubernetes-Controller für optimierte Ressourcennutzung.

Ziel ist, eine universelle Inferenzplattform bereitzustellen, die nicht durch Infrastruktur-Silos limitiert ist, sondern LLMs flexibel und effizient in produktive Anwendungen bringt – ähnlich wie Linux einst das Rückgrat der modernen IT wurde. Für Red Hat ist llm-d ein nächster großer Schritt, um Inferenz zu „dem Linux der KI“ zu machen: ein offener Standard für alle.

Red Hat Edge Manager: Geräteflotten zentral, sicher und skalierbar verwalten

Ebenfalls neu ist der Red Hat Edge Manager, der ab sofort als Technology Preview verfügbar ist. Die Lösung richtet sich an Unternehmen mit tausenden verteilten Edge-Geräten – vom Einzelhandel bis zur Industrie – und erlaubt deren zentrale Verwaltung über eine einzige Konsole.

Zu den Kernfunktionen gehören:

  • Policy-basiertes Flottenmanagement: Geräte lassen sich in einem gewünschten Zustand („desired state“) betreiben, inklusive Multi-Node-Support.
  • Resiliente Agentenarchitektur: auch bei schlechter Netzabdeckung bleibt die Kontrolle über Devices erhalten.
  • Gehärtete Gerätekommunikation: Schutz vor Identitätsfälschung durch mutual TLS.
  • Flexible Deployment-Optionen: Management kann on-premises oder cloudbasiert erfolgen.
  • Lifecycle-Management: unterstützt sicheres Onboarding, Updates und das Außerbetriebnehmen von Devices.
  • Proaktive Device-Insights: Echtzeit-Monitoring, Log-Analyse und Alarmfunktionen helfen bei der Fehlerbehebung.

Der Edge Manager ist auf moderne Container-Workloads ausgelegt und wird künftig auch den RHEL Image Mode unterstützen. Ziel ist eine einheitliche Verwaltung von Workloads über Kubernetes, Podman und Docker hinweg – mit vollständiger Transparenz und Automatisierung.

Bewertung und Ausblick: Ein Schritt Richtung „Open AI Infrastructure“

Red Hat setzt nicht auf singuläre Innovationen, sondern auf eine ganzheitliche Infrastrukturstrategie. Unternehmen profitieren von Operational Excellence durch KI-Assistenz, Zukunftssicherheit durch Post-Quantum-Sicherheit, Kostenkontrolle durch effizienteres GenAI-Inferencing und Technologieoffenheit durch Multicloud- und Multiarchitektur-Support.

Für IT-Entscheider bedeutet dies: Die Grundlage für KI-native Unternehmens-IT ist gelegt – ohne proprietäre Lock-ins, aber mit der vollen Kontrolle über Architektur, Sicherheit und Lifecycle. Der Fokus kann künftig also auf einer umfassenden Plattformstrategie statt Insellösungen liegen.

Auf dem Summit 2025 stellt Red Hat klar, dass die Zukunft der IT in offenen, KI-gestützten und containerisierten Plattformen liegt – vom Core bis zum Edge. RHEL 10, der Inference Server und der Edge Manager bilden zusammen eine Architektur, mit der Unternehmen Souveränität, Sicherheit und Innovationsgeschwindigkeit gewinnen.

(ID:50429811)