Mit den auf dem Red Hat Summit 2025 in Boston präsentierten strategischen Neuerungen stellt der Open-Source-Anbieter die Weichen für zukunftssichere, KI-gestützte Hybrid-Cloud-Infrastrukturen – ganz im Sinne eines offenen, souveränen IT-Betriebs.
Die KI-native Plattformstrategie von Red Hat soll maximale Infrastrukturneutralität ermöglichen, indem sich generative KI und Container-Workloads flexibel auf beliebiger Hardware und in jeder Cloud betreiben lassen.
(Bild: Red Hat)
Mit dabei: die nächste Generation von Red Hat Enterprise Linux (RHEL 10), ein performanter AI Inference Server für generative KI-Workloads und mit Red Hat Edge Manager eine neue zentrale Lösung zur Verwaltung großer Geräteflotten am Netzwerkrand.
Mit Red Hat Enterprise Linux 10 (RHEL 10) und dem neuen AI Inference Server will Red Hat die Evolution von Unternehmens-IT konsequent vorantreiben: KI-gestützte Administration, quantenresistente Sicherheit, containerisierte Betriebssysteme und standardisiertes GenAI-Inferencing versprechen mehr Effizienz, Zukunftssicherheit und Unabhängigkeit.
RHEL 10: das KI-gestützte Rückgrat für hybride IT-Umgebungen
Mit der Vorstellung von RHEL 10 auf dem Red Hat Summit 2025 präsentiert der Open-Source-Pionier eine Plattform, die klassische Betriebssystemfunktionen mit generativer KI und Sicherheitsmechanismen der nächsten Generation verknüpft. Der strategische Fokus liegt auf Hybrid-Cloud-Tauglichkeit, Resilienz, Skalierbarkeit und automatisierter Verwaltung.
Intelligente Linux-Verwaltung mit Lightspeed
Dem zunehmenden Fachkräftemangel im Linux-Bereich will Red Hat mit der KI-basierten Assistenzfunktion Red Hat Enterprise Linux Lightspeed begegnen. Diese direkt in die Befehlszeile integrierte, generative KI liefert kontextbezogene Empfehlungen, etwa zur Fehlerbehebung oder zur Umsetzung von Best Practices. So sollen auch weniger erfahrene Admins komplexe Umgebungen sicher und effizient betreiben können.
Quantenresistenz mit FIPS-konformer Kryptografie
RHEL 10 integriert als erste Unternehmensdistribution Post-Quantum-Kryptografie gemäß den Federal Information Processing Standards (FIPS). Dies soll nicht nur gegen zukünftige Bedrohungen durch Quantencomputer (Stichwort: „Harvest now, decrypt later“) schützen, sondern bereits heute absehbare regulatorische Anforderungen durch Signaturschemata und quantenresistente TLS-Zertifikate erfüllen.
Container als Betriebssystemsprache: Image Mode und Insights
Ein Highlight in RHEL 10 ist der neue Image Mode, der einheitliche Workflows für das Erstellen, Bereitstellen und Verwalten containerisierter Workloads mit sich bringt. Entwickler und IT-Betriebsteams können von konsistenter Konfiguration, geringerer Fehleranfälligkeit und einem durchgängigen DevOps-Paradigma profitieren. Ergänzt wird dies durch Empfehlungen des Red Hat Insights Image Builders und Einblicke in Lebenszyklen durch Insights Planning.
Plattform für KI-Workloads und neue Architekturen: RHEL 10 bildet das Fundament für die KI-Angebote von Red Hat. Dazu zählen insbesondere RHEL AI (für serverseitige KI-Integration), Red Hat OpenShift AI (für modellzentrierte MLOps) und Red Hat AI Inference Server (für inferenzoptimierte Ausführung). Zudem ermöglicht die Vorschau auf RISC-V eine frühe Migration zu offenen Hardwareplattformen – mit Red Hat als Betriebssystembasis.
GenAI auf jedem Accelerator in jeder Cloud
Parallel zur Betriebssystem-Offensive hat Red Hat mit dem AI Inference Server eine offene, leistungsstarke Lösung für generatives KI-Inferencing vorgestellt. Diese basiert auf dem Open-Source-Projekt vLLM und integriert Technologien von Neural Magic, um performantes Inferencing über die gesamte Hybrid Cloud hinweg zu ermöglichen.
Generatives Inferencing sei zunehmend der Engpass in KI-Workflows – hohe Latenz, Ressourcenhunger und steigende Infrastrukturkosten sind häufige Herausforderungen. Red Hat adressiert diese Herausforderung mit einem komprimierten, hochgradig optimierten Inference-Stack, der durch Model-Compression-Tools zur Ressourcenschonung, ein kuratiertes Modell-Repository bei Hugging Face und Third-Party-Support für Nicht-Red-Hat-Plattformen eine universelle Nutzbarkeit sicherstellen will.
vLLM: Der De-facto-Standard für KI-Inferencing
Das zugrunde liegende vLLM-Projekt bietet hohe Inferenzdurchsätze, Unterstützung langer Kontexte, Multi-GPU-Fähigkeit und Continuous Batching. Zudem ist es kompatibel mit führenden Frontier-Modellen wie Llama, Mistral, Gemma oder DeepSeek, wodurch Unternehmen flexibel auf aktuelle Open-Weight-Innovationen zugreifen können. Virtualized LLM (vLLM) abstrahiert die Inference-Schicht von der zugrunde liegenden Hardware und macht sie somit plattformunabhängig. Das heißt: Entwickler oder Unternehmen können LLMs auf verschiedenen Infrastrukturen (z. B. Nvidia, Intel, AMD, Cloud-Umgebungen) betreiben, ohne Anpassungen am Modell oder Code vornehmen zu müssen.
Laut Red Hat vergrößere vLLM den Markt, weil es die Einstiegshürden senke. Modellhersteller müssen sich nicht mehr um die spezifische Hardware kümmern – die gleiche Lösung läuft flexibel überall. Das erhöht die Verbreitung, senkt Kosten und beschleunigt die Integration von LLMs in bestehende Systeme. Der Nutzen gilt sowohl für Red Hat als auch für die Partner und Modellanbieter.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Jan Wildeboer, EMEA Evangelist bei Red Hat, vergleicht den neuen Inference-Ansatz mit der Gebrauchtwagennutzung – also einem pragmatischen Vorgehen, bei dem nicht immer die neuste Hardware genutzt wird. Stattdessen werden vorhandene Ressourcen – ältere GPUs oder vortrainierte Modelle – weiterverwendet, indem man sie mit optimierten Verfahren wie Quantisierung oder Kompression effizient inferiert. Das erlaubt kostengünstige, hardware-schonende Inference-Prozesse mit nahezu originaler Modellqualität (99 % Genauigkeit) auf kleineren oder günstigeren GPUs. Diese Strategie ermögliche es, auch in Szenarien mit begrenztem Budget KI-Anwendungen zu realisieren.
China, erklärt Wildeboer, habe aufgrund von Exportrestriktionen (z. B. bei Nvidia-GPUs) früh begonnen, Wege zu finden, wie man auch mit älteren Chipgenerationen leistungsfähige Inference-Prozesse aufbauen kann. Diesem Beispiel folgt Red Hat nun mit einem vergleichbaren pragmatischen Modell, das auch für Edge- und ressourcenarme Szenarien funktioniert. Wildeboer: „Wir haben jetzt eine Art Zwei-Stufen-Ansatz: Die neuesten und besten GPUs für das Training – und gleichzeitig kann ich die Modelle auch mit bestehender Infrastruktur inferieren.“
Hintergrund: Das Projekt llm-d
Mit llm-d (Large Language Model Distributed) hat Red Hat ein neues Open-Source-Projekt vorgestellt, das auf verteilte, skalierbare und hochperformante Inference für generative KI (GenAI) abzielt – also auf die Ausführung großer Sprachmodelle (LLMs) in Produktivumgebungen. Anders als beim Training geht es hier um die effiziente Anwendung bereits trainierter Modelle, was laut Red Hat künftig die wichtigste Herausforderung in der KI sein wird.
Das Projekt llm-d ist keine Red-Hat-Entwicklung, sondern aus einer Zusammenarbeit zwischen mehreren Akteuren wie UBI, IGM, Research, und Nvidia hervorgegangen. Ziel ist es, Inference für Large Language Models (LLMs) skalierbar über mehrere Knoten hinweg zu ermöglichen – also nicht nur lokal auf einem einzelnen Server, sondern clusterfähig. Llm-D soll dabei eine Art verteilte Inferenzplattform werden.
Kernziele von llm-d: • Inference auf mehreren Servern gleichzeitig, nicht nur auf einem einzelnen Knoten. • Einsatz überall: beliebige Modelle, beliebige Hardware-Beschleuniger, jede Cloud. • Kubernetes-native Architektur für einfache Integration in bestehende IT-Infrastrukturen. • Nutzung von vLLM als de-facto Standard für Inference-Server mit umfassender Hardware-Unterstützung.
Technische Highlights: • Prefill/Decode Disaggregation: Trennung von Kontextverarbeitung und Token-Generierung auf verschiedene Server. • KV-Cache Offloading: Auslagerung von Zwischenspeichern aus dem GPU-Speicher in günstigeren RAM oder Netzwerkspeicher. • AI-Aware Network Routing: Intelligente Weiterleitung von Anfragen an Server mit „warmen“ Caches. • Skalierbare Kubernetes-Controller für optimierte Ressourcennutzung.
Ziel ist, eine universelle Inferenzplattform bereitzustellen, die nicht durch Infrastruktur-Silos limitiert ist, sondern LLMs flexibel und effizient in produktive Anwendungen bringt – ähnlich wie Linux einst das Rückgrat der modernen IT wurde. Für Red Hat ist llm-d ein nächster großer Schritt, um Inferenz zu „dem Linux der KI“ zu machen: ein offener Standard für alle.
Red Hat Edge Manager: Geräteflotten zentral, sicher und skalierbar verwalten
Ebenfalls neu ist der Red Hat Edge Manager, der ab sofort als Technology Preview verfügbar ist. Die Lösung richtet sich an Unternehmen mit tausenden verteilten Edge-Geräten – vom Einzelhandel bis zur Industrie – und erlaubt deren zentrale Verwaltung über eine einzige Konsole.
Zu den Kernfunktionen gehören:
Policy-basiertes Flottenmanagement: Geräte lassen sich in einem gewünschten Zustand („desired state“) betreiben, inklusive Multi-Node-Support.
Resiliente Agentenarchitektur: auch bei schlechter Netzabdeckung bleibt die Kontrolle über Devices erhalten.
Gehärtete Gerätekommunikation: Schutz vor Identitätsfälschung durch mutual TLS.
Flexible Deployment-Optionen: Management kann on-premises oder cloudbasiert erfolgen.
Lifecycle-Management: unterstützt sicheres Onboarding, Updates und das Außerbetriebnehmen von Devices.
Proaktive Device-Insights: Echtzeit-Monitoring, Log-Analyse und Alarmfunktionen helfen bei der Fehlerbehebung.
Der Edge Manager ist auf moderne Container-Workloads ausgelegt und wird künftig auch den RHEL Image Mode unterstützen. Ziel ist eine einheitliche Verwaltung von Workloads über Kubernetes, Podman und Docker hinweg – mit vollständiger Transparenz und Automatisierung.
Bewertung und Ausblick: Ein Schritt Richtung „Open AI Infrastructure“
Red Hat setzt nicht auf singuläre Innovationen, sondern auf eine ganzheitliche Infrastrukturstrategie. Unternehmen profitieren von Operational Excellence durch KI-Assistenz, Zukunftssicherheit durch Post-Quantum-Sicherheit, Kostenkontrolle durch effizienteres GenAI-Inferencing und Technologieoffenheit durch Multicloud- und Multiarchitektur-Support.
Für IT-Entscheider bedeutet dies: Die Grundlage für KI-native Unternehmens-IT ist gelegt – ohne proprietäre Lock-ins, aber mit der vollen Kontrolle über Architektur, Sicherheit und Lifecycle. Der Fokus kann künftig also auf einer umfassenden Plattformstrategie statt Insellösungen liegen.
Auf dem Summit 2025 stellt Red Hat klar, dass die Zukunft der IT in offenen, KI-gestützten und containerisierten Plattformen liegt – vom Core bis zum Edge. RHEL 10, der Inference Server und der Edge Manager bilden zusammen eine Architektur, mit der Unternehmen Souveränität, Sicherheit und Innovationsgeschwindigkeit gewinnen.