Lokale Agenten statt Cloud-Abhängigkeit Nvidia und Google Cloud holen Gemini-Modelle On-Premises

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Nvidia und Google Cloud wollen Unternehmen die volle Kontrolle über KI-Modelle zurückgeben. Mit lokaler Infrastruktur und Confidential Computing sollen agentenbasierte Anwendungen künftig datenschutzkonform und unabhängig von der Public Cloud realisiert werden.

Nvidia bringt Agentic AI Reasoning mit Google Cloud in Unternehmen(Bild:  Nvidia)
Nvidia bringt Agentic AI Reasoning mit Google Cloud in Unternehmen
(Bild: Nvidia)

Klassische KI-Modelle reagieren auf Eingaben, Agentic AI geht einen Schritt weiter: Sie agiert eigenständig, verfolgt Ziele, koordiniert Aufgaben — kurzum, sie „denkt“ und handelt proaktiv. Nvidia und Google Cloud wollen diese neue Generation der KI nun massentauglich machen. Im Mittelpunkt der Ankündigung steht die Integration der Gemini-Modelle in lokale IT-Umgebungen — abgesichert durch Confidential Computing und beschleunigt durch die neu vorgestellte Blackwell-Architektur von Nvidia.

Agentenbasiertes Reasoning, also das autonome Analysieren und Lösen komplexer Aufgaben durch KI, könnte damit erstmals auf High-End-Niveau unter voller Datenhoheit nutzbar werden – zumindest in der Theorie.

Technisches Fundament: Blackwell, HGX, Confidential Computing

Datenschutz und Regulatorik sind die Achillesferse vieler KI-Projekte. Nvidia setzt deshalb auf Confidential Computing: Daten und Modellinteraktionen werden in abgeschotteten Hardware-Bereichen verarbeitet, um Angriffsflächen für interne wie externe Bedrohungen zu minimieren. Gleichzeitig schützen die Trusted Execution Environments auch die Modelle selbst – ein Schutzschild gegen Industriespionage und Compliance-Verstöße.

Die Hardware-Infrastruktur rund um die Blackwell-Beschleuniger, etwa HGX B200 und DGX B200, kombiniert mit der lokalen Google Distributed Cloud, soll dafür die nötige Rechenleistung bereitstellen. An technischen Superlativen mangelt es nicht – an belastbaren Benchmarks bislang schon.

On-Premises statt Cloud-Only: Neuer Spielraum für Unternehmen

Die Verlagerung großer Sprachmodelle aus der Cloud in eigene Rechenzentren adressiert eine zentrale Herausforderung vieler Unternehmen: Datensouveränität. Compliance-Anforderungen, insbesondere in regulierten Branchen wie Gesundheitswesen oder Finanzdienstleistungen, machen die lokale Kontrolle über sensible Informationen zunehmend unverzichtbar. Nvidia und Google versprechen, die volle Leistungsfähigkeit der Gemini-Modelle bereitzustellen, ohne dass Unternehmen auf die Vorteile von KI verzichten müssen.

Leistungsfähig, aber exklusiv

Mit dem neuen Angebot setzen die beiden wohl einen wichtigen Meilenstein für unternehmenskritische KI-Anwendungen. Allerdings dürften die Einstiegshürden wohl hoch liegen: Die Blackwell-Infrastruktur erfordert erhebliche Investitionen und komplexe Integrationsprojekte.

Kleine und mittlere Unternehmen bleiben wohl außen vor, große Konzerne dürften hingegen von mehr Kontrolle und geringeren Latenzen profitieren. Der Markt für agentische KI könnte damit eine deutliche Segmentierung erleben: zwischen denen, die eigene Infrastruktur stemmen können, und denen, die auf Public-Cloud-Modelle angewiesen bleiben.

(ID:50396121)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung