Das volle Potenzial von KI entfaltet sich nur, wenn auch die zugrunde liegende Infrastruktur mithalten kann. Ohne ein modernes, elastisches Betriebsmodell wird ein erfolgreicher Einsatz moderner KI-Anwendungen stark erschwert.
Einige KI-Anwendungen sind aus regulatorischen Gründen auf eine On-Premises-Umgebung angewiesen.
Die nächste Generation von KI-Systemen stellt klassische IT-Architekturen vor ein strukturelles Problem: Sie sind schlicht nicht gebaut für das, was GenAI, Agentic AI und sonstige datengetriebene Unternehmensanwendungen benötigen – nämlich eine massive Parallelverarbeitung, dynamische Skalierung, verteilte Datenhaltung und durchgehende Automatisierung. Das heißt: Ohne die Cloud als Teil des Betriebsmodells lassen sich neue KI-Szenarien nicht realisieren.
Doch genau hier beginnt schon das Missverständnis: „Cloud“ ist nicht gleichbedeutend mit Hyperscalern. Es geht um ein grundlegendes Betriebsmodell – eines, das auf Elastizität, Automatisierung, API-Zugänglichkeit und Infrastructure as Code setzt. Die Wahl der Bereitstellungsform, ob Public Cloud, Private Cloud oder Edge Computing, erfolgt erst im zweiten Schritt und ist unabhängig vom Grundgedanken.
Fakt ist: KI-Modelle müssen trainiert, angepasst, getestet und kontinuierlich verbessert werden. Das erzeugt Lastspitzen, die sich mit „starren“ Systemen kaum auffangen lassen. Klassische Rechenzentren stoßen hier schnell an physikalische wie auch wirtschaftliche Grenzen. Cloudbasierte Betriebsmodelle hingegen bieten elastische Infrastrukturen, in denen Rechenleistung, Speicher und Netzwerkbandbreite jederzeit hoch- oder heruntergefahren werden können – automatisiert und abhängig vom tatsächlichen Bedarf. So ist es möglich, große KI-Modelle effizient zu betreiben, ohne dauerhaft in überdimensionierte Hardware investieren zu müssen.
GenAI-Modelle beispielsweise umfassen oft Milliarden von Parametern, aufgrund ihrer Größe und Komplexität setzen sie entsprechend hohe Compute- und Storage-Ressourcen voraus. Die Cloud bietet einfachen und skalierbaren Zugriff auf GPU-(Graphics Processing Unit)- und TPU-(Tensor Processing Unit)-Cluster sowie spezialisierte KI-Infrastrukturen, die die Rechenlast dynamisch verteilen und skalieren können. Dies reduziert sowohl die Entwicklungszeit als auch die Betriebskosten erheblich.
Zudem ermöglicht die Cloud die Verwaltung sowohl strukturierter als auch unstrukturierter Daten – was ein Muss ist für die vielseitigen Datensätze, mit denen GenAI arbeitet. Parallel dazu kommen die API-Architektur (Application Programming Interface) und die Modularität von Cloud-nativen Anwendungen ins Spiel. So können Unternehmen einerseits Ökosysteme an wiederverwendbaren Lösungen erstellen, was die Entwicklung und Anpassung der KI deutlich beschleunigt. Andererseits sorgt die modulare Architektur für mehr Flexibilität, sodass sich neue Funktionen bei Bedarf schnell implementieren lassen.
Systeme mit autonomen KI-Agenten – oft mit dem Begriff „Agentic AI“ verbunden – stellen zusätzliche Anforderungen. Diese Agenten verfolgen eigenständig Ziele, treffen Entscheidungen und können dazu mit externen Systemen kommunizieren und Rückkopplungsschleifen auswerten. Das bedeutet eine permanente Interaktion mit heterogenen Datenquellen, eine ereignisgesteuerte Ausführung (Stichwort Event-driven Computing) sowie ein dynamisches Starten und Beenden. Ein der Cloud ähnliches Betriebsmodell – ob in der Public Cloud oder On-Premises – schafft hier die notwendige Grundlage in einem wirtschaftlich vertretbaren Rahmen.
Lange galten die großen Public-Cloud-Anbieter als Inbegriff von Innovation, Agilität und Kostenersparnis. Doch inzwischen zeigt sich: Diese Gleichung geht nicht in jedem Fall auf. Die Realität ist komplexer – und mit ihr die Anforderungen an eine moderne IT-Infrastruktur. Denn was auf den ersten Blick flexibel und günstig erscheint, kann bei unzureichender Planung schnell zur Kostenfalle werden. Ein zentrales Problem liegt in der Vielzahl an Abrechnungsmodellen, Servicevarianten und Vertragsoptionen. Wer in dieser Komplexität die Übersicht verliert, riskiert Fehlentscheidungen, die sich direkt auf die Wirtschaftlichkeit der IT auswirken. Besonders kritisch wird es, wenn Cloud-Ressourcen dauerhaft überdimensioniert sind oder ungenutzt bleiben, weil sie falsch kalkuliert beziehungsweise berechnet wurden. Rabatte, die an lange Vertragsbindungen geknüpft sind, erhöhen die Abhängigkeit zusätzlich. Statt Kosten zu senken, entstehen unvorhergesehene Belastungen – insbesondere dann, wenn der Workload nicht optimal zur gewählten Umgebung passt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Bei richtiger Planung und Umsetzung bieten die großen Anbieter jedoch einen Vorteil: Sie ermöglichen einen einfachen Zugang zu modernsten Technologien. Spezialisierte Services für maschinelles Lernen und künstliche Intelligenz (KI) stellen eine End-to-End-Umgebung für die Entwicklung, das Training und den Einsatz der Modelle bereit. Entwickler können auf benutzerfreundliche Werkzeuge zugreifen, die die Modelloptimierung, das Hyperparameter-Tuning und die Integration vortrainierter Modelle erheblich vereinfachen. Funktionen wie automatisiertes maschinelles Lernen (AutoML) verkürzen die Entwicklungszeit und unterstützen weniger spezialisierte Teams – ersetzen jedoch nicht eine tiefgreifende Modellierungskompetenz. Gleichzeitig schützen fortschrittliche Sicherheitsmaßnahmen die Daten vor unberechtigtem Zugriff und Angriffen.
Neben den technischen und betriebswirtschaftlichen Aspekten rückt inzwischen ein weiterer, lange vernachlässigter Punkt in den Vordergrund: die digitale Souveränität. Dabei geht es längst nicht mehr nur um die Einhaltung von Datenschutzrichtlinien, sondern um die strategische Kontrolle über kritische Ressourcen. Wer entscheidet über den Standort der Daten? Wer hat Zugriff? Wie offen und interoperabel ist die eingesetzte Plattform? Gerade mit dem zunehmenden Einsatz von Künstlicher Intelligenz verschärft sich diese Fragestellung. Denn KI erfordert nicht nur leistungsfähige Infrastruktur, sondern auch maximale Transparenz und Kontrolle über Datenflüsse, Trainingsprozesse und die Einhaltung regulatorischer Rahmenbedingungen. Unternehmen müssen in der Lage sein, ihre KI-Modelle zuverlässig und compliant zu betreiben.
Um digitale Souveränität zu wahren, setzen Unternehmen zunehmend auf hybride Architekturen, die Cloud-Flexibilität mit lokaler Kontrolle kombinieren: Workloads werden gezielt dort betrieben, wo sie technisch und organisatorisch am besten aufgehoben sind. Für besonders sensible Anwendungen oder streng regulierte Daten kann das durchaus das eigene Rechenzentrum sein – also eine konsequente On-Premises-Architektur, die digitale Souveränität und maximale Kontrolle garantiert. Damit ein nahtloser Übergang zwischen den unterschiedlichen Plattformen gelingt, ist es entscheidend, dass dieselben Tools, Prozesse und Sicherheitsstandards überall verfügbar sind.
Eine von Anfang an auf Interoperabilität, konsistentes Management und unternehmensweite Portabilität ausgelegte einheitliche Hybrid-Cloud-Architektur wird zum Schlüssel. Die Verantwortlichen sollten zudem nicht den Fehler begehen, den Wert der Cloud ausschließlich über SLAs (Service Level Agreements) zu definieren. Diese sind zweifellos wichtig, spiegeln aber nicht die wertschöpfenden Vorteile wider, die Cloud-Computing bietet. Unternehmen müssen zuerst ein Zielbild definieren, das sich an den Geschäftszielen orientiert. Erst im Anschluss lassen sich alle technischen Fragen erfolgreich beantworten.
Warum moderne Infrastrukturmodelle unverzichtbar für KI-Technologien sind
Kurzum: GenAI, Agentic AI und andere datenintensive Technologien verlangen nach einem Infrastrukturmodell, das sowohl flexibel als auch kontrollierbar ist. Die Cloud ist dafür keine optionale Ergänzung, sondern eine unverzichtbare Voraussetzung – allerdings nur, wenn sie als strategisches Betriebsmodell und nicht als reines Outsourcing-Instrument verstanden wird. Wer dabei auch das Thema digitale Souveränität ernst nimmt, verschafft sich nicht nur Rechtssicherheit, sondern auch Handlungsfreiheit – und damit die beste Ausgangslage, um die Möglichkeiten der KI-Technologien voll auszuschöpfen. Wer allerdings seine bestehende IT-Infrastruktur ohne Weiterentwicklung behält, läuft Gefahr, im Innovationswettbewerb an Boden zu verlieren.
Über die Autoren * Dr. William Cobbah (l.) ist Head of Data & Intelligence bei NTT Data DACH. Sein Kollege Dr. Enno Kätelhön ist als Head of CC Data & Intelligence im gleichen Unternehmen beschäftigt.