Cloud-Architektur und KI-Readiness Ist Ihre Cloud-Architektur KI-fähig? Ein Praxis-Check für hybride IT-Landschaften

Ein Gastbeitrag von Stefan Maxones* 6 min Lesedauer

Anbieter zum Thema

Viele KI-Initiativen funktionieren im Pilot, geraten jedoch im produktiven Betrieb ins Stocken. Ursache sind selten Modelle oder Rechenleistung, sondern strukturelle Schwächen in Cloud- und Datenarchitekturen. Der Beitrag zeigt anhand konkreter Prüffragen, woran IT-Verantwortliche diese frühzeitig erkennen können.

KI-Readiness beginnt nicht beim Modell, sondern in der Architektur: Nur tragfähige Datenstrukturen machen KI-Initiativen produktiv skalierbar.(Bild: ©  KI-generiert)
KI-Readiness beginnt nicht beim Modell, sondern in der Architektur: Nur tragfähige Datenstrukturen machen KI-Initiativen produktiv skalierbar.
(Bild: © KI-generiert)

Künstliche Intelligenz scheitert selten am Modell

Viele Unternehmen haben in den vergangenen Jahren erheblich in künstliche Intelligenz (KI) investiert – in Plattformen, Modelle, Lizenzen und Data-Science-Teams. Die Ergebnisse in Pilotprojekten sind häufig überzeugend. Der Übergang in den produktiven Betrieb verläuft dann oft deutlich holpriger als erwartet.

Ein typisches Beispiel: Ein Predictive-Maintenance-Modell erkennt im Pilotbetrieb Maschinenausfälle zuverlässig. Im produktiven Betrieb sollen zusätzlich Wartungsdaten aus dem SAP-System angebunden werden – Instandhaltungsprotokolle, Ersatzteilinformationen, Servicemeldungen. Die Integration allein dauert Monate. Das Modell wartet auf Daten, die eigentlich längst vorhanden sind.

Das Problem liegt nicht im Algorithmus. Es liegt in der Architektur dahinter. Der Engpass entsteht an den Verbindungsstellen zwischen Systemen, in manuellen Datenprozessen und in einer Infrastruktur, die nicht für datengetriebene Workloads ausgelegt wurde.

Der Pilot-Trugschluss

Der Grund, warum dieser Engpass so oft überraschend kommt, liegt in der Natur von Pilotprojekten. PoC-Umgebungen sind per Definition kontrolliert. Daten werden für den Test aufbereitet, Systeme sind isoliert, Aktualisierungszyklen spielen keine Rolle.

Im Betrieb kommen Daten aus ERP-Systemen, CRM-Plattformen, IoT-Sensoren und externen Quellen zusammen. Jede dieser Quellen hat eigene Aktualisierungszyklen, eigene Qualitätsstandards und eigene Abhängigkeiten. Sensordaten, Instandhaltungsprotokolle und Ersatzteilinformationen werden zu unterschiedlichen Zeiten und in unterschiedlicher Granularität bereitgestellt. Im Pilot ist das irrelevant – im Betrieb führt es dazu, dass Modelle mit unvollständigen Daten rechnen.

Das ist kein Modellproblem. Es ist ein Architekturproblem, das im Pilotbetrieb schlicht unsichtbar bleibt.

Warum Cloud-Migration allein nicht reicht

Cloud-Migration modernisiert Infrastruktur – nicht automatisch Architektur. Ein konkretes Beispiel: Ein Unternehmen migriert sein ERP-System nach S/4HANA Cloud und baut parallel eine moderne Cloud-Datenplattform auf. Neue Datenquellen müssen weiterhin individuell integriert werden, weil kein zentraler Integrationslayer existiert. Jede neue Quelle wird zum eigenständigen Projekt.

Das gleiche Muster zeigt sich in komplexeren Szenarien: Wenn Sensordaten aus einer Produktionsanlage, ERP-Wartungsdaten und externe Wetterdaten kombiniert werden sollen, laufen diese Informationsströme nach der Cloud-Migration weiterhin in getrennten Silos. Der Ort hat sich verändert, die strukturellen Abhängigkeiten sind geblieben.

Typische Architekturdefizite – wiederkehrende Muster aus der Praxis

In vielen gewachsenen IT-Landschaften zeigen sich beim Übergang zu produktiven KI-Anwendungen immer wieder dieselben strukturellen Schwächen. Sie entstehen nicht durch schlechte Planung, sondern weil Architekturen über Jahre auf operative Effizienz optimiert wurden, nicht auf analytische Nutzung.

Das häufigste Muster sind Punktintegrationen. Statt eines zentralen Integrationslayers existieren dutzende, manchmal hunderte direkte Schnittstellen zwischen ERP-Systemen, CRM-Plattformen, BI-Tools und Datenplattformen. Wird ein Feld im ERP geändert, können mehrere Pipelines gleichzeitig betroffen sein – oft ohne dass dokumentiert ist, welche Systeme abhängig sind. KI-Initiativen machen diese Abhängigkeiten sichtbar.

Wer Cloud-Migration und Architekturentscheidung gleichsetzt, investiert viel –
und löst das eigentliche Problem nicht.

Ein weiteres verbreitetes Defizit ist die fehlende Trennung von Trainings- und Produktionsumgebungen. In einem Projekt im Automobilbereich liefen Trainingsläufe für ML-Modelle direkt auf denselben Datenbanken wie operative Reports und Steuerungssysteme. Die Analysejobs erzeugten Lastspitzen, die den produktiven Betrieb störten. Die Lösung war keine technische Innovation – sie war eine Architekturentscheidung, die von Beginn an hätte getroffen werden müssen.

Hinzu kommt ein Monitoring-Defizit, das in vielen Projekten erst spät sichtbar wird: Systeme werden überwacht, Daten nicht. IT-Teams wissen zuverlässig, ob ein Server läuft – aber nicht, ob die Daten, die dieser Server liefert, noch die erwartete Qualität haben. Für KI-Systeme ist das ein strukturelles Risiko.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ein weiteres Muster betrifft Wissen, nicht Technologie: Integrationswissen ist in vielen Organisationen personengebunden. Wer die Schnittstellen kennt, wer weiß, welche Systeme voneinander abhängen und warum – das ist oft implizites Wissen einzelner Mitarbeiter, nicht dokumentierte Architektur. Fällt diese Person aus oder wechselt die Stelle, stockt der Betrieb.

Solche Muster bleiben im Tagesgeschäft oft unbemerkt. KI-Initiativen bringen sie an die Oberfläche.

Architekturprinzipien für KI-fähige Plattformen

Diese Defizite sind behebbar. Sie erfordern keine vollständige Neuentwicklung bestehender Systeme, sondern gezielte Architekturentscheidungen, die KI-Workloads von Beginn an mitdenken. Das zentrale Prinzip ist ein definierter Integrationslayer. Statt direkter Punktintegrationen zwischen Systemen werden APIs und Event-Streams als standardisierte Schnittstellen eingeführt. Neue Systeme können Daten abonnieren, ohne bestehende Verbindungen zu verändern. Eng damit verbunden ist das Prinzip der Entkopplung. Systeme und Datenflüsse werden so gestaltet, dass Änderungen in einem Bereich nicht automatisch andere Bereiche betreffen.

Für KI-Workloads ist darüber hinaus eine elastische Infrastruktur notwendig, die Training und Inferenz getrennt betrachtet. Trainingsjobs und produktive Inferenzmodelle haben unterschiedliche Ressourcenanforderungen und unterschiedliche Kritikalität. Wer beide auf derselben Infrastruktur betreibt, schafft Abhängigkeiten, die den Betrieb gefährden.

Schließlich gehört Governance nicht als nachgelagerte Compliance-Aufgabe in KI-Architekturen – sie muss technisch verankert sein. Rollenmodelle, Zugriffsrechte und Audit-Logs sind keine Dokumentationsaufgabe, sondern Bestandteil des Plattformdesigns.

Architektur-Check: Fünf Prüffragen für IT-Verantwortliche

Die strukturellen Schwächen, die KI-Projekte im produktiven Betrieb ausbremsen, lassen sich mit wenigen gezielten Fragen sichtbar machen. Kein Beratungsauftrag, keine aufwändige Analyse – sondern eine ehrliche Bestandsaufnahme:

  • Können neue Datenquellen ohne ein eigenständiges Integrationsprojekt angebunden werden? Wenn die Antwort nein ist, fehlt ein zentraler Integrationslayer. Jede neue Datenquelle wird zum Einzelprojekt – und das skaliert nicht.
  • Lassen sich Trainings- und Inferenz-Workloads unabhängig voneinander skalieren? Wenn Trainingsläufe denselben Ressourcenpool nutzen wie produktive Systeme, ist das Plattformdesign nicht auf KI-Workloads ausgelegt.
  • Gibt es automatisiertes Monitoring für Datenqualität und Modellperformance? Systemmonitoring ist kein Ersatz für Datenmonitoring. Wenn Qualitätsprobleme erst sichtbar werden, wenn Modelle falsche Ergebnisse liefern, ist das Monitoring zu spät angesetzt.
  • Sind Governance-Vorgaben technisch implementiert – Rollen, Zugriffe, Audit-Logs? Governance, die nur in Dokumenten existiert, ist keine Governance. Sie muss in der Plattform selbst verankert sein.
  • Ist Integrationswissen dokumentiert und nicht personenabhängig? Wenn der Betrieb stockt, sobald eine bestimmte Person nicht erreichbar ist, ist das Architekturwissen nicht institutionalisiert.

Wer mehrere dieser Fragen nicht klar mit Ja beantworten kann, hat kein Modellproblem – sondern ein Architekturproblem.

Mehr zum Thema

KI-fähige Architekturen entstehen nicht durch den Einsatz einzelner Technologien, sondern durch strukturelle Entscheidungen, die Datenflüsse, Verantwortlichkeiten und Betriebsmodelle von Beginn an mitdenken. Drei Konzepte haben sich in der Praxis als besonders wirkungsvoll erwiesen:
Integrationslayer statt direkter Punktintegrationen. Plattformen wie Apache Kafka oder cloud-native Event-Streaming-Dienste ermöglichen es, Datenquellen zu entkoppeln und neue Systeme ohne Eingriffe in bestehende Schnittstellen anzubinden. Der Integrationslayer wird zur zentralen Architekturkomponente – nicht das einzelne System.

Getrennte Workload-Umgebungen. Trainings- und Inferenzumgebungen sollten infrastrukturell voneinander getrennt sein. Das gilt sowohl für Rechenressourcen als auch für Datenzugriffe. Produktive Systeme und analytische Workloads haben unterschiedliche Anforderungen an Verfügbarkeit, Latenz und Ressourcenverbrauch – eine gemeinsame Infrastruktur wird beiden nicht gerecht.

Datenqualitäts-Monitoring als Pflichtbestandteil. Systemmonitoring überwacht, ob Dienste laufen. Datenmonitoring überwacht, ob die Daten, die diese Dienste liefern, noch den erwarteten Qualitätsstandards entsprechen. Für KI-Systeme ist letzteres entscheidend – und wird in vielen Architekturen noch immer nachgelagert behandelt oder ganz ausgelassen.

Fazit

KI ist heute kein isoliertes Innovationsprojekt mehr. Sie ist ein Bestandteil der IT-Architektur – und sie funktioniert nur so gut wie die Struktur, auf der sie aufsetzt.

Die Unternehmen, die KI dauerhaft produktiv nutzen, haben eines gemeinsam: Sie haben nicht zuerst in Modelle investiert, sondern in Integrationsarchitektur, Datenstruktur und Governance.

KI-Initiativen scheitern selten an Algorithmen. Sie scheitern an Architekturen, die nicht für datengetriebene Systeme gebaut wurden. Wer KI skalieren will, muss deshalb nicht zuerst Modelle verbessern – sondern die Struktur darunter.


* Der Autor Stefan Maxones ist selbstständiger Senior-Berater für Daten- und Cloud-Architektur. Er begleitet Unternehmen bei der strukturellen Neuausrichtung hybrider IT-Landschaften und der nachhaltigen Verankerung von KI-Anwendungen in produktiven Betriebsmodellen. Sein Schwerpunkt liegt auf der Verbindung von Architektur, Datenintegration und organisatorischer Verantwortung – insbesondere im SAP-nahen Enterprise-Umfeld. Zuvor war er für internationale Beratungshäuser tätig und verfügt über langjährige Erfahrung in großvolumigen Transformationsprogrammen.

Bildquelle: Stefan Maxones

(ID:50829940)