Intelligente Ablaufsteuerung KI-Agenten brauchen zentrale Orchestrierung

Von Christian Deponte* 3 min Lesedauer

Anbieter zum Thema

KI-Agenten entwickeln sich von experimentellen Tools zu produktiven Systemen, die kritische Geschäftsprozesse steuern. Dabei entstehen neue infrastrukturelle Herausforderungen, die sich fundamental von klassischen Anwendungen unterscheiden.

Für den erfolgreichen Einsatz produktiver KI-Agenten braucht es eine zentrale Koordination, um Legacy-Integration und Multi-Agenten-Management zu meistern.(Bild: ©  sawitreelyaon - stock.adobe.com)
Für den erfolgreichen Einsatz produktiver KI-Agenten braucht es eine zentrale Koordination, um Legacy-Integration und Multi-Agenten-Management zu meistern.
(Bild: © sawitreelyaon - stock.adobe.com)

Während einzelne KI-Agenten noch überschaubar sind, wird die Koordination mehrerer KI-Agenten, die gegebenenfalls noch miteinander kommunizieren, schnell komplex.

Die Realität in deutschen Unternehmen ist allerdings ernüchternd: 68 Prozent der IT-Entscheider sehen Legacy-Systeme als größtes Hindernis für KI-Projekte (Digitalisation World, 2024). Konkret bedeutet das: Moderne KI-Agenten müssen mit Jahrzehnte alten ERP-Systemen und proprietären Datenbanken kommunizieren.

Die typischen Probleme sind dabei vorhersagbar: API-Inkompatibilitäten zwischen modernen Cloud-Services und Legacy-Systemen, Authentifizierung über verschiedene Systeme hinweg und Performance-Probleme bei synchronen Datenabfragen. 70 Prozent der Unternehmen kämpfen mit diesen Legacy-Hürden, was erklärt, warum die Hälfte der KI-Projekte an Integrationsproblemen scheitern (ITSoli, 2024).

Die Lösung liegt in einer intelligenten Orchestrierungsplattform, die Daten aus der Legacy-Welt und aus modernen Systemen zusammenführt. Diese zentrale Orchestrierungsschicht koordiniert den Datenfluss zwischen der alten und der neuen Welt und schafft eine einheitliche Basis für KI-Agenten. Anstatt auf isolierte Punkt-zu-Punkt-Verbindungen zu setzen, ermöglicht die Plattform eine ganzheitliche Integration. So vereint sie sowohl Legacy-Systeme als auch moderne KI-Services in einem orchestrierten Workflow.

Der unterschätzte Zeitfresser

Eine überraschende Erkenntnis aus der Praxis ist, dass 80 Prozent der Entwicklungszeit bei KI-Projekten auf Datenvorbereitung entfallen (AI Multiple, 2024). Für KI-Agenten bedeutet das konkrete Herausforderungen: Daten müssen in Echtzeit und in bestimmten Datenformaten verfügbar sein, auch wenn mehrere KI-Agenten parallel darauf zugreifen.

Produktive KI-Agenten benötigen daher eine durchdachte, sorgfältige Datenarchitektur. Event-Streaming sorgt für aktuelle Informationen, während Change Data Capture sicherstellt, dass KI-Agenten immer mit den neuesten Daten arbeiten. Ohne diese Grundlagen werden KI-Agenten schnell zu unzuverlässigen Systemen. Gleichzeitig zeigt sich in der Praxis: Ohne klar definierte Anwendungsfälle drohen Architekturentscheidungen ineffizient zu werden. Wer frühzeitig konkrete Geschäftsprozesse identifiziert, kann seine Datenarchitektur gezielt für die Anforderungen der Agenten optimieren.

Die unterschätzte Komplexität

Sobald mehrere KI-Agenten parallel arbeiten, entstehen neue Probleme: Was passiert, wenn zwei KI-Agenten gleichzeitig denselben Kunden bearbeiten? Wie koordiniert man Workflows zwischen verschiedenen KI-Agenten? Und wie verhindert man, dass sich KI-Agenten gegenseitig blockieren?

Die Antwort liegt in zentraler Orchestrierung - also einer übergeordneten Instanz, die die Interaktion zwischen verschiedenen Agenten klar strukturiert. Plattformlösungen wie Dataiku unterstützen Unternehmen dabei, solche Agenten-Workflows entlang definierter Abläufe zu steuern, Zuständigkeiten zu verteilen und Prozesse automatisiert zu priorisieren – unter Einhaltung zentraler Sicherheits- und Qualitätsstandards.

Flexibilität statt Vendor Lock-in

Die KI-Landschaft verändert sich mit einer bislang beispiellosen Geschwindigkeit. Wer heute ausschließlich auf einen LLM-Anbieter setzt, riskiert morgen hohe Kosten, geringe Performance oder verpasste Innovationen. Daher setzen erfolgreiche Implementierungen auf Provider-Abstraktion: Eine Gateway-Architektur, die es ermöglicht, zwischen verschiedenen LLM-Services zu wechseln, ohne Anwendungscode zu ändern.

Unternehmen stehen vor der Herausforderung, den Einsatz großer Sprachmodelle (LLMs) effizient und flexibel zu gestalten. Plattformbasierte Lösungen sollten dabei ermöglichen, verschiedene Anbieter zu integrieren, Wechseloptionen offen zu halten und wirtschaftliche Kriterien wie Antwortgeschwindigkeit, Skalierbarkeit und Kosten im Blick zu behalten. Eine intelligente Architektur hilft, Serviceverfügbarkeit zu sichern und zugleich Investitionsrisiken zu minimieren.

Kontrolle ohne lästige Innovationsbremsen

Governance darf nicht als nachgelagerter Kontrollmechanismus verstanden werden, sondern muss von Beginn an integraler Bestandteil jeder GenAI-Initiative sein. Zentrale Transparenz über alle eingesetzten Modelle und Agenten, verbindliche Freigabeprozesse vor dem Produktiveinsatz sowie ein kontinuierliches Monitoring von Nutzen und Risiken bilden unter anderem die Grundlage für vertrauenswürdige Skalierung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wenn IT- und Compliance-Teams mit klaren Bewertungsrahmen arbeiten können, entsteht ein Umfeld, in dem Innovation möglich ist – im Einklang mit den Fachbereichen und regulatorischen Anforderungen.

Zentrale Koordination als Erfolgsfaktor

Die erfolgreiche Einführung von KI-Agenten erfordert effektiv durchdachte Architektur-Entscheidungen. Zentrale Orchestrierung löst die Koordinationsprobleme, während eine flexibler Abstraktionsschicht für die Arbeit mit Daten vor dem Vendor Lock-in schützt. Wer diese Grundlagen früh etabliert, kann KI-Agenten sicher und effizient skalieren.


* Der Autor Christian Deponte ist AVP und GM Central Europe bei Dataiku. Mit über 15 Jahren Erfahrung in Enterprise-Technologie und Data Science leitet er die strategische Expansion von KI-Lösungen in der DACH-Region.

Bildquelle: Dataiku

(ID:50508590)