Öffentliche Akzeptanz und sichere Datennutzung Agentic AI: Warum der Markt über den Erfolg entscheidet

Ein Gastbeitrag von Jeremiah Stone* 4 min Lesedauer

Anbieter zum Thema

KI-Agenten gelten als nächste Entwicklungsstufe der künstlichen Intelligenz (KI). Sie versprechen neue Möglichkeiten der Automatisierung, werfen aber zugleich drängende Fragen nach ethischen Standards, Datenschutz und Regulierung auf.

Agentic AI, als nächste Stufe der KI-Entwicklung, ermöglicht autonome Entscheidungen und kann Unternehmen signifikante Zeiteinsparungen bieten, wirft jedoch auch wichtige Fragen zu ethischen Standards und Datenschutz auf.(Bild: ©  Alexander Limbach - stock.adobe.com)
Agentic AI, als nächste Stufe der KI-Entwicklung, ermöglicht autonome Entscheidungen und kann Unternehmen signifikante Zeiteinsparungen bieten, wirft jedoch auch wichtige Fragen zu ethischen Standards und Datenschutz auf.
(Bild: © Alexander Limbach - stock.adobe.com)

Einer aktuellen Deloitte-Studie zufolge ist das Interesse an KI-Agenten in deutschen Unternehmen besonders hoch: 62 Prozent der Befragten zeigen gesteigertes Interesse an dieser Technologie – deutlich mehr als der weltweite Durchschnitt von 52 Prozent. Deutschland nimmt dabei auch eine führende Rolle bei der Entwicklung von KI-Agenten ein. Anders als generative KI, die Inhalte erzeugt, sollen KI-Agenten, sogenannte Agentic AI, eigenständig Entscheidungen treffen und Aufgaben aktiv übernehmen. Eine aktuelle Untersuchung zeigt zudem, dass KI-Agenten im Durchschnitt 18 Arbeitsstunden pro Woche einsparen könnten.

Doch es ist ein Thema, das spaltet: Während manche KI-Agenten als technischen Durchbruch feiern, warnen andere vor Risiken wie mangelnder Steuerung, unklaren Verantwortlichkeiten und potenziellen Arbeitsplatzverlusten. Es wird gefordert, bei der Einführung von KI-Agenten klare regulatorische und ethische Leitplanken zu setzen und dass die Kontrolle letztlich beim Menschen bleiben muss.

Die Europäische Union hat mit dem AI Act das weltweit erste Gesetz zur Regulierung von künstlicher Intelligenz verabschiedet. In den USA hingegen verfolgt die neue Regierung einen deutlich lockereren Kurs: Dort wurden Anfang des Jahres zentrale regulatorische Hürden für die KI-Entwicklung aufgehoben. Im Silicon Valley sieht man Regularien oft als Hemmschuh für Innovation, insbesondere, wenn es um den Zugang zu großen Datenmengen und den Schutz personenbezogener Daten geht. Gleichzeitig zeigt sich im Vergleich mit China, dass gerade die europäische Herangehensweise zum Wettbewerbsvorteil werden könnte – denn sie gilt als vertrauenswürdiger und ethischer Gegenentwurf zu staatlich kontrollierten KI-Modellen.

Der Markt als Gradmesser für Akzeptanz

So wichtig Regulierung auch ist – letztlich wird der Markt entscheidend sein für den Erfolg von KI-Agenten. Öffentliche Akzeptanz, wirtschaftliche Relevanz und der Umgang mit Datenschutzfragen werden maßgeblich beeinflussen, welche Technologien sich durchsetzen. Viele Unternehmen zögern aktuell noch, weil sie durch Medienberichte und Stimmen aus der Branche verunsichert sind, die neue Technologien pauschal als unsicher deklassieren. Doch bei verantwortungsvoller Anwendung können KI-Systeme durchaus den geltenden Datenschutz- und Sicherheitsanforderungen gerecht werden.

Letztlich entscheiden Konsumenten und Geschäftspartner täglich, mit wem sie zusammenarbeiten wollen. Grundlage dieser Entscheidung sind zumeist Vertrauen, Wertschöpfung und Qualität. Diese Prinzipien werden auch im Kontext von Agentic AI von Bedeutung sein. Ein zentraler Aspekt bleibt bei alledem der Umgang mit Daten. Gerade im Konsumentenbereich basieren KI-Technologien auf der Nutzung großer Mengen personenbezogener Informationen. Die Debatte sollte sich daher nicht allein auf die Frage konzentrieren, ob menschliche Aufsicht notwendig ist, sondern vielmehr auf das richtige Gleichgewicht: Zwischen Datennutzung, Anonymisierung und der Befähigung von Menschen, ihre Daten bewusst und gezielt zu teilen.

Lösungsansätze: Datennutzung verantwortungsvoll gestalten

Die Beschaffung der großen Datenmengen zum Training von KI erfolgte bislang häufig überwiegend durch die massenhafte und teils fragwürdige Nutzung öffentlich zugänglicher Inhalte. In manchen Rechtsordnungen gilt das nicht als Piraterie, in anderen sehr wohl. Ein Lösungsansatz liegt in der Idee einer demokratisierten Datenökonomie. Einzelpersonen könnten – ähnlich wie Künstler, die ihre Werke über Plattformen wie Spotify anbieten – ihre Daten in aggregierter Form lizenzieren. Ein solches Prosumer-Modell würde nicht nur die Datensouveränität stärken, sondern auch neue Geschäftsmodelle ermöglichen.

Auf Unternehmensseite entstehen hier bereits erste Ansätze für neue Geschäftsmodelle. Unternehmen bauen dabei bewusst eigene Datensätze auf, die sie kontinuierlich pflegen. Dadurch schaffen sie sowohl regulatorische Sicherheit als auch differenzierte Services und heben sich so von ihren Wettbewerbern ab. Der Knackpunkt ist, dass nur kapitalstarke Unternehmen in der Lage sind, solche Investitionen zu tätigen. Es braucht Milliardenbeträge oder ein besonders kreatives Geschäftsmodell, um entsprechende Datenbestände aus Organisationen nutzbar zu machen.

Was andere Branchen vormachen

Um organisationsübergreifend ethische und rechtliche Fragen im Umgang mit KI-Agenten anzugehen, könnte ein Blick in die Medizinbranche die nötige Inspiration geben. Dort gibt es seit Jahrzehnten sogenannte Datenzentralen, die beispielsweise DNA- oder Krankheitsdaten anonymisiert speichern. Forschende oder Investoren erhalten gegen Bezahlung Zugang, während die Datengeber geschützt oder entschädigt werden. Ein gutes Beispiel ist das schwedische SKA-Institut, das ein ausgewogenes Modell zwischen öffentlichem Vertrauen und privater Nutzung etabliert hat. Auch in der Biotechnologiebranche gibt es Datenplattformen, die ethische, regulatorische und individuelle Interessen in Einklang bringen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ein solches Modell ließe sich auch auf andere Branchen übertragen. So könnten sich Berufs- oder Organisationsverbände zusammenschließen, um ihre Daten gemeinschaftlich und kontrolliert zugänglich zu machen. Auf diese Weise entstünde eine ausreichende Datenmenge, um echten Mehrwert zu schaffen und gleichzeitig die notwendige Aufsicht sicherzustellen.

Agentic AI ist ein gesellschaftliches Projekt

Schließlich bleibt festzuhalten: Agentic AI ist mehr als nur ein technologischer Trend. Sie ist ein gesellschaftliches Projekt. Der Erfolg dieser Technologie hängt nicht allein von Innovation oder Regulierung ab, sondern von der Fähigkeit, mit Daten verantwortungsvoll umzugehen. Der Markt kann hier eine treibende Kraft sein. Doch er muss dazu Vertrauen schaffen, Kooperation ermöglichen und individuelle Datennutzung fair entlohnen. In diesem Sinne ist nicht nur menschliche Aufsicht gefragt, sondern vor allem Datenkompetenz, Transparenz und ein ethisch fundiertes Geschäftsmodell.


* Der Autor Jeremiah Stone ist seit 2022 CTO bei SnapLogic.

Bildquelle: SnapLogic

(ID:50474000)