Nach zähen Verhandlungen hat sich die EU auf schärfere Regeln für Künstliche Intelligenz (KI) geeinigt. Es seien weltweit die ersten Regeln für KI, teilten Europaparlament und die EU-Staaten am Freitagabend in Brüssel mit. Die wichtigsten Fragen und Antworten.
Die Europäische Union (EU) hat sich in der Nacht zum 9. Dezember auf Regeln für die Nutzung Künstlicher Intelligenz (KI) verständigt.
(Bild: Gorodenkoff - stock.adobe.com)
Unter Künstlicher Intelligenz (KI) versteht man den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen. Ziel ist es, komplexe Aufgaben erledigen zu lassen, die normalerweise menschliche Intelligenz erfordern. Generelle Problemlösungsmaschinen (Artificial General Intelligence) sind trotz aller Fortschritte noch nicht in Sicht.
Allerdings finden enger definierte KI-Anwendungen in unserer heutigen Welt bereits breite Verwendung: Dazu zählen etwa automatische Übersetzungen, personalisierte Empfehlungen beim Online-Shopping, Gesichtserkennung am Handy, aber auch intelligente Thermostate oder Navis. Auch die Anwendungen der generativen KI wie der Text-Roboter ChatGPT gehören zu den enger definierten KI-Anwendungen.
Warum braucht man ein Gesetz dafür?
KI gilt als Zukunftstechnologie. Experten vermuten, dass die Technologie künftig praktisch alle Aspekte in der Wirtschaft, aber auch im Alltag betreffen könnte und sich zum Beispiel der Arbeitsmarkt dadurch massiv wandeln wird: Manche Jobs werden sich verändern, andere werden vielleicht ganz verschwinden.
KI gilt aber auch als Technologie, die Gefahren birgt. So warnte etwa der Chef des ChatGPT-Erfinders OpenAI, Sam Altman, vor Falschinformationen mit Hilfe Künstlicher Intelligenz und sprach sich deshalb für eine Regulierung aus. Fotos oder Videos können durch KI leicht manipuliert werden. Als Problem gilt auch, dass KI teilweise mit verzerrten Datensätzen trainiert wurden und damit Personen diskriminiert werden. Auch der Einsatz in der Kriegsführung wird für möglich gehalten.
Worauf hat sich die EU nun verständigt?
Die nun vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant werden KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit haben.
Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein. Allerdings wird es Ausnahmen für biometrische Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei der Gefahr eines Terroranschlags oder bei der gezielten Suche von Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen, das EU-Parlament wollte eigentlich ein komplettes Verbot.
Ein weiterer Streitpunkt war die Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT. Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Nun einigten sich die Unterhändler auf bestimmte Transparenzpflichten für diese Modelle.
Zu streng oder zu schwach? – Warum das EU-Regelwerk für KI spaltet
Je nach Interesse und Blickwinkel sind die Reaktionen ganz unterschiedlich: Kritisiert wird entweder eine zu starke, innovationsfeindliche Regulierung oder nicht ausreichende Beschränkungen von KI-Anwendungen. Das Europaparlament und die EU-Staaten stellten heraus: Es sind weltweit die ersten Regeln für KI. EU-Kommissionspräsidentin Ursula von der Leyen begrüßte die Einigung und bezeichnete das Gesetz als „weltweites Novum“.
Jedoch kommt von zwei Seiten Kritik. Die einen halten die Regeln für zu streng, die anderen für zu lasch. Die Wirtschaft befürchtet, die künftige EU-Verordnung werde Innovationen hemmen. Aus Sicht von Verbraucherschützern werden die Risiken mancher Anwendungen nicht ernst genug genommen.
Nach Ansicht des Bundesverbands der Deutschen Industrie (BDI) droht Europa bei der Schlüsseltechnologie KI nun ins Hintertreffen zu geraten. „Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite“, sagte BDI-Geschäftsführungsmitglied Iris Plöger. Die Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen weniger statt mehr Rechtssicherheit brächten.
Die europäische Verbraucherschutzorganisation Beuc kritisierte, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. „So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können“, hieß es.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Bundesverbraucherschutzministerin Steffi Lemke (Grüne) sieht in der KI-Verordnung hingegen einen Schutz für Verbraucher vor den Risiken der neuen Technologie. „In den Verhandlungen haben wir uns besonders dafür eingesetzt, dass KI-Systeme transparent, nachvollziehbar und überprüfbar gestaltet werden. So müssen nun künftig Unternehmen, die den Einsatz von KI-Technologien anbieten, Informationen über die Funktionsweise ihrer Systeme bereitstellen und KI-gestützte Entscheidungen erläutern“, berichtete Lemke am Samstag. Bei Verstößen könnten Verbraucherverbände mit Verbandsklagen gerichtlich dagegen vorgehen.
„Praxistaugliche Regeln“ fehlen
Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder kommentiert den politischen Kompromiss zum EU Act
„Das Risiko ist groß, dass europäische Unternehmen durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können. So wurde unnötigerweise vom bislang angestrebten anwendungsbezogenen und risikobasierten Ansatz abgewichen. Die sogenannten General Purpose AI Models werden als Technologie an sich reguliert, unabhängig von der konkreten Anwendung. Zwar soll dabei das bewährte und grundsätzlich begrüßenswerte Instrument der verpflichtenden Selbstregulierung durch sogenannte Codes of Practice genutzt werden. Allerdings sind diese nur für einen geringen Teil der gesamten Anforderungen vorgesehen, der größte Teil wird starr im Gesetz selbst fixiert. So besteht die Gefahr, dass dieses besonders wichtige KI-Feld durch Vorgaben eingeschränkt wird, die sich nicht an neue technologische Entwicklungen anpassen lassen. Wie schwierig solche notwendigen Änderungen werden dürften, haben bereits die Verhandlungen zum AI Act selbst gezeigt. Bei diesem zentralen und hoch umstrittenen Thema wurde nun zwar auf dem Papier ein grundsätzlicher Kompromiss gefunden. Die große Herausforderung wird sein, die nächtliche Einigung als nächstes in praxistaugliche Regeln zu überführen, die eine Grundlage für den verantwortungsvollen Umgang mit KI schafft. Die Gefahr, dass wir Anwendung und Entwicklung von KI aus Europa verhindern, statt zu ermöglichen, besteht nach wir vor. Die Erfahrungen mit der Datenschutz-Grundverordnung zeigen zudem, dass es nicht ausreicht, richtige Ziele auf Papier festzuhalten. Die Herausforderung ist, in der Praxis eine echte Balance zwischen Risikomanagement und Förderung von Innovation herzustellen. Europa hat die Chance, eine Vorreiterrolle bei der ethischen und verantwortungsvollen Entwicklung von KI einzunehmen. Aber dies erfordert auch eine unbürokratische und gut strukturierte Umsetzung des Rechtsakts. Dazu muss schon jetzt ein zielgerichteter Dialog zwischen allen Beteiligten begonnen werden. Unternehmen brauchen zügig Rechtssicherheit und praxisnahe Unterstützung bei der Umsetzung des AI Act.“
Europa droht nach Ansicht des Bundesverbands der Deutschen Industrie (BDI) bei der Schlüsseltechnologie KI nun ins Hintertreffen zu geraten. „Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite“, sagte BDI-Geschäftsführungsmitglied Iris Plöger. Die Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen weniger statt mehr Rechtssicherheit brächten.
Der Technikbranchenverband Bitkom sprach von einem „politischen Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft“. Der erzielte Kompromiss greife tief in die Technologie ein.“ Die EU bindet damit den Unternehmen einen regulatorischen Klotz ans Bein. Das Risiko ist groß, dass europäische Unternehmen durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können“, sagte Bitkom-Hauptgeschäftsführer Bernhard Rohleder.
Der Bundesminister für Digitales, Volker Wissing (FDP), enthielt sich einer endgültigen Bewertung. Einerseits sei verhindert worden, dass bestimmte Systeme in den Hochrisikobereich fallen, andererseits müsse das Regelwerk Innovationen ermöglichen und verhältnismäßig sein, sagte er am Samstag. „Ob dies gelungen ist, werden wir uns in den nächsten Tagen sehr genau anschauen.“
Wie geht es nun weiter?
Zunächst müssen EU-Staaten und Europaparlament dem Vorhaben noch offiziell zustimmen. Das gilt aber als Formsache. Gelten soll das Gesetz dann zwei Jahre nach Inkrafttreten.