Wer haftet für die möglichen Fehler einer Künstlichen Intelligenz (KI), wenn diese zu einem Schaden führen? Die Entwickler der KI, die Betreiber der KI oder die Nutzer der KI? Diese Frage muss geklärt werden, wenn KI zunehmend in sensiblen und kritischen Bereichen zum Einsatz kommt. Auf EU-Ebene gibt es hierzu wichtige Entwicklungen im Bereich Produkthaftung.
Die EU-Kommission will die europäischen Haftungsvorschriften für fehlerhafte Produkte modernisieren und dabei erstmals die Haftungsregeln für Künstliche Intelligenz in der EU harmonisieren.
Der Bericht warnte jedoch auch davor, dass mit diesen Möglichkeiten auch ein „breites Spektrum an Risiken einhergeht, das nicht nur die Einhaltung gesetzlicher Vorschriften, sondern auch Haftungs- und Reputationsrisiken umfasst, wenn algorithmische Entscheidungen unbeabsichtigte und potenziell schädliche Folgen auslösen“.
Dies ist nur ein Beispiel von vielen, denn über KI als Risiko und einer möglichen Haftung für KI-Fehler wird schon lange und vielfältig diskutiert. Nicht zuletzt die Datenschutzaufsichtsbehörden haben sich auch zu den Fragen der KI-Haftung geäußert.
Verantwortung und Haftung müssen auch bei KI geregelt sein
Gut vier von fünf Bundesbürgerinnen und Bundesbürger halten eine Regulierung von Künstlicher Intelligenz (KI) für sinnvoll (82 Prozent), so eine Forsa-Umfrage im Auftrag des TÜV-Verbands.
In der Befragung ging es konkret um die geplante europäische KI-Verordnung. Produkte und Anwendungen mit Künstlicher Intelligenz sollen künftig in Abhängigkeit vom Risiko, das von ihnen ausgeht, bestimmte Sicherheits- und Qualitätsanforderungen einhalten müssen. „Die Europäische Union leistet mit der KI-Verordnung weltweit Pionierarbeit“, sagte Prof. Axel Stepken, Präsident des TÜV-Verbands. „Der AI Act wird für mehr Rechtssicherheit sorgen und dazu beitragen, die enormen Potenziale Künstlicher Intelligenz besser auszuschöpfen.“
Aber auf EU-Ebene tut sich noch mehr mit Blick auf KI. Nach fast 40 Jahren will die EU-Kommission die europäischen Haftungsvorschriften für fehlerhafte Produkte modernisieren und erstmals die Haftungsregeln für Künstliche Intelligenz (KI) in der EU harmonisieren (KI-Haftungsrichtlinie / AI Liability Directive – AILD). Dazu hat sie zwei Gesetzgebungsvorschläge vorgelegt. Die neuen Vorschriften sollen den Unternehmen Rechtssicherheit schaffen, damit diese in neue und innovative Produkte investieren können. Zudem geht es darum, dass Opfer angemessen entschädigt werden können, wenn fehlerhafte Produkte Schäden verursachen.
Die für Werte und Transparenz zuständige Kommissionsvizepräsidentin Věra Jourová sagte: „Wir wollen, dass die KI-Technologien in der EU florieren. Um dies zu erreichen, müssen die Menschen digitalen Innovationen vertrauen. Mit dem heutigen Vorschlag zur zivilrechtlichen Haftung von KI geben wir den Kunden Instrumente für Abhilfe bei durch KI verursachten Schäden an die Hand, damit sie über das gleiche Schutzniveau wie bei herkömmlichen Technologien verfügen, und wir gewährleisten Rechtssicherheit für unseren Binnenmarkt.“
EU-Justizkommissar Didier Reynders erklärte: „Bei der Beschäftigung mit dem enormen Potenzial neuer Technologien müssen wir stets die Verbrauchersicherheit gewährleisten. Angemessene Schutzstandards für die Bürgerinnen und Bürger der EU sind die Grundlage für das Vertrauen der Verbraucher und damit für erfolgreiche Innovationen. Neue Technologien wie Drohnen oder von KI betriebene Zustelldienste können nur funktionieren, wenn sich die Verbraucher sicher und geschützt fühlen. Heute schlagen wir moderne Haftungsvorschriften vor, die genau hierfür sorgen werden. Wir machen unseren Rechtsrahmen fit für die Realitäten des digitalen Wandels.“
Wie die KI-Haftung geregelt werden soll
Die EU-Kommission hat dargelegt, wie die neue KI-Haftung für Verbesserungen sorgen soll:
Zum einen soll die Richtlinie über KI-Haftung die Beweislast der Opfer erleichtern, indem die „Kausalitätsvermutung“ eingeführt wird: Wenn Opfer nachweisen können, dass jemand für die Nichteinhaltung einer bestimmten für den Schaden relevanten Verpflichtung verantwortlich war und dass ein ursächlicher Zusammenhang mit der KI-Leistung nach vernünftigem Ermessen wahrscheinlich ist, kann das Gericht davon ausgehen, dass diese Nichteinhaltung den Schaden verursacht hat. Andererseits kann die haftbare Person diese Vermutung widerlegen.
Zum anderen soll die neue Richtlinie über KI-Haftung Opfern helfen, Zugang zu einschlägigen Beweismitteln zu erhalten, wenn Schäden verursacht werden, weil zum Beispiel ein Anbieter die Anforderungen bei der Nutzung KI-gestützter Arbeitsvermittlungsdienste nicht einhält. Die Opfer können bei Gericht beantragen, die Offenlegung von Informationen über Hochrisiko-KI-Systeme anzuordnen. Damit können die Opfer die Person identifizieren, die haftbar gemacht werden könnte, und herausfinden, was zu dem Schaden geführt hat. Andererseits unterliegt die Offenlegung geeigneten Garantien zum Schutz sensibler Informationen wie Geschäftsgeheimnissen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Pläne zur KI-Haftung werden auch kritisch gesehen
Viele Branchenverbände und Wirtschaftsvertreter haben sich zur geplanten KI-Haftung zu Wort gemeldet. So erklärte der DIHK (Deutscher Industrie- und Handelskammertag): „Betroffen werden hauptsächlich Entwickler und Anbieter von Produkten und Systemen mit KI sein. Begünstigte sollen Unternehmen und Verbraucher sein, die Schäden im Zusammenhang mit Produkten erleiden, in denen KI eingesetzt wird. Wichtig aus Sicht der Wirtschaft ist es, ausgewogene und eindeutige Haftungsvorschriften zu schaffen, die Unternehmen einerseits ein hohes Schutzniveau vor Schäden bieten und andererseits Entwickler und Anbieter nicht unangemessen belasten und so Investitionen in Innovationen hemmen könnten.“
„Die Europäische Kommission setzt beim AILD (AI Liability Directive) auf den Ansatz der verschuldensabhängigen Haftung. Hier müssen die Verbraucherinnen und Verbraucher ein Verschulden des Anbieters nachweisen, um Schadensersatz zu erhalten. Die Hürden für die Nachweise, die Verbraucherinnen und Verbraucher dafür erbringen müssen, sind so hoch, dass es in der Praxis kaum möglich sein wird, Schadensersatz zu erhalten. Das liegt auch daran, dass KI-Systeme notorisch intransparent und hochkomplex sind. Die im AILD vorgesehenen Offenlegungspflichten für beklagte Anbieter schaffen hier keine effektive Abhilfe.“
Der vzbv fordert entsprechend, dass für KI-Systeme eine Gefährdungshaftung (verschuldensunabhängige Haftung) eingeführt wird. Für die Haftung des Anbieters sollte es dann ausreichen, wenn ein KI-System bei bestimmungsgemäßer Verwendung einen Schaden verursacht. Dann hätten Verbraucherinnen und Verbraucher im Schadensfall eine realistische Chance, tatsächlich Schadensersatz zu erhalten, so der vzbv.
Es bleibt also weiterhin spannend, wie die KI-Haftung letztlich geregelt werden wird, doch in jedem Fall wird die Haftung bei KI nun einer Regelung zugeführt, die bestehende Rechtsunsicherheiten beseitigen soll, und das ist auch notwendig. Immerhin gehört für fast die Hälfte der Unternehmen die Verunsicherung bei der Rechtslage zu den größten Hemmnissen für den KI-Einsatz, wie eine Bitkom-Umfrage zeigte. Unter anderem die Regelung zur KI-Haftung dürfte hier für mehr Klarheit und Rechtssicherheit sorgen, so die Erwartung auf EU-Ebene.