KI und Urheberrecht Gema-Pflicht für die KI-Nutzung?

Ein Gastbeitrag von Sven Schlotzhauer* 6 min Lesedauer

Anfangs drehte sich die Debatte darum, ob KI-Outputs urheberrechtlich schutzfähig sind. Inzwischen stehen andere Fragen im Fokus: Welche Daten dürfen rechtmäßig zum Training genutzt werden – und was gilt, wenn ein Modell Input 1:1 als Output reproduziert?

Das LG München sah eine Urheberrechtsverletzung, weil ChatGPT geschützte Liedtexte wörtlich ausgab. Was hat das Landgericht München in diesem Fall entschieden?(Bild:  Canva / KI-generiert)
Das LG München sah eine Urheberrechtsverletzung, weil ChatGPT geschützte Liedtexte wörtlich ausgab. Was hat das Landgericht München in diesem Fall entschieden?
(Bild: Canva / KI-generiert)

Die Verwendung von Daten zu KI-Trainingszwecken ist nicht grenzenlos gestattet. Beispielsweise könnten die Trainingsdaten urheberrechtlich als Werke oder Datenbanken geschützt sein. Auch könnten die verwendeten Daten personenbezogene Daten enthalten. Und schließlich könnte das Trainingsmaterial auch als Geschäfts- und Betriebsgeheimnisse eines Vertragspartners geschützt sein. Bestimmte Berufsgruppen wie Ärzte oder Anwälte müssen darüber hinaus berufsrechtliche Verschwiegenheitspflichten beachten. Ein Verstoß gegen diese könnte sogar strafrechtliche Konsequenzen nach sich ziehen.

Beispielfall: Liedtext bei ChatGPT

Das Landgericht München hat sich nun in einem viel beachteten Urteil mit der Frage auseinandergesetzt, ob die wörtliche Wiedergabe eines urheberrechtlich geschützten Liedtextes als Output von ChatGPT eine Schadensersatzpflicht nach sich ziehen kann.

Die Gema ist eine sogenannte Verwertungsgesellschaft für Werke der Musik. Sie verwaltet in Deutschland die urheberrechtlichen Nutzungsrechte ihrer Mitglieder, zieht Vergütungen nach bestimmten Tarifen ein und kehrt die Vergütungen an die Autoren und andere Berechtigte aus. Sie erhob Klage gegen den Betreiber des KI-Systems ChatGPT, OpenAI. Dem Gericht wurde demonstriert, dass ChatGPT bei bestimmten Prompts die unveränderten Liedtexte von Künstlern als Output zurücklieferte.

Wenn der KI-Chatbot auf einfache Prompts unter anderem den vollständigen Text von „Es schneit“ und „In der Weihnachtsbäckerei“ von Rolf Zuckowski ausspielt, sieht nicht nur die Gema Verwertungsgesellschaft das als Problem an.(Bild:  Canva / KI-generiert)
Wenn der KI-Chatbot auf einfache Prompts unter anderem den vollständigen Text von „Es schneit“ und „In der Weihnachtsbäckerei“ von Rolf Zuckowski ausspielt, sieht nicht nur die Gema Verwertungsgesellschaft das als Problem an.
(Bild: Canva / KI-generiert)

Passend zur Jahreszeit betraf dies u.a. „Es schneit“, und „In der Weihnachtsbäckerei“ von Rolf Zuckoswski, aber auch „Über den Wolken“ von Reinhard Mey oder „Bochum“ von Herbert Grönemeyer. Es ist schwer vorstellbar, dass ChatGPT sich auf entsprechende Prompts hin exakt einen Text „ausdenkt“, der identisch mit den oben genannten ist. Nachdem der Betreiber von ChatGPT die Zustimmung der betroffenen Urheber nicht eingeholt hatte, kam das LG München zu der Auffassung, es liege eine Urheberrechtsverletzung vor. OpenAI wurde zur Erteilung von Auskünften und zur Zahlung von Schadensersatz verpflichtet.

Was sagt die KI-Verordnung?

Die KI-Verordnung besagt, dass Anbieter von KI-Modellen mit allgemeinem Verwendungszweck verpflichtet sind, „eine Strategie zur Einhaltung des Urheberrechts (…)“ zu implementieren. Werden urheberrechtlich geschützte Werke verwendet, ist stets die Zustimmung des betreffenden Inhabers der Nutzungs- oder Verwertungsrechte erforderlich, es sei denn, eine Ausnahme gestattet die Nutzung ohne Zustimmung. Die bekannteste Ausnahme dürfte die sogenannte Privatkopie sein. Diese Ausnahme gestattet es jedermann, einzelne Werke zu rein privaten Zwecken zu kopieren, wenn eine rechtmäßige Vorlage genutzt und keine Schutzmaßnahmen wie Kopierbeschränkungen umgangen werden.

Im Zusammenhang mit KI spielt die Ausnahme des sogenannten Text- und Data Minings eine Rolle. Danach sind Vervielfältigungen für das Text und Data Mining von rechtmäßig zugänglichen Werken grundsätzlich zulässig. Das gilt aber nicht, wenn sich der Rechteinhaber derartige Nutzungen vorbehalten hat. Dazu muss er einen solchen Vorbehalt auch äußern. Ist das Werk online zugänglich, muss der Nutzungsvorbehalt in maschinenlesbarer Form erfolgen.

Unter Juristen war man bisher der Auffassung, dass diese Ausnahme für das Trainieren von KI-Systemen einschlägig sei. Das Landgericht Hamburg hat das in einem Urteil von 2024 auch bestätigt, kam aber dann zu dem Ergebnis, der vom Rechteinhaber geäußerte Vorbehalt verhindere eine Anwendung dieser Ausnahme.

Das Urteil des LG München

OpenAI vertrat in dem Verfahren vor dem LG München die Auffassung, die Vervielfältigungen und etwaige Bearbeitungen seien von der Text und Data Mining Schranke gedeckt, denn diese Schranke erfasse auch zwingend etwaige aus dem Training resultierende Vervielfältigungen in dem KI-Modell. Im Übrigen, so OpenAI, sei dem EU-Gesetzgeber die massenhafte Nutzung von Daten für Zwecke des Trainings von KI-Modellen ja bekannt gewesen und diese sei sogar Anlass zur Einführung der Text und Data Mining Schranke gewesen. Auch könne man die beim KI-Training stattfindende Analyse der in den Trainingsdaten enthaltenen Daten mit dem reinen Gebrauch von Werken vergleichen, welche von den urheberrechtlichen Verwertungsrechten nicht erfasst sei. Hintergrund ist hier, dass der reine „Genuss“ eines Werks – wie das Anhören von Musik – keine eigene urheberrechtliche Handlungskategorie ist. Wer also einmal eine Kopie eines Werks erworben hat, muss (natürlich) nicht bei jedem Anhören eine neue Vergütung bezahlen. Das könne man auch auf das Trainieren eines KI-Systems übertragen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das LG München dagegen vertrat die Auffassung, die Text und Data Mining Schranke sei zwar grundsätzlich anwendbar. Man müsse aber differenzieren zwischen Vervielfältigungen, die nur der Überführung in ein digitales Format oder reinen Analysezwecken dienten und Vervielfältigungen, die im KI-Modell verbleiben. Auch sei bei der rechtlichen Beurteilung zu unterscheiden zwischen den einzelnen Phasen des Vorgangs, nämlich im Einzelnen dem Erstellen des Trainingsmaterials, dem Trainieren des KI-Modells und der nachfolgenden Nutzung des trainierten Modells durch Prompts und Outputs. Wenn aber bei dem Training nicht nur Informationen aus Trainingsdaten extrahiert, sondern Werke vervielfältigt würden (und diese somit im KI-Modell verblieben), dann stelle das kein Text und Data Mining mehr dar. Es erkannte in dem Vorgehen von ChatGPT eine sogenannte „Memorisierung“. OpenAI verteidigte sich damit, die Klägerin habe durch entsprechendes Prompting die Ausgabe der Texte provoziert. Allerdings waren die Prompts der Gema sehr einfach gehalten, z.B. „Wie lautet der Text des Titels XY“. Daraufhin gab ChatGPT den vollständigen und korrekten Text des betreffenden Liedes aus.

Als Folge aus der Memorisierung nahm das LG München eine urheberrechtliche Vervielfältigung an, die – wenn sie ohne die Zustimmung des Berechtigten vorgenommen wird – zu Unterlassung, Auskunft und Schadenersatz verpflichtet.

Konsequenzen aus dem Urteil

Das Urteil zeigt, dass Anbieter und Nutzer von KI-Systemen sowohl Training als auch Nutzung sorgfältig rechtlich vorbereiten müssen: Was ist die Datenbasis für das KI-Training? Woher kommen die genutzten Datensätze und unterliegen diese von vornherein rechtlichen Beschränkungen? Muss für die Nutzung eventuell erst eine rechtliche Grundlage in Form eines Vertrags geschaffen werden? Hat der Vertragspartner vielleicht sogar einen Vorbehalt gegen die Nutzung seiner Daten für Zwecke des Trainings eines KI-Modells geäußert? Wer sind die verantwortlichen Stakeholder im Unternehmen?

Sind personenbezogene Daten im Spiel oder kann das zumindest nicht ausgeschlossen werden, ist zwingend die datenschutzrechtliche Zulässigkeit der Nutzung dieses Datensatzes zu klären. Alternativ müsste vor dem Trainingsbeginn für eine zuverlässige Anonymisierung gesorgt werden. In jedem Fall sollte der Datenschutzbeauftragte des Unternehmens zu Rate gezogen werden.

Ebenfalls zu prüfen sind das Geschäftsgeheimnisgesetz oder andere Gesetze, die der Vertraulichkeit von Informationen dienen; auch hier könnte ein Verstoß schnell zu einer Abmahnung und Schadenersatzansprüchen führen. Ein Beispiel: Die Datenbestände einer Arztpraxis enthalten nicht nur eine Vielzahl von personenbezogenen Patientendaten, sondern auch urheberrechtlich geschützte Werke in Form von Bildern oder Auszügen aus der medizinischen Literatur. Zusätzlich unterliegt der Arzt berufsrechtlichen Schweigepflichten, deren Verletzung sogar strafrechtliche Konsequenzen haben kann.

Lässt man nun die leider zu oft geübte Praxis der sogenannten Schatten-KI im Unternehmen beiseite, bei der durch die Mitarbeiter „auf eigene Faust“ und ungeregelt vertrauliche Daten in öffentlich verfügbare KI-Modelle wie ChatGPT oder Perplexity hochgeladen werden, dann müsste der Arzt bei der Nutzung von jedem KI-System gleichwohl dafür sorgen, dass dem Anbieter entsprechende datenschutzrechtliche Verpflichtungen auferlegt werden, das KI-System nicht memorisiert und die hochgeladenen Daten keine Geschäfts- und Betriebsgeheimnisse Dritter offenbaren.

Eine solche Vorabprüfung ist nicht nur für eine kleine Arztpraxis, sondern für jedes Unternehmen eine Herausforderung. Am Ende ist sie jedoch unter Compliance-Gesichtspunkten alternativlos. Aus diesem Grund sieht die KI-Verordnung vor, dass Unternehmen sicherstellen müssen, dass Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse verfügen.


* Der Autor Sven Schlotzhauer ist Fachanwalt für IT-Recht und Partner der Sozietät von Boetticher in München. Er berät regelmäßig Anwender und Anbieter von KI-Systemen und ist auf Fragen des IT-Rechts, des eCommerce und des Datenschutzrechts spezialisiert.

Bildquelle: Boetticher

(ID:50655977)