KI und Urheberrecht Gema-Pflicht für die KI-Nutzung?
Ein Gastbeitrag von
Sven Schlotzhauer*
6 min Lesedauer
Anfangs drehte sich die Debatte darum, ob KI-Outputs urheberrechtlich schutzfähig sind. Inzwischen stehen andere Fragen im Fokus: Welche Daten dürfen rechtmäßig zum Training genutzt werden – und was gilt, wenn ein Modell Input 1:1 als Output reproduziert?
Das LG München sah eine Urheberrechtsverletzung, weil ChatGPT geschützte Liedtexte wörtlich ausgab. Was hat das Landgericht München in diesem Fall entschieden?
(Bild: Canva / KI-generiert)
Die Verwendung von Daten zu KI-Trainingszwecken ist nicht grenzenlos gestattet. Beispielsweise könnten die Trainingsdaten urheberrechtlich als Werke oder Datenbanken geschützt sein. Auch könnten die verwendeten Daten personenbezogene Daten enthalten. Und schließlich könnte das Trainingsmaterial auch als Geschäfts- und Betriebsgeheimnisse eines Vertragspartners geschützt sein. Bestimmte Berufsgruppen wie Ärzte oder Anwälte müssen darüber hinaus berufsrechtliche Verschwiegenheitspflichten beachten. Ein Verstoß gegen diese könnte sogar strafrechtliche Konsequenzen nach sich ziehen.
Das Landgericht München hat sich nun in einem viel beachteten Urteil mit der Frage auseinandergesetzt, ob die wörtliche Wiedergabe eines urheberrechtlich geschützten Liedtextes als Output von ChatGPT eine Schadensersatzpflicht nach sich ziehen kann.
Die Gema ist eine sogenannte Verwertungsgesellschaft für Werke der Musik. Sie verwaltet in Deutschland die urheberrechtlichen Nutzungsrechte ihrer Mitglieder, zieht Vergütungen nach bestimmten Tarifen ein und kehrt die Vergütungen an die Autoren und andere Berechtigte aus. Sie erhob Klage gegen den Betreiber des KI-Systems ChatGPT, OpenAI. Dem Gericht wurde demonstriert, dass ChatGPT bei bestimmten Prompts die unveränderten Liedtexte von Künstlern als Output zurücklieferte.
Wenn der KI-Chatbot auf einfache Prompts unter anderem den vollständigen Text von „Es schneit“ und „In der Weihnachtsbäckerei“ von Rolf Zuckowski ausspielt, sieht nicht nur die Gema Verwertungsgesellschaft das als Problem an.
(Bild: Canva / KI-generiert)
Passend zur Jahreszeit betraf dies u.a. „Es schneit“, und „In der Weihnachtsbäckerei“ von Rolf Zuckoswski, aber auch „Über den Wolken“ von Reinhard Mey oder „Bochum“ von Herbert Grönemeyer. Es ist schwer vorstellbar, dass ChatGPT sich auf entsprechende Prompts hin exakt einen Text „ausdenkt“, der identisch mit den oben genannten ist. Nachdem der Betreiber von ChatGPT die Zustimmung der betroffenen Urheber nicht eingeholt hatte, kam das LG München zu der Auffassung, es liege eine Urheberrechtsverletzung vor. OpenAI wurde zur Erteilung von Auskünften und zur Zahlung von Schadensersatz verpflichtet.
Die KI-Verordnung besagt, dass Anbieter von KI-Modellen mit allgemeinem Verwendungszweck verpflichtet sind, „eine Strategie zur Einhaltung des Urheberrechts (…)“ zu implementieren. Werden urheberrechtlich geschützte Werke verwendet, ist stets die Zustimmung des betreffenden Inhabers der Nutzungs- oder Verwertungsrechte erforderlich, es sei denn, eine Ausnahme gestattet die Nutzung ohne Zustimmung. Die bekannteste Ausnahme dürfte die sogenannte Privatkopie sein. Diese Ausnahme gestattet es jedermann, einzelne Werke zu rein privaten Zwecken zu kopieren, wenn eine rechtmäßige Vorlage genutzt und keine Schutzmaßnahmen wie Kopierbeschränkungen umgangen werden.
Im Zusammenhang mit KI spielt die Ausnahme des sogenannten Text- und Data Minings eine Rolle. Danach sind Vervielfältigungen für das Text und Data Mining von rechtmäßig zugänglichen Werken grundsätzlich zulässig. Das gilt aber nicht, wenn sich der Rechteinhaber derartige Nutzungen vorbehalten hat. Dazu muss er einen solchen Vorbehalt auch äußern. Ist das Werk online zugänglich, muss der Nutzungsvorbehalt in maschinenlesbarer Form erfolgen.
Unter Juristen war man bisher der Auffassung, dass diese Ausnahme für das Trainieren von KI-Systemen einschlägig sei. Das Landgericht Hamburg hat das in einem Urteil von 2024 auch bestätigt, kam aber dann zu dem Ergebnis, der vom Rechteinhaber geäußerte Vorbehalt verhindere eine Anwendung dieser Ausnahme.
OpenAI vertrat in dem Verfahren vor dem LG München die Auffassung, die Vervielfältigungen und etwaige Bearbeitungen seien von der Text und Data Mining Schranke gedeckt, denn diese Schranke erfasse auch zwingend etwaige aus dem Training resultierende Vervielfältigungen in dem KI-Modell. Im Übrigen, so OpenAI, sei dem EU-Gesetzgeber die massenhafte Nutzung von Daten für Zwecke des Trainings von KI-Modellen ja bekannt gewesen und diese sei sogar Anlass zur Einführung der Text und Data Mining Schranke gewesen. Auch könne man die beim KI-Training stattfindende Analyse der in den Trainingsdaten enthaltenen Daten mit dem reinen Gebrauch von Werken vergleichen, welche von den urheberrechtlichen Verwertungsrechten nicht erfasst sei. Hintergrund ist hier, dass der reine „Genuss“ eines Werks – wie das Anhören von Musik – keine eigene urheberrechtliche Handlungskategorie ist. Wer also einmal eine Kopie eines Werks erworben hat, muss (natürlich) nicht bei jedem Anhören eine neue Vergütung bezahlen. Das könne man auch auf das Trainieren eines KI-Systems übertragen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das LG München dagegen vertrat die Auffassung, die Text und Data Mining Schranke sei zwar grundsätzlich anwendbar. Man müsse aber differenzieren zwischen Vervielfältigungen, die nur der Überführung in ein digitales Format oder reinen Analysezwecken dienten und Vervielfältigungen, die im KI-Modell verbleiben. Auch sei bei der rechtlichen Beurteilung zu unterscheiden zwischen den einzelnen Phasen des Vorgangs, nämlich im Einzelnen dem Erstellen des Trainingsmaterials, dem Trainieren des KI-Modells und der nachfolgenden Nutzung des trainierten Modells durch Prompts und Outputs. Wenn aber bei dem Training nicht nur Informationen aus Trainingsdaten extrahiert, sondern Werke vervielfältigt würden (und diese somit im KI-Modell verblieben), dann stelle das kein Text und Data Mining mehr dar. Es erkannte in dem Vorgehen von ChatGPT eine sogenannte „Memorisierung“. OpenAI verteidigte sich damit, die Klägerin habe durch entsprechendes Prompting die Ausgabe der Texte provoziert. Allerdings waren die Prompts der Gema sehr einfach gehalten, z.B. „Wie lautet der Text des Titels XY“. Daraufhin gab ChatGPT den vollständigen und korrekten Text des betreffenden Liedes aus.
Als Folge aus der Memorisierung nahm das LG München eine urheberrechtliche Vervielfältigung an, die – wenn sie ohne die Zustimmung des Berechtigten vorgenommen wird – zu Unterlassung, Auskunft und Schadenersatz verpflichtet.
Das Urteil zeigt, dass Anbieter und Nutzer von KI-Systemen sowohl Training als auch Nutzung sorgfältig rechtlich vorbereiten müssen: Was ist die Datenbasis für das KI-Training? Woher kommen die genutzten Datensätze und unterliegen diese von vornherein rechtlichen Beschränkungen? Muss für die Nutzung eventuell erst eine rechtliche Grundlage in Form eines Vertrags geschaffen werden? Hat der Vertragspartner vielleicht sogar einen Vorbehalt gegen die Nutzung seiner Daten für Zwecke des Trainings eines KI-Modells geäußert? Wer sind die verantwortlichen Stakeholder im Unternehmen?
Sind personenbezogene Daten im Spiel oder kann das zumindest nicht ausgeschlossen werden, ist zwingend die datenschutzrechtliche Zulässigkeit der Nutzung dieses Datensatzes zu klären. Alternativ müsste vor dem Trainingsbeginn für eine zuverlässige Anonymisierung gesorgt werden. In jedem Fall sollte der Datenschutzbeauftragte des Unternehmens zu Rate gezogen werden.
Ebenfalls zu prüfen sind das Geschäftsgeheimnisgesetz oder andere Gesetze, die der Vertraulichkeit von Informationen dienen; auch hier könnte ein Verstoß schnell zu einer Abmahnung und Schadenersatzansprüchen führen. Ein Beispiel: Die Datenbestände einer Arztpraxis enthalten nicht nur eine Vielzahl von personenbezogenen Patientendaten, sondern auch urheberrechtlich geschützte Werke in Form von Bildern oder Auszügen aus der medizinischen Literatur. Zusätzlich unterliegt der Arzt berufsrechtlichen Schweigepflichten, deren Verletzung sogar strafrechtliche Konsequenzen haben kann.
Lässt man nun die leider zu oft geübte Praxis der sogenannten Schatten-KI im Unternehmen beiseite, bei der durch die Mitarbeiter „auf eigene Faust“ und ungeregelt vertrauliche Daten in öffentlich verfügbare KI-Modelle wie ChatGPT oder Perplexity hochgeladen werden, dann müsste der Arzt bei der Nutzung von jedem KI-System gleichwohl dafür sorgen, dass dem Anbieter entsprechende datenschutzrechtliche Verpflichtungen auferlegt werden, das KI-System nicht memorisiert und die hochgeladenen Daten keine Geschäfts- und Betriebsgeheimnisse Dritter offenbaren.
Eine solche Vorabprüfung ist nicht nur für eine kleine Arztpraxis, sondern für jedes Unternehmen eine Herausforderung. Am Ende ist sie jedoch unter Compliance-Gesichtspunkten alternativlos. Aus diesem Grund sieht die KI-Verordnung vor, dass Unternehmen sicherstellen müssen, dass Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse verfügen.
* Der Autor Sven Schlotzhauer ist Fachanwalt für IT-Recht und Partner der Sozietät von Boetticher in München. Er berät regelmäßig Anwender und Anbieter von KI-Systemen und ist auf Fragen des IT-Rechts, des eCommerce und des Datenschutzrechts spezialisiert.