
GEMA vs. OpenAI: Was das Münchner Urteil für die Praxis bedeutet
Das Landgericht München I hat am 11. November 2025 (42. Zivilkammer, Az. 42 O 14139/24) im Streit zwischen der GEMA und OpenAI zugunsten der GEMA entschieden: Der Tenor umfasst Unterlassung, Auskunft und Schadensersatz. Streitgegenstand waren das Training und die (nahezu wortgleiche) Ausgabe von neun urheberrechtlich geschützten deutschen Liedtexten, darunter „Atemlos“ und „Männer“. Das Urteil ist nicht rechtskräftig; OpenAI prüft eine Berufung.
Zur Begründung stellte die Kammer auf urheberrechtliche Vervielfältigungen beim KI-Training sowie auf problematische Reproduktionen im Betrieb ab, wenn ChatGPT auf Anfrage nahezu wortgleich geschützte Texte wiedergibt. Dadurch seien das ausschließliche Vervielfältigungs- und Zugänglichmachungsrecht der Urheber*innen betroffen; eine wirksame Lizenz habe nicht vorgelegen.
Die TDM-Schranke (§ 44b UrhG) ändert daran nichts Grundsätzliches: Zwar erlaubt sie Vervielfältigungen zu Analysezwecken, Rechteinhaber können Text- und Data-Mining jedoch in maschinenlesbarer Form per Opt-out untersagen; zudem sind Vervielfältigungen zu löschen, sobald sie nicht mehr erforderlich sind. Die Entscheidung macht deutlich, dass „Training ist frei“ nicht schrankenlos gilt und Opt-outs sowie Lizenzierungen ernst zu nehmen sind.
Im europäischen Kontext bewertet die GEMA das Urteil als „Grundsatzurteil“ mit Wirkung über Deutschland hinaus. Der Druck steigt, das KI-Training transparenter zu machen und Opt-outs praktisch durchsetzbar auszugestalten; insbesondere die Debatte zur Maschinenlesbarkeit solcher Vorbehalte gewinnt weiter an Dynamik.
Was bedeutet das für die Praxis?
Für KI-Anbieter und Produktteams heißt das: Trainingsdaten müssen rechtlich sauber inventarisiert und mit einer belastbaren Dokumentation der Rechtsgrundlage (Lizenz, TDM mit Opt-out-Prüfung, interne/externe Quellen) hinterlegt werden; ebenso sind Lösch- und Bereinigungsroutinen zu etablieren, wenn Daten für Analysezwecke nicht mehr erforderlich sind. Parallel sollten Ausgabekontrollen implementiert werden, die nahezu wortgleiche Wiedergaben urheberrechtlich geschützter Texte minimieren, zum Beispiel durch Prompt- und Output-Filter, Memorization-Tests vor Releases, Telemetrie zur Erkennung verdächtiger Treffer und klare Eskalationspfade im Incident-Fall. Auch organisatorisch braucht es „Auskunfts-Readiness“: Audit-Trails zu Modellständen, Trainingsläufen und Datenflüssen sowie ein Verfahren, um Auskunfts- und Unterlassungsbegehren strukturiert beantworten zu können. Schließlich rückt die Lizenzstrategie in den Vordergrund: Für besonders risikogeneigte Repertoires (z. B. Liedtexte) werden kollektive oder individuelle Lizenzmodelle mit Verwertungsgesellschaften und Rechteinhabern zum Wettbewerbsfaktor (inkl. vertraglicher Mechanismen für Streitbeilegung, Reporting und Vergütung).
Rechteinhaber, Labels und Verlage sollten ihre Repertoires maschinenlesbar mit Opt-outs versehen, interne Rechteketten und Zuständigkeiten klären und standardisierte Beweisroutinen aufsetzen: Testprompts, Captures, zeitliche Protokolle und Hash-Verfahren erleichtern die Durchsetzung von Unterlassung, Auskunft und Vergütung. Gleichzeitig lohnt der Blick auf kooperative Modelle: Kollektivlizenzen, definierte Nutzungskorridore und transparente Abrechnungslogik können Enforcement-Kosten senken und neue Erlöswege eröffnen, ohne die Exklusivinteressen aus dem Blick zu verlieren.
Unternehmen, die generative KI in Produkten oder Workflows einsetzen, sollten ihre Provider- und Beschaffungsverträge aktualisieren: klare Zusicherungen zur Datenherkunft, Verpflichtungen zur Beachtung von Opt-outs, auditierbare Logs, schnelle Takedown- und Remediation-Pflichten sowie angemessene Haftungs- und Freistellungsklauseln. Ergänzend empfiehlt sich eine interne Policy, die Mitarbeitende beim Umgang mit potenziell geschützten Inhalten (z. B. Lyrics, Noten, Drehbücher) anleitet und Ausgaben entsprechender Systeme vor Veröffentlichung prüfbar macht.
Blick in die Zukunft
OpenAI hat Berufung in Aussicht gestellt. Der Streit dürfte vor dem OLG München weitergehen. Parallel formieren sich Kollektivlizenz-Modelle und branchenspezifische Transparenzstandards. Wer jetzt Compliance-by-Design umsetzt, reduziert Litigation-Risiken und schafft eine Grundlage für skalierbare Lizenzierung.
Daina arbeitet als Legal Tech Engineer bei einer Großkanzlei in Düsseldorf. Ihre Begeisterung für Legal Tech vertiefte sie während ihres LL.M.-Studiums, das ihr fundiertes Wissen über die Schnittstelle von Recht und Technologie erweiterte. Zusätzlich engagiert sie sich als Vorstandsmitglied des Legal Tech Labs und teilt ihr Fachwissen regelmäßig durch Blogbeiträge.

