Deepfakes im Visier des Gesetzes – Italien geht voran, was tut Deutschland?

Die digitale Welt steht vor einer neuen Herausforderung: Deepfakes. Damit sind täuschend echte, von Künstlicher Intelligenz (KI) erzeugte Bilder, Videos oder Audioaufnahmen gemeint, die real wirkende Szenen oder Aussagen von Personen zeigen, obwohl diese nie stattgefunden haben. Was als technisches Kuriosum begann, hat sich rasch zu einem ernsthaften Problem entwickelt. Deepfakes werden zunehmend für fragwürdige oder kriminelle Zwecke eingesetzt: von Prominenten, deren Gesichter in pornografische Videos montiert werden, bis hin zu gefälschten Reden von Politikern, die Desinformation verbreiten. Dieser Beitrag beleuchtet das Problem der Deepfakes, zeigt die jüngsten gesetzlichen Schritte in Italien auf und diskutiert, wie Deutschland auf diese Bedrohung reagiert.

Das Problem mit Deepfakes: Zwischen Unterhaltung und Missbrauch

Deepfake-Technologie ermöglicht es, Gesichter und Stimmen nahezu beliebig zu kombinieren. In harmlosen Fällen entstehen witzige Clips oder beeindruckende Film-Effekte. Doch die Kehrseite ist düster: Die große Mehrheit der im Internet kursierenden Deepfakes ist pornografischer Natur, meist ohne Einwilligung der abgebildeten Personen. Insbesondere Frauen und Prominente sind häufig Opfer solcher nicht-einvernehmlichen Fake-Pornos, was eine schwere Verletzung der Persönlichkeitsrechte darstellt. Ein prominentes Beispiel lieferte kürzlich Italien: Auf einer einschlägigen Website tauchten manipulierte Sex-Videos mit dem Gesicht der italienischen Ministerpräsidentin Giorgia Meloni auf – natürlich ohne ihr Einverständnis.

Neben der sexualisierten Entblößung werden Deepfakes auch gezielt für Desinformation eingesetzt. Man stelle sich etwa ein Video vor, in dem ein Staatschef scheinbar einen Krieg ankündigt, obwohl es sich um eine Fälschung handelt. Die potenziellen Auswirkungen auf die öffentliche Ordnung wären enorm. Schon jetzt gab es Fälle von gefälschten politischen Botschaften und Wahlkampf-Videos, die Verwirrung stiften sollten. Darüber hinaus nutzen Kriminelle die Technik für Betrug: Etwa indem sie mit KI die Stimme eines Firmenchefs imitieren und Angestellte telefonisch anweisen, hohe Geldbeträge zu überweisen (sogenannter CEO-Fraud). Identitätsdiebstahl erhält durch KI-Generierung ebenfalls neue Dimensionen, wenn Gesichter Unbeteiligter auf verbreitete Bilder oder Videos montiert werden.

Die Gefahren von Deepfakes liegen somit auf der Hand: Rufschädigung, Vertrauensverlust und emotionales Trauma bei den Opfern, Manipulation der öffentlichen Meinung und neue Formen des Betrugs. Kein Wunder, dass der Ruf nach rechtlichen Gegenmaßnahmen immer lauter wird.

Italien als Vorreiter: Gesetz gegen KI-Missbrauch

Italien hat jüngst Geschichte geschrieben – als erstes EU-Land mit einem umfassenden KI-Gesetz. Im September 2025 verabschiedete das Parlament in Rom neue Regeln für den Einsatz Künstlicher Intelligenz, die deutlich über die kommenden EU-Vorgaben hinausgehen. Kernstück des Gesetzes ist ein konsequentes Vorgehen gegen Deepfakes und ähnlichen KI-Missbrauch. Künftig macht sich in Italien strafbar, wer unrechtmäßig KI-generierte oder manipulierte Inhalte verbreitet, insbesondere wenn dadurch die Rechte einer Person verletzt werden. Als Strafrahmen sieht das Gesetz Gefängnisstrafen von einem bis zu fünf Jahren vor – abhängig davon, wie schwer der angerichtete Schaden ist. Ein „hinterlistiger Einsatz“ von KI (also besonders böswillige oder täuschende Verwendung) wird ausdrücklich als erschwerender Umstand genannt, der höhere Strafen rechtfertigt.

Der Impuls für diese Gesetzesverschärfung kam nicht von ungefähr. Der Fall Meloni verdeutlichte, dass selbst höchste Staatsämter nicht vor Deepfake-Angriffen gefeit sind. Italiens Regierung, unter Führung von Giorgia Meloni, wollte handeln und zwar schnell. Das Ergebnis ist eine umfassende Regulierung der KI, die neben dem Deepfake-Verbot auch weitere Aspekte abdeckt. Wichtige Punkte des neuen italienischen KI-Gesetzes sind unter anderem:

  • Strafrechtliche Sanktionen für KI-Missbrauch: Neben Deepfakes werden auch Betrug oder Identitätsdiebstahl unter Einsatz von KI hart bestraft (ein bis fünf Jahre Haft je nach Schwere).
  • Transparenz- und Aufsichtspflichten: In sensiblen Bereichen wie Gesundheit, Bildung, Justiz und der Arbeitswelt gelten strengere Regeln für den Einsatz von KI. Entscheidungen, die KI-gestützt getroffen werden, müssen nachverfolgbar und von Menschen überprüfbar sein.
  • Schutz von Minderjährigen: Kinder unter 14 Jahren dürfen KI-Anwendungen künftig nur mit Zustimmung der Eltern nutzen, um sie vor Gefahren ungefilterter KI-Inhalte zu schützen.
  • Urheberrechtliche Klarstellung: Inhalte, die komplett von KI erzeugt wurden, genießen nur dann rechtlichen Schutz, wenn eine menschliche schöpferische Leistung dahintersteht. Reine KI-Erzeugnisse ohne menschlichen Input sollen nicht wie klassisches geistiges Eigentum geschützt sein.
  • Förderung und Aufsicht: Das Gesetz richtet einen staatlichen Fonds in Höhe von 1 Milliarde Euro ein, um KI, Cybersicherheit und Telekommunikation zu fördern. Gleichzeitig werden neue oder bestehende Behörden mit der Aufsicht über KI-Anwendungen betraut, um die Einhaltung der Regeln sicherzustellen.

Italien sendet damit ein starkes Signal: KI-Regulierung wird konkret angegangen, insbesondere um Missbrauch wie Deepfakes einzudämmen. Das Land wartet nicht auf das Inkrafttreten des EU-weiten AI Act, sondern schafft Fakten auf nationaler Ebene. Zwar bleiben Fragen offen – etwa wie effektiv die neuen Regeln durchgesetzt werden können und ob kleinere Unternehmen durch die Compliance-Pflichten überlastet werden. Trotzdem gilt: Italien nimmt die Sache entschlossen in die Hand, um Bürgerrechte im digitalen Zeitalter zu schützen. Dieses Vorgehen übt auch Druck auf andere EU-Staaten aus, sich ähnlichen Herausforderungen zu stellen.

Deutsche Debatte: Brauchen wir ein eigenes Deepfake-Gesetz?

Auch in Deutschland ist erkannt worden, dass Deepfakes rechtlich Probleme bereiten. Noch gibt es hier keinen eigenen Straftatbestand für Deepfakes, doch das könnte sich bald ändern. Bereits 2021 hatte der Bundesrat (die Länderkammer) einen Vorschlag für einen neuen § 201b Strafgesetzbuch (StGB) erarbeitet, der explizit auf KI-Manipulationen abzielt. Dieser Entwurf sah vor, dass die Verbreitung realitätsgetreuer, KI-erstellter Aufnahmen ohne Einwilligung der abgebildeten Person unter Strafe gestellt wird. Vereinfacht gesagt: Wer ein täuschend echtes KI-Bild, -Video oder -Audio einer Person herstellt und Dritten zugänglich macht und dabei das Persönlichkeitsrecht dieser Person verletzt, sollte sich strafbar machen. Im Falle einer Veröffentlichung für die breite Öffentlichkeit hätte dem Täter nach dieser Idee bis zu fünf Jahre Freiheitsstrafe gedroht – ganz analog zum nun verabschiedeten italienischen Strafmaß. Wichtig war den Ländern, Ausnahmen für berechtigte Interessen einzubauen: Kunst, Wissenschaft, Bildung, Presseberichterstattung über Zeitgeschehen und Geschichte sollten nicht unter das Verbot fallen, solange die Deepfakes in diesen Kontexten genutzt werden. Dieser erste Anlauf verpuffte jedoch, da die damalige Bundesregierung den Bedarf für eine neue Vorschrift verneinte.

Die Ampel-Bundesregierung sah zunächst keine Strafbarkeitslücke. Das von der FDP geführte Justizministerium argumentierte 2021/2022, das geltende Recht biete ausreichend Schutz vor Deepfake-Missbrauch. Anzuführen seien hier beispielsweise:

  • Strafgesetze gegen Pornografie und Verleumdung: Deepfakes mit kinderpornografischem Inhalt fallen klar unter §§ 184b und 184c StGB (Verbreitung von Kindes- bzw. Jugendpornografie). Auch „normale“ pornografische Deepfake-Bilder könnten als unzulässige Pornografie strafbar sein oder als Beleidigung/Verleumdung (§ 185, 187 StGB), falls sie ehrverletzend sind.
  • Recht am eigenen Bild: § 33 Kunsturhebergesetz stellt schon heute die Verbreitung von Bildnissen einer Person ohne deren Einwilligung unter Strafe – darunter können manipulierte Fotos fallen.
  • Urheberrechts- und Datenschutzgesetze: Falls ein Deepfake aus geschütztem Material erstellt ist (z.B. ein verfremdetes Foto oder Video), greifen die Urheberrechtsverletzungen (§§ 106, 108 UrhG). Und wenn personenbezogene Daten missbraucht werden, könnte auch § 42 Abs. 2 Bundesdatenschutzgesetz einschlägig sein.

Zudem monierte das Justizministerium damals, der Wortlaut des Bundesratsentwurfs sei verfassungsrechtlich zu unbestimmt. Insbesondere die Formulierung „wer das Persönlichkeitsrecht einer anderen Person verletzt“ sei zu vage, um als Strafgesetz den Anforderungen des Bestimmtheitsgebots (Klarheit und Vorhersehbarkeit für den Bürger) zu genügen. Kurz gesagt: Man befürchtete, ein neues Gesetz gegen Deepfakes könnte eher Rechtsunsicherheit stiften und bereits Erlaubtes unnötig kriminalisieren, während zugleich existierende Normen ausreichen würden.

Neue Töne aus Berlin: Gesetzeslücke soll geschlossen werden

Mittlerweile hat sich die politische Lage geändert. Nach der Bundestagswahl 2025 ist das Bundesjustizministerium unter neuer Führung und die Koalitionsparteien sind sich einig, dass beim Thema Deepfakes Handlungsbedarf besteht. Im Koalitionsvertrag der aktuellen Regierung ist ausdrücklich vereinbart, Strafbarkeitslücken bei bildbasierten sexualisierten Gewaltdarstellungen zu schließen – ein klarer Hinweis auf Deepfake-Pornografie. Entsprechend signalisiert die Regierung nun Offenheit für einen neuen Straftatbestand. Ein Sprecher des Justizministeriums betonte, man nehme die Phänomene wie Deepfakes, digitaler Voyeurismus und Gewaltpornografie „mit Sorge“ wahr und prüfe Wege, die Versprechen des Koalitionsvertrags umzusetzen. Der zuvor vom Bundesrat vorgeschlagene § 201b StGB wurde in dieser Legislaturperiode erneut in den Bundestag eingebracht und dürfte demnächst beraten werden. Die frühere Einschätzung, es gebe keine Strafbarkeitslücke, scheint vom Tisch zu sein.

Über Parteigrenzen hinweg wird nun betont, dass man Italiens Vorgehen genau beobachtet. Günter Krings, Rechtspolitiker der CDU/CSU-Opposition, formuliert es deutlich: „Italien zeigt mit der Einführung der Strafbarkeit, wie es gehen kann. Deutschland sollte diese Richtung einschlagen und die strafrechtliche Schutzlücke schließen.“ Er weist darauf hin, dass bislang viele Deepfake-Fälle nur unter allgemeine Auffangtatbestände (wie Beleidigung oder Urheberrechtsverstöße) fallen, die der neuen Qualität täuschend echter, massenhaft online verbreiteter KI-Inhalte nicht immer gerecht werden. Ähnlich äußert sich die rechtspolitische Sprecherin der SPD, Carmen Wegge: Deepfakes seien eine „neue Dimension digitaler Gewalt“, die vor allem Frauen und vulnerable Gruppen überproportional treffe. Diese verletzten Würde, Persönlichkeitsrechte und sexuelle Selbstbestimmung, weshalb dringender Handlungsbedarf bestehe. Wegge mahnt jedoch, man müsse sorgfältig prüfen, „ob ein Totalverbot von Deepfakes der richtige Schritt sei“ – sprich, die genaue Ausgestaltung des Gesetzes ist heikel. Auch innerhalb der regierenden Ampel-Koalition will man also ein ausgewogenes Gesetz schaffen, das Missbrauch unter Strafe stellt, ohne beispielsweise Satire, Kunst oder berechtigte Berichterstattung zu gefährden.

Streitpunkte: Wie lässt sich Deepfake-Missbrauch effektiv verbieten?

Obwohl der politische Wille für ein Gesetz da ist, wird noch diskutiert, wie dieses konkret aussehen soll. Juristische Fachkreise haben in der Vergangenheit Kritik an dem Bundesrats-Vorschlag geübt. Die Bundesrechtsanwaltskammer (BRAK) etwa bemängelte die damals geplante Fassung als zu weitgehend und unscharf. Ihr zufolge würde der Wortlaut („jedes Zugänglichmachen an Dritte“) bedeuten, dass im Extremfall schon das Teilen eines zweifelhaften Videos – selbst wenn man sich nicht sicher ist, ob es real oder Fake ist – einen Strafbestand erfüllen könnte. Es bestehe die Gefahr, dass vorschnell jeder Deepfake-Content unter Generalverdacht steht und damit auch z.B. das Weiterleiten eines entlarvenden Hinweises kriminalisiert werden könnte. Statt einen komplett neuen Paragrafen einzuführen, schlug die BRAK vor, das bestehende Gesetz zu ergänzen: § 201a StGB (der bislang Verletzungen des höchstpersönlichen Lebensbereichs durch Bildaufnahmen ahndet) könne erweitert werden. Die Strafbarkeitsschwelle solle dabei höher angesetzt werden – etwa so, dass nur das Verbreiten von realitätsgetreuen KI-Bildern strafbar ist, wenn diese geeignet sind, dem Ansehen der betroffenen Person erheblich zu schaden. Ein solcher Zusatz würde klarstellen, dass nicht jede Montage im Scherz, sondern nur ernsthaft rufschädigende Deepfakes erfasst werden.

Auch aus der Politik kamen mahnende Stimmen zur Feinjustierung. Vertreter von Grünen und Linken unterstützen zwar das Ziel, eine Schutzlücke zu schließen, teilen aber die Bedenken hinsichtlich der Formulierungen. So kritisierte die Linken-Abgeordnete Clara Bünger, der Entwurf aus den Ländern sei „unklar, droht Grundrechte einzuschränken und schützt – anders als behauptet – auch nicht die demokratische Meinungsbildung“. Sie fordert eine grundrechtskonforme Lösung, „die Betroffene wirklich schützt“, statt vorschnell dem italienischen Modell zu folgen. Ähnlich äußerte sich Helge Limburg von den Grünen: Der Bundesratsvorschlag habe handwerkliche Mängel und müsse präzisiert werden, was die Tatbestandsgrenzen, die zu bestrafenden Handlungen und die Ausnahmen (zugunsten von Kunst-, Pressefreiheit usw.) angeht.

Schließlich gibt es die Haltung, dass gar kein neues Gesetz nötig sei. Diese vertritt zum Beispiel der Deutsche Anwaltverein (DAV). Dessen Vorstandsmitglied Niko Härting bezweifelt, dass es spezielle Strafbarkeitslücken für Deepfakes gibt: Persönlichkeitsrechte seien doch schon durch Beleidigungsdelikte geschützt, und Betrug oder Erpressung seien ebenfalls strafbar – egal ob mit oder ohne KI. Es gehe, so Härting, nicht um die Technologie an sich, sondern um deren missbräuchliche Nutzung durch Täter. Sein Resümee: „Wer – wie in Italien – Politikerinnen durch pornografische Darstellungen beleidigt, gehört bestraft. Neuer Gesetze bedarf es hierfür nicht.“ Mit anderen Worten, das bestehende Strafrecht könne solche Fälle bereits sanktionieren; man solle vorsichtig sein, Technologie per se zu kriminalisieren.

Ausblick: Einheitliche Linie oder Flickenteppich?

Die Diskussion um Deepfakes in Deutschland zeigt ein Spannungsfeld: Einerseits der dringende Wunsch, Opfer besser zu schützen und klare Grenzen für KI-Missbrauch zu ziehen. Andererseits die Sorge, durch übereilte Gesetze die Meinungs- und Kunstfreiheit einzuschränken oder redundant neben bestehendem Recht zu regeln. Italien hat mit seinem Vorstoß den Takt vorgegeben. Die dortige Regelung beweist, dass ein demokratischer Rechtsstaat gezielt auf neue digitale Bedrohungen reagieren kann – und auch bereit ist, empfindliche Strafen zu verhängen. Dieser Präzedenzfall dürfte die Gesetzgeber in Berlin beeinflussen: es besteht politischer Zugzwang, sich nicht abhängen zu lassen und das Vertrauen der Bürger zu sichern, dass der Rechtsstaat auch im Zeitalter von KI und Deepfakes handlungsfähig ist.

Allerdings darf nicht übersehen werden, dass das EU-Parlament und die EU-Kommission ebenfalls aktiv sind. Der EU AI Act wird beispielsweise vorschreiben, dass KI-generierte Inhalte deutlich als solche gekennzeichnet werden müssen, um Täuschungen vorzubeugen. Diese EU-Verordnung zielt eher auf Transparenz und Verantwortlichkeit ab, weniger auf strafrechtliche Sanktionen. Strafrecht ist weiterhin Sache der Nationalstaaten und hier könnte es problematisch werden, wenn jedes Land eigene Regeln erlässt. Sollte neben Italien und (vermutlich bald) Deutschland auch der Rest Europas nachziehen, drohen möglicherweise unterschiedliche Strafnormen pro Land, was die Durchsetzung und das Verständnis erschweren könnte. Einheitliche Standards wären wünschenswert, um keinen Flickenteppich an Regelungen zu schaffen. Vielleicht wird deshalb mittelfristig auch auf EU-Ebene über einen straftrechtlichen Rahmen nachgedacht werden müssen, der Deepfake-Missbrauch europaweit einheitlich unter Strafe stellt.

Für den Moment heißt es in Deutschland aber: Augen auf und Ärmel hoch. Die Gesetzgebung bereitet sich darauf vor, Deepfakes einen Riegel vorzuschieben. Unternehmen und Entwickler, die KI nutzen, sollten sich schon jetzt auf mehr Dokumentation, Transparenz und menschliche Aufsicht einstellen – Anforderungen, die sowohl Italiens Vorstoß als auch der EU AI Act betonen. Und für uns alle gilt: Kritisch bleiben gegenüber allzu spektakulären Videos und Bildern im Netz, denn die Grenze zwischen Realität und Fälschung verschwimmt. Der Kampf gegen Deepfakes hat gerade erst begonnen. Deutschland tut gut daran, von Italiens Mut zu lernen, aber gleichzeitig einen eigenen, verfassungskonformen Weg zu gehen, der sowohl die Rechte der Betroffenen schützt als auch Innovation und Meinungsfreiheit bewahrt. In der digitalen Ära muss der Rechtsstaat kreativ und entschlossen zugleich handeln – Italien hat einen Anfang gemacht, nun schaut Europa gespannt nach Berlin.


Larissa Schmitz
Head of Finance

Larissa studiert Rechtswissenschaften an der Universität zu Köln und arbeitet als Werkstudentin in einer Steuerkanzlei. Neben dem Studium verbindet sie ihr Interesse auch mit dem Recht der Digitalisierung. Deshalb engagiert sie sich ehrenamtlich für das Legal Tech Lab und teilt ihr Fachwissen regelmäßig durch Blogbeiträge.