
Zwischen Technik und Täuschung: Wenn KI in Schriftsätzen halluziniert
Ein aktueller Fall aus Köln rückt ein Spannungsfeld ins Zentrum juristischer Debatten: Wie weit darf die Nutzung generativer KI im Anwaltsalltag gehen – und wann wird sie zur Gefahr für Integrität, Sorgfaltspflicht und letztlich den Rechtsstaat?
Halluzinierte Fundstellen im Gerichtssaal
Es sollte ein gewöhnlicher familienrechtlicher Streit werden. Doch ab Seite acht eines Schriftsatzes nahm das Verfahren vor dem Amtsgericht Köln eine unerwartete Wendung. Das Gericht stellte fest, dass zahlreiche Literatur- und Rechtsprechungsnachweise im Schriftsatz eines Anwalts schlicht nicht existierten. Die Monografie? Fiktiv. Die Fundstellen? Ausgedacht. Selbst Randziffern und Autorenbezüge waren erkennbar erfunden oder falsch zugeordnet. Für das Gericht war schnell klar: Hier war eine generative KI am Werk und zwar ohne nachgelagerte Kontrolle durch den verantwortlichen Juristen.
Der juristische Blindflug mit KI
Was in technischen Kreisen als „Halluzination“ bezeichnet wird, hat in der juristischen Praxis besonders gravierende Folgen: Die KI präsentiert fiktive Inhalte in scheinbar seriöser Form und wenn diese unkritisch übernommen werden, landen sie im Gerichtssaal. Dass ein solcher Schriftsatz syntaktisch korrekt und formal ansprechend wirkt, macht ihn umso tückischer. Das Problem liegt dabei nicht im Tool selbst, sondern in seiner Anwendung ohne Fachwissen, Quellenzugriff oder Gegenkontrolle.
Dabei hätte sich die Situation vermeiden lassen. Es existieren längst juristische KI-Modelle mit Anbindung an geprüfte Fachdatenbanken. Die Verwendung allgemeinsprachlicher Chatbots ohne juristischen Hintergrundwissen gleicht hingegen dem Griff zum juristischen Glücksspiel.
Berufsrechtliche Grenzen und offene Fragen
Das Amtsgericht sah den Fall nicht als bloßen Fauxpas. Vielmehr wurde auf berufsrechtliche Konsequenzen hingewiesen, insbesondere auf die Pflicht zur Wahrheit und Sorgfalt gemäß § 43a Abs. 3 BRAO. Der Schriftsatz habe nicht nur die Rechtsfindung erschwert, sondern auch dem Ansehen der Anwaltschaft geschadet. Die zentrale Frage: Reicht Fahrlässigkeit für einen Berufsrechtsverstoß oder ist Vorsatz erforderlich?
Gerade bei der Einreichung KI-generierter Texte stellt sich zudem die Frage nach der Subjektivität: War sich der Anwalt bewusst, dass die Inhalte falsch sein könnten? Hat er sie geprüft? Oder handelt es sich um eine bloße Nachlässigkeit, wie sie auch vor dem KI-Zeitalter gelegentlich vorkam – etwa bei sogenannten Blindzitaten?
Bislang wird für einen berufsrechtlich relevanten Verstoß in der Regel direkter Vorsatz gefordert. Doch ob sich diese Schwelle halten lässt, wenn KI-Werkzeuge häufiger zur Mandatsbearbeitung eingesetzt werden, ist fraglich.
Prozessbetrug durch KI?
Juristisch besonders brisant ist die Frage, ob derartige Schriftsätze auch strafrechtlich relevant sein könnten. Könnte ein ungeprüft übernommener KI-Text mit erfundenen Inhalten als versuchter Prozessbetrug gewertet werden? Zumindest diskutiert wird dies unter Juristinnen und Juristen intensiv. Voraussetzung dafür wäre ein Täuschungsvorsatz und sei es nur bedingt. Wenn ein Anwalt also eine KI verwendet, ohne deren Ergebnisse zu verifizieren, könnte ihm im schlimmsten Fall eine Täuschungsabsicht unterstellt werden.
Allerdings gibt es auch gewichtige Gegenargumente: Gerichte sind zur eigenen Rechtsanwendung verpflichtet – sie „kennen das Recht“ (iura novit curia). Eine gezielte Täuschung über den Inhalt von Normen oder Urteilen wäre daher – so zumindest eine verbreitete Auffassung – schon objektiv nicht geeignet, einen Irrtum des Gerichts zu bewirken. Dennoch bleibt die Frage, wie sich falsche Tatsachenbehauptungen im Kontext digital erzeugter Schriftsätze strafrechtlich einordnen lassen, weiterhin offen.
Verantwortung bleibt beim Menschen
So innovativ die Technologie, so alt ist das Prinzip: Wer sich ihrer bedient, bleibt verantwortlich. Generative KI kann juristische Arbeit erleichtern, aber nicht ersetzen. Dass ein Schriftsatz formal beeindruckt, reicht nicht aus. Juristisches Arbeiten erfordert Inhalt, Tiefe und vor allem Verlässlichkeit.
Die derzeitigen Debatten zeigen: Es geht nicht darum, ob KI im juristischen Alltag verwendet werden darf, sondern wie. Wer auf Tools setzt, die keine verlässliche Datenbasis nutzen, und deren Ergebnisse nicht überprüft, gefährdet nicht nur die eigene Reputation, sondern auch das Vertrauen in den Rechtsstaat.
Fazit: KI ist kein Freifahrtschein – sondern Werkzeug mit Risiko
Der Fall vor dem Amtsgericht Köln ist kein Einzelfall und vermutlich auch kein letzter. Er zeigt deutlich: Wer generative KI in der Rechtsberatung nutzt, muss deren Grenzen kennen. Ohne Prüfung, ohne Quellenkritik und ohne juristisches Feingefühl wird aus dem digitalen Helfer schnell ein berufsrechtliches Risiko.
Der Fall mahnt zur Besonnenheit, nicht zur Technikfeindlichkeit. In Kanzleien, die sich professionell mit KI-Lösungen beschäftigen, wäre ein solcher Fehler wohl nicht passiert. Die Lösung liegt daher nicht im Verbot, sondern in der Qualifikation: Wer KI nutzt, muss verstehen, was sie kann und was nicht. Nur so bleibt sie ein Fortschritt und wird nicht zur Täuschung.

Head of Finance
Larissa studiert Rechtswissenschaften an der Universität zu Köln und arbeitet als Werkstudentin in einer Steuerkanzlei. Neben dem Studium verbindet sie ihr Interesse auch mit dem Recht der Digitalisierung. Deshalb engagiert sie sich ehrenamtlich für das Legal Tech Lab und teilt ihr Fachwissen regelmäßig durch Blogbeiträge.