Schatten-KI: Die unsichtbare Gefahr im Arbeitsalltag

Künstliche Intelligenz ist längst kein Zukunftsthema mehr. Sie schreibt E-Mails, fasst Dokumente zusammen, erstellt Präsentationen und hilft bei Recherchen in Sekunden. Genau darin liegt aber auch das Problem: Je einfacher KI-Tools zugänglich sind, desto häufiger werden sie genutzt, ohne dass Unternehmen, Behörden oder Organisationen davon überhaupt wissen. Willkommen in der Welt der Schatten-KI, dem digitalen Kollegen, der heimlich mitarbeitet, aber weder kontrolliert noch sauber eingebunden ist. Gerade aus Datenschutz-, Compliance- und IT-Sicherheitsperspektive ist das kein kleiner Ausrutscher, sondern ein ernstzunehmendes Risiko.

Was ist Schatten-KI?

Der Begriff Schatten-KI beschreibt die Nutzung von KI-Anwendungen außerhalb der offiziell freigegebenen Systeme eines Unternehmens oder einer Organisation. Gemeint sind also Tools, die Beschäftigte, Teams oder einzelne Abteilungen eigenständig verwenden, ohne dass IT, Datenschutz, Informationssicherheit oder Compliance diese Nutzung geprüft, dokumentiert oder freigegeben haben. 

Typische Beispiele sind schnell gefunden: Ein Mitarbeiter kopiert einen Vertragsentwurf in einen öffentlichen Chatbot, um eine Formulierung „schöner“ zu machen. Eine Kollegin nutzt ihr privates KI-Tool, um Gesprächsnotizen zusammenzufassen. Ein Team bindet ohne Freigabe einen Meeting-Bot ein, der Audio mitschneidet und automatisch Protokolle erstellt. Technisch wirkt das alles bequem. Rechtlich und organisatorisch ist dies jedoch hoch problematisch.

Wo begegnet uns Schatten-KI?

Schatten-KI ist kein Randphänomen. Sie taucht überall dort auf, wo Menschen unter Zeitdruck arbeiten und digitale Abkürzungen suchen. Besonders häufig betrifft das Wissensarbeit: Personalabteilungen, Marketing, Vertrieb, Kundenservice, Verwaltung, Beratung, Rechtsabteilungen oder Projektmanagement. Gerade Tätigkeiten wie Textentwürfe, Übersetzungen, Recherche, Zusammenfassungen, Protokolle oder Ideensammlungen schreien förmlich nach generativer KI. Bitkom berichtete 2025, dass 4 von 10 Unternehmen zumindest davon ausgehen, dass private KI-Tools im Arbeitskontext genutzt werden.

Hinzu kommt, dass Schatten-KI oft gar nicht wie „klassische“ KI aussieht. Viele Tools verstecken KI-Funktionen inzwischen direkt in Office-Programmen, Browser-Erweiterungen, Meeting-Plattformen, Suchmaschinen oder Kollaborationstools. Das macht die Nutzung niedrigschwellig und die Kontrolle schwierig. Wer nur schnell eine Datei hochlädt oder einen Text verbessern lässt, denkt selten zuerst an Auftragsverarbeitung, Drittlandtransfer oder Geheimhaltungspflichten. Genau das macht Schatten-KI so tückisch: Sie ist bequem, leise und meistens nur einen Klick entfernt.

Die größten Risiken von Schatten-KI

1. Datenschutz: 

Das größte Risiko liegt häufig im Umgang mit personenbezogenen oder vertraulichen Daten. Werden Inhalte aus Personalakten, Mandaten, Verträgen, Gesundheitsdaten oder internen E-Mails in ein nicht freigegebenes KI-System eingegeben, kann schnell eine DSGVO-relevante Verarbeitung vorliegen. Dann stellen sich sofort die heiklen Fragen: Auf welcher Rechtsgrundlage erfolgt die Verarbeitung? Wohin werden die Daten übertragen? Gibt es einen Auftragsverarbeitungsvertrag? Werden Daten für Modellverbesserungen genutzt? Und können personenbezogene Informationen im System reproduziert werden? Genau diese Themen betonen sowohl die BfDI als auch europäische Datenschutzbehörden seit 2025 besonders deutlich.

Das Problem ist also nicht nur, dass Daten verarbeitet werden, sondern wie unkontrolliert das geschieht. Beschäftigte handeln oft pragmatisch, aber ohne vollständigen Überblick über Speicherorte, Anbieterbedingungen oder Löschkonzepte. 

2. IT-Sicherheit: 

Das BSI weist darauf hin, dass generative KI nicht nur Chancen bringt, sondern auch neuartige IT-Sicherheitsrisiken und eine Verstärkung bestehender Bedrohungen. Dazu gehören etwa Datenabfluss, manipulierte Ausgaben, unsichere Schnittstellen, missbräuchliche Nutzung oder Angriffe auf die zugrunde liegenden Systeme. Wenn Unternehmen nicht einmal wissen, welche KI-Tools im Einsatz sind, können sie diese Risiken kaum in ihre Sicherheitsarchitektur einbauen. Und was man nicht inventarisiert hat, kann man auch schlecht absichern. 

Gerade problematisch sind auch inoffizielle Browser-Plugins, Upload-Funktionen, private Accounts und unautorisierte Integrationen mit Firmenkalendern, Cloud-Speichern oder Kommunikationssystemen. Schatten-KI ist deshalb oft nicht nur ein Datenschutzthema, sondern auch ein Governance- und Sicherheitsproblem.

3. Fehlerhafte Ergebnisse und Haftungsrisiken

KI liefert oft beeindruckende Antworten und manchmal eben beeindruckend falsche. Halluzinationen, erfundene Quellen, unvollständige Analysen oder missverständliche Zusammenfassungen können in sensiblen Bereichen erhebliche Folgen haben. Wer eine KI ohne Freigabe für juristische, personelle, medizinische oder geschäftskritische Entscheidungen einsetzt, riskiert Fehlentscheidungen mit realen Konsequenzen. Das Problem: Schatten-KI läuft oft ohne Vier-Augen-Prinzip, ohne Dokumentation und ohne Qualitätskontrolle. 

4. Compliance und AI Act: 

Der EU AI Act ist bereits am 1. August 2024 in Kraft getreten. Erste Regeln, darunter die Definition von KI-Systemen, sowie bestimmte Verbote und Pflichten zur AI Literacy, gelten seit 2. Februar 2025. Die Verordnung wird ab 2. August 2026 grundsätzlich anwendbar, mit gestaffelten Übergängen für einzelne Bereiche. Das heißt: Organisationen müssen schon heute Kompetenzen, Zuständigkeiten und Governance-Strukturen aufbauen. Wer Schatten-KI ignoriert, handelt also nicht nur organisatorisch leichtsinnig, sondern steht auch vor einem grundlegenden Compliance-Problem.

Fazit:

Schatten-KI ist nicht deshalb gefährlich, weil Menschen KI nutzen. Gefährlich wird sie dort, wo Nutzung ungeregelt, intransparent und unkontrolliert stattfindet. Unternehmen und Organisationen sollten deshalb nicht reflexartig alles verbieten. Sinnvoller ist ein klarer Rahmen: verständliche Regeln, freigegebene Tools, Schulungen, Datenschutz- und Sicherheitsprüfungen, saubere Zuständigkeiten und ein realistischer Blick auf die tatsächliche Nutzung im Alltag.

Für Leserinnen und Leser heißt das konkret: Vorsicht bei der Eingabe personenbezogener, vertraulicher oder geschäftskritischer Informationen in beliebige KI-Systeme. Prüfen, ob ein Tool offiziell freigegeben ist. Hinterfragen, wo Daten landen. Und niemals davon ausgehen, dass „praktisch“ automatisch auch „zulässig“ bedeutet. Denn Schatten-KI ist selten nur ein Technikthema. Sie ist ein Risiko für Datenschutz, IT-Sicherheit, Vertraulichkeit und letztlich auch Vertrauen. Und genau das sollte man nicht an einen heimlichen Chatbot delegieren.


Annika Schüller

Annika ist Rechtsreferendarin und vertieft im Rahmen eines LL.M.-Studiums der Rechtsinformatik ihre Kenntnisse im Bereich Legal Tech. Parallel zu ihrer Ausbildung arbeitet sie als Datenschutzbeauftragte in einem mittelständischen Unternehmen. Ihr fachlicher Schwerpunkt ist dabei von ihrem besonderen Interesse an den durch digitale Technologien geprägten Veränderungen des Rechts motiviert.