
EU-Kommission veröffentlicht Leitlinien zur Reichweite der Pflichten für Anbieter allgemeiner KI-Modelle
Mit Blick auf den baldigen Stichtag am 2. August 2025 hat die Europäische Kommission am 18. Juli 2025 neue Leitlinien zur Auslegung der Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck („General-Purpose AI Models“, GPAI) veröffentlicht. Diese ergänzen den im Juni veröffentlichten Verhaltenskodex und sollen die Umsetzung der Regeln des AI Acts konkretisieren und vereinfachen.
Ab dem 2. August 2025 gelten die in Kapitel V des AI Acts verankerten Pflichten für GPAI-Anbieter unmittelbar.
Rückblick: Der Verhaltenskodex als erster Baustein
Bereits im Juli berichteten wir über den finalen Verhaltenskodex für GPAI-Modelle, der als freiwilliges Instrument dienen soll, um gesetzliche Anforderungen auf transparente Weise zu erfüllen. Der Kodex ist Teil eines umfassenden Maßnahmenpakets der Kommission zur Operationalisierung des Kapitel V des AI Acts.
Die neuen Leitlinien im Überblick
Die Leitlinien dienen der Rechtsklarheit und praktischen Orientierung. Sie definieren zentrale Begriffe und erklären, wie die Pflichten der Anbieter zu interpretieren und umzusetzen sind. Wir fassen die wichtigsten Inhalte zusammen:
1. Was ist ein GPAI-Modell?
Ein General-Purpose AI Model (GPAI) ist ein KI-Modell, das nicht für einen bestimmten Einsatzzweck entwickelt wurde, sondern vielfältige Aufgaben erfüllen kann. Es ist also „allgemein verwendbar“. Ein solches Modell kann z. B. Texte schreiben, Bilder analysieren, Code generieren oder Sprache verstehen – oft alles gleichzeitig. Typische Beispiele sind große Sprachmodelle (LLMs) wie GPT oder multimodale Modelle, die mit Text, Bild, Ton oder Video umgehen können.
Das entscheidende Merkmal ist: Die Einsatzmöglichkeiten sind offen und vielseitig, wodurch diese Modelle in vielen unterschiedlichen Bereichen Anwendung finden – von Chatbots über Übersetzungsdienste bis hin zu Produktivitäts-Tools oder Bildungslösungen.
2. Wer gilt als Anbieter (Provider)?
Ein Anbieter im Sinne des AI Acts ist jede natürliche oder juristische Person, die ein GPAI-Modell:
- entwickelt,
- trainiert oder
- auf dem europäischen Markt zur Verfügung stellt – also z. B. auf einer Website veröffentlicht, über eine API zugänglich macht oder in ein Produkt einbettet.
Dabei spielt es keine Rolle, ob das Modell selbst vermarktet oder durch Dritte verbreitet wird. Auch Akteure, die ein fremdes Modell auf ihrer Plattform hosten oder über eine Schnittstelle weitergeben, können als Anbieter gelten.
Wichtig ist: Wer das Modell in der EU verfügbar macht, muss die Vorschriften des AI Acts einhalten – unabhängig vom Firmensitz.
3. Placing on the Market
„Placing on the market“ bezeichnet den Moment, in dem ein Modell erstmals innerhalb der EU angeboten oder bereitgestellt wird – egal, ob kostenlos oder gegen Bezahlung. Auch die Veröffentlichung auf Open-Source-Plattformen, Cloud-APIs oder Modell-Marktplätzen kann darunterfallen.
Es geht also nicht nur um den klassischen Softwarevertrieb: Sobald ein GPAI-Modell online verfügbar ist und Nutzer:innen in der EU darauf zugreifen können, gilt es als „in Verkehr gebracht“.
Selbst Plattformen oder Hosting-Dienste, etwa KI-Hubs, Repositories oder Modellkataloge, können Anbieterpflichten treffen, wenn sie maßgeblich am Zugang zu einem Modell beteiligt sind.
4. Systemisches Risiko
Ein zentrales Element der Leitlinien ist die Einführung der Kategorie „GPAI-Modelle mit systemischem Risiko“. Dabei handelt es sich um besonders leistungsfähige KI-Modelle, die aufgrund ihrer Größe, Verbreitung und potenziellen Auswirkungen auf Gesellschaft, Demokratie, Sicherheit oder Grundrechte als besonders risikobehaftet eingestuft werden.
Laut Leitlinien liegt ein systemisches Risiko in der Regel dann vor, wenn das Modell beim Training mehr als 10²⁵ FLOP (Floating Point Operations) verbraucht hat – also deutlich leistungsstärker ist als die meisten aktuell bekannten KI-Systeme. Dies betrifft insbesondere die größten Foundation Models („Frontier Models“) mit Milliarden von Parametern und multimodalem Input.
Für solche Modelle gelten zusätzliche, strenge Verpflichtungen:
- Risikobewertung vor und nach dem Inverkehrbringen: Anbieter müssen fortlaufende Risikoanalysen durchführen und dokumentieren, wie sie mit potenziellen Auswirkungen auf Gesundheit, Sicherheit, Grundrechte und gesellschaftliche Stabilität umgehen.
- Berichtspflichten an das AI Office: Schwerwiegende Vorfälle, z. B. fehlerhafte oder diskriminierende Modellverhaltensweisen, müssen gemeldet werden. Auch systemische Schwachstellen und sicherheitsrelevante Erkenntnisse sind anzugeben.
- Cybersicherheitsanforderungen: Anbieter müssen angemessene technische und organisatorische Maßnahmen ergreifen, um das Modell vor Missbrauch, Manipulation oder unautorisiertem Zugriff zu schützen – auch während der Entwicklung und Bereitstellung.
- Transparenz über Systemverhalten: Es müssen Mechanismen implementiert werden, die nachvollziehbar machen, wie das Modell zu seinen Ausgaben kommt (soweit technisch möglich). Dies dient insbesondere der Nachvollziehbarkeit in sensiblen Anwendungsbereichen.
- Dokumentationspflichten für Adressaten in der Lieferkette: Anbieter müssen klare Informationen bereitstellen, um nachgelagerte Entwickler („downstream deployers“) bei der sicheren und rechtskonformen Nutzung des Modells zu unterstützen.
Diese erweiterten Pflichten sollen sicherstellen, dass GPAI-Modelle mit großem Einfluss kontrollierbar, nachvollziehbar und sicher bleiben – insbesondere angesichts der zunehmenden Integration solcher Systeme in kritische Infrastrukturen, Medien, Verwaltung oder demokratische Prozesse.
5. Offenlegungspflichten
Ein zentrales Ziel des AI Acts ist es, mehr Transparenz in die Entwicklung und Nutzung von KI-Modellen zu bringen – insbesondere bei Modellen, die weitreichend eingesetzt werden können. Deshalb müssen Anbieter von GPAI-Modellen bestimmte Informationen offenlegen, damit sowohl Behörden als auch nachgelagerte Nutzer (z. B. Entwickler, Unternehmen oder Behörden) die Herkunft, Funktionsweise und Grenzen der Modelle besser nachvollziehen können.
Die Offenlegungspflichten umfassen insbesondere:
- Verwendete Trainingsdaten: Anbieter müssen über ein standardisiertes Transparenz-Template offenlegen, welche Arten von Daten zum Training des Modells verwendet wurden, z. B. aus welchen Quellen die Texte, Bilder oder anderen Inhalte stammen. Dabei geht es nicht um die exakten Datenpunkte, sondern um eine qualitative Beschreibung der Datensätze, ihrer Herkunft (z. B. öffentlich, proprietär, lizenziert) und eventueller Ausschlusskriterien.
- Rechen- und Energieaufwand (FLOP-Schätzungen): Anbieter müssen den Rechenaufwand, der beim Training des Modells entstanden ist, möglichst genau angeben. Dieser wird in FLOP (Floating Point Operations) gemessen – also der Anzahl der mathematischen Operationen, die der Computer beim Training ausgeführt hat. Dies hilft nicht nur zur Risikoeinstufung (z. B. ob ein Modell als „systemisch“ gilt), sondern auch zur Einordnung des Ressourcenverbrauchs und der ökologischen Auswirkungen.
- Modellarchitektur: Auch die technische Struktur des Modells muss offengelegt werden – also etwa Informationen zu den genutzten Modelltypen (z. B. Transformer), der Anzahl an Parametern, Layern, verwendeten Techniken (z. B. Reinforcement Learning, Prompt Tuning) und zur allgemeinen Funktionalität. Ziel ist es, nachgelagerten Nutzern die Möglichkeit zu geben, das Modell sinnvoll und sicher zu integrieren.
Diese Anforderungen sollen mehr Verantwortung und Nachvollziehbarkeit entlang der gesamten KI-Wertschöpfungskette schaffen – vom Entwickler bis zum Endnutzer. Zugleich helfen sie dabei, Fehlverhalten oder Missbrauch frühzeitig zu erkennen und Vertrauen in den Einsatz von KI in sensiblen Bereichen (z. B. Justiz, Verwaltung, Gesundheit) zu stärken.
6. Open-Source-Ausnahme
Der AI Act erkennt an, dass offen verfügbare KI-Modelle, die frei geteilt und weiterentwickelt werden können, eine wichtige Rolle für Innovation, Forschung und technologische Offenheit spielen. Deshalb enthält die Verordnung eine Ausnahme von bestimmten Pflichten für Anbieter von sogenannten Open-Source-GPAI-Modellen. Diese Ausnahme gilt jedoch nur unter engen Voraussetzungen.
Ein Modell gilt nur dann als Open Source im Sinne des AI Acts, wenn:
- es uneingeschränkt frei nutzbar ist: Das Modell darf keinen Lizenzbedingungen unterliegen, die bestimmte Nutzungen (z. B. kommerzielle Zwecke, bestimmte Sektoren oder Länder) ausschließen. Es muss also wirklich jeder Person erlaubt sein, das Modell zu verwenden, zu verändern und weiterzugeben – ohne juristische Einschränkungen.
- alle relevanten Bestandteile veröffentlicht wurden: Dazu gehören der vollständige Quellcode, die Modellgewichte, Informationen zur Modellarchitektur, zur Trainingspipeline und zu den Parametern. Nur wenn all diese technischen Details offenliegen, kann von echter Nachvollziehbarkeit und Weiterverwendbarkeit gesprochen werden.
- keine Monetarisierung erfolgt: Sobald ein Anbieter durch das Modell Geld verdient, z. B. über Werbung, Gebühren, Paywalls, eingeschränkte APIs oder bezahlte Services entfällt die Ausnahme. Auch indirekte Monetarisierung, etwa durch Datensammlung oder Analyseprodukte, kann problematisch sein. Die Ausnahme soll also nur für Modelle gelten, die uneigennützig und öffentlich zugänglich bereitgestellt werden.
Wichtig: Auch wenn ein Modell als Open Source gilt, bleiben bestimmte grundlegende Pflichten bestehen, z. B. die Einhaltung des Urheberrechts, die Verantwortung für die Trainingsdaten und die Beachtung ethischer Prinzipien. Die Ausnahme betrifft primär bürokratische Erleichterungen, z. B. die Befreiung von der technischen Dokumentationspflicht und der Registrierung beim AI Office.
Ziel der Regelung ist es, echte Open-Source-Initiativen zu fördern, ohne dabei die regulatorische Verantwortung großer, kommerziell genutzter Modelle zu unterlaufen.
7. Unterstützungsangebot durch das AI Office
Das neu eingerichtete AI Office wird GPAI-Anbieter beraten, Templates bereitstellen, Fragen zur Compliance beantworten und ggf. auch Kooperationen mit anderen Behörden koordinieren.
Warum ist das wichtig?
Ab dem 2. August 2025 gelten die Pflichten des AI Acts unmittelbar. Die Kommission betont, dass die Umsetzung nicht optional ist und dass es keine Übergangsfrist für GPAI-Anbieter gibt. Wer KI-Modelle in der EU bereitstellt, muss sich jetzt mit den Anforderungen vertraut machen und Compliance-Maßnahmen umsetzen.
Fazit
Die neuen Leitlinien bieten eine willkommene Orientierungshilfe in einem ansonsten sehr technischen und rechtlich komplexen Umfeld. Gemeinsam mit dem Verhaltenskodex bilden sie den praktischen Rahmen, innerhalb dessen Anbieter sich auf die neue Rechtslage vorbereiten können und müssen.

Head of Finance
Larissa studiert Rechtswissenschaften an der Universität zu Köln und arbeitet als Werkstudentin in einer Steuerkanzlei. Neben dem Studium verbindet sie ihr Interesse auch mit dem Recht der Digitalisierung. Deshalb engagiert sie sich ehrenamtlich für das Legal Tech Lab und teilt ihr Fachwissen regelmäßig durch Blogbeiträge.
