Bericht : Vorgaben für GPAI-Modelle : aus der RDV 4/2025, Seite 214 bis 216
Die KI-Verordnung war spätestens seit Beginn der Trilog-Verhandlungen Gegenstand intensiver politischer Diskussionen. Im Mai hat der Diskurs mit der Ankündigung der EU-Kommission, eine Aussetzung des Geltungsbeginns bestimmter Vorgaben der KI-Verordnung zu prüfen,[1] einen neuen Höhepunkt erreicht.
Vorgaben für GPAI-Modelle Der aktuelle Streit um Wirkmacht und Innovationsfreundlichkeit der KI-Verordnung ist an den Vorgaben des Gesetzes für KI-Modelle mit allgemeinem Verwendungszweck (engl.: Generalpurpose AI models, kurz: GPAI-Modelle) in den Art. 51 ff. KI-VO entbrannt.
Zu den GPAI-Modellen gehören etwa große KI-Sprachmodelle, wie sie hinter den populären KI-Chatbots stehen. Auch andere generative KI-Systeme wie beispielsweise Bildgeneratoren basieren auf GPAI-Modellen. Vereinfacht lassen sich die Modelle als Murmelbahn beschreiben, in der die Murmel auf den wahrscheinlichsten nächsten Wortteil oder den wahrscheinlichsten nächsten Pixel fällt. Da GPAI-Modelle die Grundlage für eine Reihe von Systemen bilden können, die von nachgelagerten Anbietern bereitgestellt werden, nehmen die Anbieter der GPAI-Modelle entlang der KI-Wertschöpfungskette nach den Erwägungen des europäischen Gesetzgebers eine besondere Rolle und Verantwortung ein[2]
Unter Berücksichtigung dieser besonderen Rolle und Verantwortung sind die Anbieter der GPAI-Modelle zu besonderer Transparenz verpflichtet.[3] Sie müssen unter anderem eine technische Dokumentation sowie spezifische Informationen für nachgelagerte System-Anbieter erstellen und aktualisieren, eine Strategie zur Einhaltung des Urheberrechts auf den Weg bringen und eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen. Von GPAI-Modellen, die über Fähigkeiten mit hohem Wirkungsgrad verfügen, geht nach der Konzeption der KI-Verordnung ein systemisches Risiko aus. Anbieter von GPAI-Modellen mit systemischem Risiko müssen über die Transparenzpflichten hinaus besondere Sicherheitsmaßnahmen ergreifen, um eine Verwirklichung des systemischen Risikos zu minimieren.[4]
Debatte während der Trilog-Verhandlungen
Die beschriebene Regulierung von GPAI-Modellen ist keinesfalls Produkt einer geradlinigen Entwicklung. Im Kommissionsentwurf[5] war eine Regulierung der Modelle noch gar nicht vorgesehen, da die besondere Regulierungsbedürftigkeit der spezifischen Technologie im Jahr 2021 noch kein Thema war.[6] Die Anbieter der GPAI-Modelle wollten es bei dieser Herangehensweise belassen: Sie beriefen sich darauf, dass die Modelle zu unspezifisch seien, um als Anknüpfungspunkt einer Regulierung zu dienen. Schließlich könnten die Anbieter der GPAI-Modelle nicht vorhersehen, wie nachgelagerte Anbieter einzelner KI-Systeme die Modelle in ihre Produkte einbinden.[7] Demgegenüber setzte sich insbesondere das Parlament unter Berufung auf die besondere Verantwortung der Modell-Anbieter für deren Regulierung ein.[8] Kurz vor Beginn der letzten Runde der Trilog-Verhandlungen warfen auch Deutschland, Frankreich und Italien ihren Hut in den Ring und veröffentlichten ein Positionspapier, in dem sie eine verpflichtende Selbstregulierung der Anbieter von GPAI-Modellen vorschlugen.[9]
Schließlich konnte sich zwar das Parlament mit seinem Vorschlag einer klassischen Regulierung durchsetzen. Der Pflichtenkatalog in den finalen Art. 51 ff. KI-VO ist allerdings wesentlich kleiner als zunächst vorgesehen.
Streit um Praxisleitfäden
Perspektivisch sollen sich Anbieter von GPAI-Modellen auf die Einhaltung einer harmonisierten europäischen Norm berufen können, um eine Vermutung der Konformität mit den in der KI-Verordnung statuierten Pflichten zu begründen.[10]Bislang wurde bei der Normungsorganisation CEN-CENELEC allerdings kein spezifischer Normungsauftrag eingereicht.
Bis die harmonisierte europäische Norm für GPAI-Modelle angenommen ist, sollen sich die Anbieter auf die Befolgung von Praxisleitfäden berufen können, die von zahlreichen Experten unter der Federführung des bei der Kommission angesiedelten Büros für Künstliche Intelligenz entwickelt werden. Die Praxisleitfäden sollten eigentlich spätestens am 02.05.2025 vorliegen, aufgrund anhaltender Diskussionen steckten sie aber lange im dritten Entwurf fest. Schließlich wurden sie am 10.07.2025 veröffentlicht.[11]
Derzeit holt die Kommission Rückmeldungen zu den Leitfäden ein. Es ist allerdings unklar, wann die finale Version angenommen wird.
Bereits kurz nach Veröffentlichung des dritten Entwurfs warnten zahlreiche Mitverhandler der KI-Verordnung davor, dass die Praxisleitfäden die Regelungen verwässern könnten, auf die sich Kommission, Rat und Parlament in mühsamen Trilog-Verhandlungen verständigt hatten.[12] Insbesondere die Vorgaben zur Bestimmung eines systemischen Risikos von GPAI-Modellen blieben hinter den Vorgaben des Art. 51 KI-VO zurück, aber auch Transparenzpflichten, Modellbewertungen und der Schutz von Whistleblowern würden gegenüber den Zielen der Verordnung reduziert.1[13]
Auf der anderen Seite hat sich in den Reihen der Modeanbieter, insbesondere im Silicon Valley, Widerstand gegen die Praxisleitfäden gebildet. In den U.S.A. sind die Segel weiter auf Deregulierung gesetzt, was auch und gerade für die Technologiebranche gilt. Den europäischen Regulierungsbestrebungen wird vor diesem Hintergrund Technologiefeindlichkeit vorgeworfen.
Aussetzung des Geltungsbeginns?
Die Situation um die Praxisleitfäden ist also außerordentlich verfahren: Während eine Seite strengere Vorgaben zur Umsetzung der Ziele der KI-Verordnung verlangt, will die andere Seite die Zeit bis vor die Einigung in den Trilog-Verhandlungen zurückdrehen. In dieser Gemengelage hatte die Kommission im Mai also angekündigt, eine Aussetzung des Geltungsbeginns der Vorgaben zu GPAI-Modellen zu prüfen.[14] Denn die Art. 51 ff. KI-VO gelten seit dem 2. August 2025. Vor diesem Hintergrund wäre eine Aussetzung des Geltungsbeginns in erster Linie ein Sieg für die Industrie gewesen.
Ein Eingriff der Kommission in die Arbeiten an den Praxisleitfäden wäre bedenklich. Die Ergebnisse der politischen Einigung aus den Trilog-Verhandlungen könnten im Nachhinein durch die demokratisch nur mittelbar legitimierte Fassung der Praxisleitfäden verändert werden. Erfreulicherweise ist die Kommission von dem Vorhaben, den Geltungsbeginn der Art. 51 ff. KI-VO auszusetzen, mittlerweile abgerückt.[15]
Es steht daher wieder zu hoffen, dass sich eine europäische Lösung für eine europäische Verordnung findet, die die Ergebnisse der Trilog-Verhandlungen und die Unabhängigkeit der Verfasser der Praxisleitfäden respektiert.
* Axel Voss ist Mitglied des Europäischen Parlaments für die EVP. Moritz Köhler ist wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medien‑ recht an der TH Köln und beobachtet für die Gesellschaft für Datenschutz und Datensicherheit das politische Geschehen in Brüssel.
[1] Bertuzzi, EU Commission eyes pausing AI Act’s entry into application, https://www.mlex.com/mlex/articles/2344845/eu-commission-eyes-pausing-aiact-s-entry-into-application (Stand: 14.07.2025)
[2] ErwG 101 S. 1 KI-VO.
[3] Art. 53 Abs. 1 KI-VO
[4] Art. 55 Abs. 1 KI-VO.
[5] Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, COM(2021) 206 final.
[6] Vgl. dazu und zu den daraus resultierenden Herausforderungen der KI-VO bei der Regulierung von GPAI-Anwendungen Schwartmann/Zenner, GPAI-Anwendungen auf dem Prüfstand: Die Regulierung der KI-VO entlang der Wertschöpfungskette, EuDIR 2025, 3.
[7] Schwartmann/Köhler, Ausgewählte Probleme des Entwurfs zur KI-Verordnung, RDV 2024, 27 (28).
[8] Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_DE.html (Stand: 14.07.2025), Abänderung 399.
[9] Dazu Rusch, Berlin, Paris und Rom wollen Selbstregulierung für GPT & Co., Tagesspiegel Background v. 20.11.2023, https://background.tagesspiegel.de/digitalisierung-und-ki/briefing/berlin-paris-und-rom-wollen-selbstregulie‑rung-fuer-gpt-co (Stand: 14.07.2025).
[10] Art. 53 Abs. 4 S. 2 und Art. 55 Abs. 2 S. 2 KI-VO.
[11] Kommission, The General-Purpose AI Code of Practice, https://digital-strate‑gy.ec.europa.eu/en/policies/contents-code-gpai (Stand: 10.7.2025).
[12] Brief abrufbar unter https://fortune.com/2025/03/26/eu-ai-act-code-ofpractice-disinformation-election-benifei-trump-appease-tech-lobbying/ (Stand: 10.06.2025). Dazu EU lawmakers warn against ‘dangerous’ moves to water down AI rules, https://www.ft.com/content/9051af42-ce3f4de1-9e68-4e0c1d1de5b5 (Stand: 14.07.2025).
[13] Statement von Axel Voss und Kai Zenner, https://www.linkedin.com/posts/kzenner_avossgpai-code-activity-7310548578165231618-hJek?utm_sour‑ce=share&utm_medium=member_desktop&rcm=ACoAAD_ddDYB8eq6nvg6laDsUPl6fd_VFE1YWA (Stand: 10.07.2025).
[14] Bertuzzi, EU Commission eyes pausing AI Act’s entry into application, https://www.mlex.com/mlex/articles/2344845/eu-commission-eyes-pau‑sing-ai-act-s-entry-into-application (Stand: 14.07.2025).
[15] Chee, EU sticks with timline for AI rules, https://www.reuters.com/world/europe/artificial-intelligence-rules-go-ahead-no-pause-eu-commissionsays-2025-07-04/ (Stand: 14.07.2025)
