Bericht : (Un)klarheiten für die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck : aus der RDV 5/2025, Seite 281 bis 283
Die EU-Kommission hat erstmals Praxisleitfäden zur Anwendung der Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck veröffentlicht. Die neuen Regeln bringen mehr Rechtssicherheit – etwa durch klare Schwellenwerte zur Rechenleistung – lassen jedoch zentrale Fragen zur Abgrenzung und Durchsetzung offen.
Es ist vollbracht. Nach langen und teilweise heftigen Diskussionen hat die Europäische Kommission am 10.07.2025 die Praxisleitfäden zur Anwendung der Vorgaben für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (engl.: General Purpose AI, kurz: GPAI) veröffentlicht.[1] Am 18.07.2025 folgten die Leitlinien zum Anwendungsbereich der statuierten Pflichten.[2] Nachdem die Kommission im Mai noch angekündigt hatte, eine Aussetzung des Geltungsbeginns der Vorgaben für Anbieter von GPAI-Modellen zu prüfen,[3]ist bereits die Einhaltung der gesetzlich vorgesehenen Fristen sowohl aus politischer als auch aus parlamentarischer Perspektive ein Erfolg. Einige Fragen bleiben aber offen.
Anwendbarkeit der Vorgaben für GPAI-Modelle
Mit den Leitlinien zum Anwendungsbereich der Vorgaben für die Anbieter von GPAI-Modellen hat die Kommission in einigen Aspekten für dringend erforderliche Klarheit gesorgt. Rechtsunsicherheit herrschte in der Praxis in den vergangenen Monaten vor allem bei zwei Fragen: Unklar war zunächst, wie ein einfaches KI-Modell von einem GPAI-Modell abzugrenzen ist. Für einen Anbieter, der beispielsweise ein KI-Modell für bildgebende medizinische Diagnostik mit natürlichsprachlicher Ausgabe entwickelt, ist die Abgrenzung zwischen einem einfachen KI-Modell und einem GPAI-Modell von großer Bedeutung, da sie darüber entscheidet, ob er die Pflichten der Art. 51 ff. KI-VO erfüllen muss.
In den Leitlinien hat die Kommission nun festgelegt, dass die für das Training benötigte Rechenleistung ein zentrales Merkmal der Abgrenzung sein soll.[4] Die Rechenleistung wird in Gleitkommazahl-Operationen (engl.: Floating Point Operations, kurz: FLOP) gemessen, wobei ein FLOP für eine mathematische Berechnung steht. Laut Leitlinien ist eine Rechenleistung von 1023 FLOP typisch für ein GPAI-Modell.[5] Damit sollen insbesondere solche KI-Modelle erfasst werden, die, wie in ErwG 98 KI-VO vorgesehen, über mehr als eine Milliarde Parameter verfügen.
Klarheit für Fine-Tuner
Eine weitere Unklarheit, die insbesondere europäische Anbieter beschäftigt hat, geht die Kommission in den Leitlinien ebenfalls an. Aus ErwG 109 S. 3 KI-VO ergibt sich, dass Anbieter, die ein bestehendes GPAI-Modell nachtrainieren, die Pflichten der Art. 51 ff. KI-VO nur bezogen auf ihren Beitrag zum Modell-Training erfüllen müssen. Unklar war bislang allerdings, wann ein solcher sogenannter Fine-Tuner überhaupt als Anbieter eines GPAI-Modells gilt.[6] In den Leitlinien legt die Kommission nun fest, dass die entsprechende Abgrenzung ebenfalls anhand der aufgebrachten Rechenleistung vorzunehmen ist: Ein Fine-Tuner gilt demnach grundsätzlich als Anbieter eines GPAI-Modells, wenn die Rechenleistung der Feinabstimmung mindestens einem Drittel der Rechenleistung entspricht, die für das Training des Originalmodells aufgebracht wurde.
Herausforderungen einer Anknüpfung an Schwellwerte
Die Anknüpfung an die für das Training benötigte Rechenleistung bringt dringend erforderliche Rechtssicherheit für die Anbieter. Sie ist allerdings auch mit Risiken verbunden: Die KI-Industrie sucht laufend nach Wegen, die Kosten für das Training zu reduzieren. Das funktioniert unter anderem, indem die für das Training aufgebrachte Rechenleistung reduziert wird. In den kommenden Jahren könnten also KI-Modelle mit erheblicher Potenz auf den Markt kommen, für deren Training eine Rechenleistung deutlich unterhalb des Schwellwerts erforderlich war. Die Anbieter solcher Modelle müssten nach derzeitigem Stand die Pflichten der Art. 51 ff. KI-VO nicht erfüllen, obwohl sie mit ihren Produkten ebenfalls „eine besondere Rolle und Verantwortung“ wahrnehmen, ErwG 101 S. 1 KI-VO.
Während einige Experten vor diesem Hintergrund zusätzliche Abgrenzungsfaktoren wie die Performance der Modelle in standardisierten Tests fordern,[7] denkt die Kommission darüber nach, die Schwellwerte für GPAI-Modelle mit systemischen Risiken anzuheben.[8] Neben den für alle Anbieter von GPAI-Modellen geltenden Transparenzpflichten müssen die Anbieter solcher Modelle besondere Pflichten zur Risikominderung erfüllen. Gemäß Art. 51 Abs. 2 KI-VO wird ein systemisches Risiko eines GPAI-Modells grundsätzlich angenommen, wenn für das Training des Modells 1025 FLOP erforderlich waren. Bei diesem Schwellwert handelt es sich um einen politischen Kompromiss ohne informationstechnischen Hintergrund.[9] Eine Überarbeitung des Schwellwerts unter Bezugnahme auf Experten und belastbare Daten könnte sich also durchaus als sinnvoll erweisen. Dabei ist aber sicherzustellen, dass die größten GPAI-Modelle weiterhin von den besonderen Vorgaben für Modelle mit systemischem Risiko erfasst sind.
Konkretisierung der Pflichten in den Praxisleitfäden
Art. 53 Abs. 4 S. 1 und Art. 55 Abs. 2 S. 1 KI-VO bestimmen, dass sich die Anbieter von GPAI-Modellen bis zur Veröffentlichung einer harmonisierten Norm auf Praxisleitfäden stützen können, um die Einhaltung der ihnen auferlegten Pflichten nachzuweisen. Die nun veröffentlichten Praxisleitfäden sind für die Anbieter der GPAI-Modelle also von großer Bedeutung. Sie sind in drei Kapitel unterteilt: ein Kapitel zur Transparenz, ein Kapitel zum Urheberrecht und ein Kapitel zur Sicherheit der Modelle. Während die ersten beiden Kapitel alle Anbieter von GPAI-Modellen betreffen, ist das letztgenannte Kapitel nur für die Anbieter von GPAI-Modellen mit systemischen Risiken relevant.[10]
Mittlerweile haben 26 Anbieter von GPAI-Modellen die Praxisleitfäden unterzeichnet und sich damit selbst verpflichtet, die darin angelegten Vorgaben einzuhalten. Im Gegenzug müssen sie die Einhaltung der in Art. 53 Abs. 1 und Art. 55 Abs. 1 KI-VO statuierten Pflichten nicht anderweitig nachweisen. Aller Kritik zum Trotz, die einige Anbieter während der Erstellung der Praxisleitfäden geäußert hatten,[11]haben schließlich fast alle großen KI-Unternehmen aus Europa und den USA die Selbstverpflichtung unterzeichnet, darunter Amazon, Anthropic, Google, Microsoft, Mistral AI und Open AI.[12]
Elon Musks xAI gehört zu den Unterzeichnern des dritten Kapitels, muss die Einhaltung der Vorgaben zu Transparenz und Urheberrecht aber anderweitig nachweisen.[13]Das dürfte das Unternehmen vor einige Herausforderungen stellen. Noch größeren Widerstand haben die Praxisleitfäden von Seiten Metas erfahren. Sie seien mit erheblicher Rechtsunsicherheit für Anbieter von GPAI-Modellen verbunden und sehen Maßnahmen vor, die weit über den Anwendungsbereich der KI-VO hinausgingen, schrieb der Chief Global Affairs Officer des Konzerns, Joel Kaplan, auf LinkedIn.[14] Die Kommission hat daraufhin angekündigt, Anbieter von GPAI-Modellen, die die Praxisleitfäden nicht unterzeichnet haben, künftig streng zu überprüfen.[15] Es steht zu hoffen, dass sie diesen Worten Taten folgen lässt, um eine verantwortungsvolle Entwicklung von GPAI-Modellen sicherzustellen.
Durchsetzung
Für die Durchsetzung der Vorgaben für die Anbieter von GPAI-Modellen ist gemäß Art. 88 Abs. 1 S. 1 KI-VO die Kommission zuständig. Formell gilt die Vorschrift zwar erst ab dem 02.08.2026. Die Vorgaben der Art. 51 ff. KI-VO gelten hingegen bereits seit dem 2. August dieses Jahres. Zögert die Kommission nun zu lange und wartet auf den Geltungsbeginn der Durchsetzungsvorschriften, setzt sie ihre Glaubwürdigkeit und die des Gesetzes aufs Spiel. Sinnvoll und im Sinne der KI-VO wäre es, wenn die Kommission bereits jetzt beginnt, die Einhaltung der Vorgaben für die Anbieter von GPAI-Modellen zu prüfen. Dazu bedarf es enormer Kapazitäten und ausreichenden Fachwissens. Angesichts des Wachstums der KI-Industrie sind entsprechende Talente derzeit nicht leicht zu finden. Umso wichtiger ist es, dass der Aufbau des bei der Kommission angesiedelten Büros für Künstliche Intelligenz vorangetrieben wird. Das Europäische Parlament fordert eine Institution mit mindestens 200 Mitarbeitern aus den Bereichen Technik, Recht und Politik.[16]
Fazit
Es war ein langer Weg, aber langsam entfalten die Vorgaben der KI-VO Geltung. Ob es der EU gelingt, ähnlich wie mit der DS‑GVO internationale Standards zu schaffen, ist jetzt eine Frage der Implementierung des Rechtsakts. Nach einigen Startschwierigkeiten scheint die Europäische Kommission den richtigen Pfad eingeschlagen zu haben: Sie geht offene Fragen selbstbewusst an und hält an den gesetzlich vorgesehenen Fristen fest. In Zukunft wird es vor allem darum gehen, die konkretisierten Vorgaben ebenso selbstbewusst durchzusetzen. So besteht eine echte Chance, die weltweite KI-Entwicklung aus Europa heraus verantwortungsvoll zu gestalten.
* Axel Voss ist Mitglied des Europäischen Parlaments für die EVP. Moritz Köhler beobachtet für die Gesellschaft für Datenschutz und Datensicherheit das politische Geschehen in Brüssel
[1] Europäische Kommission, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai (Stand: 12.08.2025)
[2] Europäische Kommission, Guidelines on the scope of obligations for providers of general-purpose AI models under the AI Act, https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-generalpurpose-ai-models-under-ai-act (Stand: 12.8.2025)
[3] Dazu die vorausgehende Ausgabe des Berichts aus Brüssel, RDV 4/2025, 214
[4] Europäische Kommission, Guidelines on the scope of obligations for providers of general-purpose AI models under the AI Act, Rn. 15.
[5] Europäische Kommission, Guidelines on the scope of obligations for providers of general-purpose AI models under the AI Act, Rn. 18.
[6] Dazu Schwartmann/Zenner EuDIR 2025, 3 (5 f.).
[7] Dazu Ketterer, Welche Aspekte die Leitlinien für KI-Modelle nicht klären, Tagesspiegel Background vom 05.08.2025.
[8] Europäische Kommission, General-purpose AI obligations under the AI Act, https://digital-strategy.ec.europa.eu/en/factpages/general-purpose-ai-obligations-under-ai-act (Stand: 12.08.2025): “currently under review”. Möglich wäre das gemäß Art. 51 Abs. 3 KI-VO mit einem delegierten Rechtsakt.
[9] Schwartmann/Keber/Zenner/Zenner/Schwartmann/Hansen, KI-VO. Leitfaden für die Praxis, 2. Aufl. 2024, 2. Teil 1. Kap. Rn. 494.
[10] Europäische Kommission, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai (Stand: 12.08.2025).
[11] Dazu die vorausgehende Ausgabe des Berichts aus Brüssel, RDV 4/2025, 214
[12] Europäische Kommission, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai (Stand: 12.08.2025). Dazu Henning, Commission publishes full list of AI companies signed up to Code of Practice, https://www.euractiv.com/section/tech/news/commission-publishes-full-list-of-ai-companies-signed-up-to-code-ofpractice/ (Stand: 12.08.2025).
[13] Europäische Kommission, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai (Stand: 12.08.2025).
[14] Beitrag von Joel Kaplan auf LinkedIn, https://www.linkedin.com/posts/joelkaplan-63905618_europe-is-heading-down-the-wrong-path-on-activity7351928745668055042-XuF7/ (Stand: 12.08.2025).
[15] Henning, Meta won’t sign EU’s Code of Practice for generative AI, https://www.euractiv.com/section/tech/news/meta-wont-sign-eus-codeof-practice-for-generative-ai/ (Stand: 12.08.2025).
[16] Voss, Getting serious about AI rules: Lack of enforcement capacity puts EU at risk, https://www.euractiv.com/section/tech/opinion/getting-serious-aboutai-rules-lack-of-enforcement-capacity-puts-eu-at-risk/ (Stand: 12.08.2025).