Kurzbeitrag : KI, Gesetzgeber und EuGH – Neue Herausforderungen für den betrieblichen Datenschutz: Vorträge und Diskussion am Vormittag des ersten DAFTA-Tages 2023 : aus der RDV 1/2024, Seite 35-37
Unternehmen entdecken derzeit das Potenzial hinter Künstlicher Intelligenz (KI). Die Anwendungsszenarien scheinen unerschöpflich: KI-Systeme können zur Kundenkommunikation genutzt werden oder interne Prozesse wie die Bewerberauswahl effizienter gestalten. Es ist daher nicht verwunderlich, dass die Unternehmen die Integration von KI in ihre betrieblichen Abläufe intensiv betreiben. Entwicklung und Anwendung der neuen Technologie ist indes mit der Verarbeitung unermesslich großer Datensätze verbunden, die auch personenbezogene Daten enthalten. Für Unternehmen ist es daher unerlässlich, ein Konzept für den Einsatz von KI-Anwendungen zu entwickeln, das mit den geltenden Datenschutzbestimmungen, insbesondere mit der DS-GVO, vereinbar ist. Die Entwicklung eines solchen Konzepts wird derzeit allerdings durch ungeklärte Rechtsfragen auf allen Ebenen der DS-GVO sowie durch zahlreiche Gesetzgebungsvorhaben im Bereich des Datenschutzes und des KI-Einsatzes behindert. Bei der Eröffnung der 47. Datenschutzfachtagung (DAFTA) 2023 am 16.11.2023 wurden daher die Herausforderungen für den betrieblichen Datenschutz beim Einsatz von KI erörtert und praxisnahe Lösungen gesucht.
Nach der Begrüßung durch Prof. Dr. Rolf Schwartmann, Vorstandsvorsitzender der GDD, und einem Grußwort des Kölner Bürgermeisters Andreas Wolter eröffnete Prof. Dr. Tobias Keber, Landesbeauftragter für Datenschutz und Informationsfreiheit Baden-Württemberg (LfDI BW), den inhaltlichen Teil des Vormittags. In seinem Vortrag mit dem Titel „Kollege ChatGPT“ setzte er sich mit den geltenden Regelungen des Betriebsdatenschutzes auseinander und prüfte, inwiefern diese Regelungen praktikable Lösungen für den Einsatz textgenerierender KI-Systeme im Unternehmensalltag bieten. Dabei blickte er auch auf die geplanten Regelungen der KI-Verordnung und ihr Verhältnis zu den Vorschriften der DS-GVO. Besondere Relevanz für Unternehmen hat die Frage, welche Rechtsgrundlage für die Verarbeitung personenbezogener Daten beim Einsatz von KI anwendbar ist. In diesem Zusammenhang verwies Keber auch auf ein Diskussionspapier, das er in seiner Tätigkeit als LfDI BW Anfang November veröffentlicht hatte.[1]
Ein wichtiger Bestandteil der KI-Regulierung soll nach dem Willen des EU-Gesetzgebers noch in diesem Jahr auf den Weg gebracht werden: Die politische Einigung über die geplante KIVerordnung soll bis zum 06.12.2023 erreicht werden, damit das Gesetz noch in dieser Legislaturperiode in Kraft treten kann.[2] Im Anschluss an den Vortrag Kebers informierte Kai Zenner die Teilnehmer/-innen der DAFTA über den aktuellen Stand der Trilog-Verhandlungen. Zenner arbeitet als Büroleiter und Digitalreferent beim Berichterstatter für die KI-Verordnung Axel Voss, MdEP. Mit der KI-Verordnung plant die EU, eine weltweite Vorreiterrolle in der KI-Regulierung einzunehmen. Unter Zugrundelegung eines risikobasierten Ansatzes soll KI-Systemen durch dieses Produkthaftungsgesetz anhand ihres Verwendungszwecks ein Gefährdungspotenzial zugewiesen werden. Dieses Gefährdungspotenzial entscheidet schließlich darüber, ob das System verboten wird, einer ausdifferenzierten Regulierung unterliegt oder weitgehend ohne spezifische KI-Regulierung eingesetzt werden darf. Wegen der zu diesem Zeitpunkt noch laufenden Verhandlungen zur KI-Verordnung konnte Zenner nicht wie geplant in Köln vor Ort sein, sondern wurde per Videobotschaft zugeschaltet. Darin berichtete er von den stockenden Trilog-Verhandlungen zu dem EU-Rechtsakt und vom enormen Zeitdruck, unter dem alle Beteiligten stehen.
Im Anschluss an das Update aus Brüssel beleuchtete Marit Hansen, Landesbeauftrage für Datenschutz Schleswig-Holstein und Vorsitzende der Datenschutzkonferenz, die datenschutzrechtlichen Anforderungen an den KI-Einsatz unter besonderer Berücksichtigung der Informatik. Sie kam dabei zu dem Schluss, dass eine Regulierung unter dem Motto „One size fits all“ im vorliegenden Kontext unbrauchbar ist. Zu verschieden seien die denkbaren Anwendungsszenarien und zu komplex die damit einhergehenden rechtlichen Herausforderungen. Bei der Regulierung sei es jedoch stets erforderlich, die Risiken im Blick zu behalten, die der Technologie inhärent sind. Sie wies unter anderem auf die Gefahr von Indirect Prompt Injections bei anwendungsintegrierten Sprachmodellen hin, vor denen das Bundesamt für Sicherheit in der Informationstechnik ebenfalls warnt.[3]
Den Abschluss der Vortragsreihe machte Dr. Marek Jansen, LL.M., Privacy Policy Lead bei Google. Er sprach über Anwendungsfälle von KI im Rahmen interner Abläufe im Google-Konzern und berichtete über die Entwicklung des Google Chatbots Bard, benannt nach William Shakespeare, „The Bard of Avon“. Vor dem Launch der KI hatte Google das Programm verschiedenen Datenschutzbehörden in Europa vorgestellt und deren Kritik umgesetzt. So wollte man verhindern, dass Bard das gleiche Schicksal ereilt wie ChatGPT, dessen Betrieb Anfang des Jahres von den italienischen Datenschutzbehörden vorübergehend verboten worden war.
Im Anschluss an die Vorträge diskutierten die Referenten gemeinsam mit Tobias Haar, LL.M., MBA, General Counsel bei Aleph Alpha, und Andreas Jaspers, Geschäftsführer der GDD, unter der Moderation von Schwartmann über die Regulierung generativer Sprachmodelle. Haar vertrat dabei die Ansicht, dass es dem risikobasierten Ansatz der KI-Verordnung zuwiderlaufe, wenn Sprachmodelle unabhängig von ihrer konkreten Anwendung reguliert würden. Auch eine gemeinsame datenschutzrechtliche Verantwortlichkeit wollte er nur dann annehmen, wenn der KI-Betreiber auch tatsächlich Daten mit dem Modellentwickler teilt. In Bezug auf die Haftung für Rechtsverletzungen schlug Keber ein gestuftes Modell vor, das sich an den Regelungen aus dem TMG bzw. nunmehr dem DSA orientieren sollte. Kontrovers diskutiert wurde auch die Frage, ob bereits ein personenbezogenes Datum in dem großen Satz der Trainingsdaten einer KI genügen soll, um die DS-GVO grundsätzlich für anwendbar zu erklären.
Am Ende des Vormittags stand zwar die Erkenntnis, dass die Lösung der datenschutzrechtlichen Probleme beim KI-Einsatz im Unternehmen noch eine Weile auf sich warten lassen wird. Es ist aber gelungen, konkrete Fragen zu formulieren, die nun im gesellschaftlichen Diskurs zwischen Wissenschaft, Politik und Unternehmen beantwortet werden können.
* Der Autor ist wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht und Doktorand bei Prof. Dr. Rolf Schwartmann.
[1]Https://www.baden-wuerttemberg.datenschutz.de/rechtsgrundlagen-datenschutz-ki/ (zuletzt abgerufen am 17.11.2023)
[2] Die politische Einigung über die KI-Verordnung wurde nach der Abgabe des vorliegenden Textes am 08.12.2023 erreicht. Der finale Text der Verordnung soll bis Anfang Februar 2024 vorliegen. Die Verordnung soll noch vor der Europawahl im Juni 2024 verabschiedet werden. Zu den Ergebnissen und den Problemen der Einigung vgl. Schwartmann/Köhler, RDV 1/2024, 27 ff.
[3]Https://www.bsi.bund.de/SharedDocs/Cybersicherheitswarnungen/DE/2023/2023-249034-1032.pdf?__blob=publicationFile&v=3 (zuletzt abgerufen am 17.11.2023.); hierzu Ritter, RDV 5/2023, 304 ff.