Abo

Kurzbeitrag : ChatGPT – Die Neuentdeckung des Feuers* : aus der RDV 3/2023 Seite 160 bis 164

Die Nutzung von ChatGPT gerät zunehmend in die Kritik – nicht nur in Europa. Faktisch wäre aber ein dauerhaftes Verbot der Software keine realistische Option, dies wäre auch nicht sinnvoll. Neues lässt sich, wie die Technikgeschichte belegt, allenfalls aufhalten, verhindern lässt es sich nicht.[1]

I. Recht gestalten

Es geht also nicht ums Stoppen, sondern ums Steuern der Entwicklungen der Künstlichen Intelligenz (KI) im Sinne von Rechtsstaatlichkeit und Risikobeherrschung. So ist auch der Präsident des Branchenverbandes BITKOM mit seiner Aussage zu verstehen: „Wir müssen die technologische Entwicklung bei KI in Deutschland vorantreiben und ein praxistaugliches Regelwerk für ihre Anwendung in Europa und weltweit entwickeln.“[2] Begleitend zum technischen Fortschritt ist der normative Rahmen, in den die Entwicklung und Anwendung neuer KI-Technologien eingebettet sein muss, weiterzuentwickeln und neu auszurichten. Erst die ethische Reflexion der Innovationsrisiken und deren rechtliche Einhegung wird die gesellschaftliche Akzeptanz der Innovation stärken. Das hat nichts mit Technikskepsis zu tun. Es geht um einen ausgeprägten Sinn dafür, dass jede neue Technik, wenn sie dauerhaft zu Wohlfahrtsgewinnen führen soll, auf Akzeptanz angewiesen ist. Das setzt das allgemeine Vertrauen voraus, dass gute Gründe uns leiten. Nötig ist daher ein ehrlicher Blick auf die Chancen und Risiken, aber auch auf die regulatorischen Optionen, dieser Risiken Herr zu werden und die Chancen zu stärken.

II. Transparenz einfordern

Die italienische Datenschutzbehörde ist mit einer Prüfung von ChatGPT vorgeprescht und hat das Angebot einstweilen verboten.[3] Keine Rechtsgrundlage für die intensive Verarbeitung personenbezogener Daten zum Training des Algorithmus, unzureichende Information der Nutzerinnen und Nutzer über die Verarbeitung ihrer Daten, unrichtige Daten und keine Regelung des altersgerechten Zugangs – im Klartext: die Gefährdung Minderjähriger – sind die Kritikpunkte. Man kann hoffen, dass die Firma OpenAI als Anbieter von ChatGPT auf die Kritik reagiert, kurzfristig die nötigen Informationen bereitstellt und vor allem die sich aus dem Datenschutzrecht ergebenen Anforderungen der italienischen Behörde umsetzt. Denn selbstverständlich stellen sich diese Fragen nicht nur in Italien, sondern in allen europäischen Mitgliedstaaten. Deren Aufsichtsbehörden tauschen sich in einer neu eingerichteten Taskforce des Europäischen Datenschutzausschusses aus, sodass Erkenntnisse aus den laufenden und angekündigten Prüfungen zu ChatGPT Grundlage einer einheitlichen Linie für die Datenschutzaufsicht in Europa sein können.[4] Schon jetzt ist deutlich, dass die zu klärenden Fragen über reine Datenschutzanforderungen[5] hinausgehen und bei der Orchestrierung der Rechtsdurchsetzung zu beachten sind: So müssten Einzelheiten wie die Zuständigkeit für die Altersverifikation mit Medienaufsichtsbehörden abgestimmt werden.

Das Verbot einer neuen Technik ist nicht der erste Schritt, sondern Ultima Ratio – nach sorgfältiger Prüfung und Bewertung der Sachlage oder bei besonderen Gefahrenlagen. Betroffene Unternehmen können sich gegen Untersagungsverfügungen zur Wehr setzen und eine gerichtliche Überprüfung herbeiführen. Die deutschen Datenschutzbehörden haben sich koordiniert und Fragen zu ChatGPT formuliert, um sich zunächst ein klares Bild über die Software zu verschaffen.[6] Auch wenn das ChatGPT-Angebot in disruptiver Manier aufgetaucht ist und die Verwendung in beispielloser Geschwindigkeit fast alle Lebensbereiche infiltriert hat, sind die Behörden an Recht und Gesetz gebunden. Der Nutzung im Blindflug kann nicht mit einem regulatorischen Blindflug der staatlichen Aufsicht begegnet werden.

Auch der Berichterstatter des Europäischen Parlaments für die KI-Haftungs-Richtlinie, Axel Voss, hat sich, gemeinsam mit dem früheren Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg, des Landes Baden-Württemberg, Stefan Brink, und Rolf Schwartmann als Vorsitzendem der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V., in einem offenen Brief an OpenAI gewandt.[7] Danach soll der Dienst in Europa nicht pauschal verboten, sondern in den bestehenden rechtlichen Rahmen eingefügt werden. Kenntnis über den Pool und die Herkunft der Trainingsdaten, aus denen die Ergebnisse generiert werden, wird ebenso verlangt wie die Benennung der Parameter, die bei der Programmierung des Bots maßgeblich waren. Erst dann könnten die Gefahren der Diskriminierung und Manipulation der Produktergebnisse sowie des Missbrauchs der Datenbasis differenziert eingeschätzt werden. Auf Grundlage dieses Wissens seien die Ergebnisse des Bots überprüfbar und bewertbar und könnten, wenn nötig, verworfen werden. Es gibt in Wissenschaft und Wirtschaft auch hierzulande durchaus vielversprechende Ansätze, das Problem einer in ihrem Output nicht nachvollziehbaren Black-Box-Technik durch erklärbare und vertrauenswürdige KI – sog. Explainable Artificial Intelligence[8] – in den Griff zu bekommen. So sollen solche Systeme beispielsweise schon heute darstellen können, welche Textstellen einer Quelle die generierte Antwort erzeugt haben und welche einen Widerspruch auslösen.[9]

III. Vielschichtig reflektieren

Die von OpenAI – namentlich von den deutschen Datenschutzbehörden – angemahnten Informationen sind über den Datenschutz hinaus von Bedeutung.

Schutz der freien Meinungsbildung Der Schutz eines freien Prozesses der Meinungsbildung ist für eine Demokratie konstitutiv.[10] ChatGPT ruft auch das Medienrecht auf den Plan. Traditionell ist das ein vom Datenschutzrecht abgegrenztes System, in dem spezielle rechtliche Regeln greifen, wenn es etwa um die Verarbeitung personenbezogener Daten von prominenten Persönlichkeiten geht. Die Datenverarbeitung zu journalistischen Zwecken ist privilegiert, was auch die Datenschutz-Grundverordnung anerkennt.[11] Was aber bedeutet das für ChatGPT? Originär eigene Inhalte liefert der Dienst nicht. Es ist ein Werkzeug, das aus datenschutzrechtlich privilegierter Berichterstattung im Netz ebenso schöpft wie aus nicht journalistisch-redaktionellen und damit nicht privilegierten Quellen. Die eine Datenausgabe anfragende Person, vielleicht eine Journalistin, weiß nicht, in welchem Kontext die ursprüngliche Daten- und Informationsverarbeitung stand.

ChatGPT nutzt ungeachtet aller (noch nicht sonderlich ausgeprägter) Plausibilitäts- und Faktenkontrollen auch im Netz präsente Lügen. Die fehlende Qualitätskontrolle auf Ebene der Datenerhebung schlägt auf den Prozess der Informationsvermittlung durch. Der Dienst hat rein technisch das Potenzial zur gigantischen Desinformations- und Manipulationsmaschine. Fehlinformationen und überkommene Stereotype werden reproduziert. Zu einigen Anfragen schweigt der Bot. So wurden, auf die Marktdurchdringung fokussierend, Antworten auf Fragen verweigert, die sich auf die Menschenrechtssituation der Uiguren bezogen – mutmaßlich weil darüber in China nicht berichtet werden darf.[12] Wird dadurch ein abweichendes und nicht nachvollziehbares Verständnis von eigentlich global anerkannten Menschenrechten zum Maßstab der Diensterbringung auch in Europa? Und ist ChatGPT damit Informationsvermittler im Sinne der Medienregulierung? Das für den Dienst verantwortliche Unternehmen OpenAI würde das wohl verneinen. Eine bekannte Strategie, die lange Zeit auch der Anbieter einer marktbeherrschenden Suchmaschine verfolgt hat, bis die Rechtsprechung intervenierte. ChatGPT lässt sich mit der – freilich massiv weiterentwickelten – Autovervollständigungsfunktion einer Suchmaschine vergleichen. Danach wurde, um nur ein besonders bedrückendes Beispiel zu nennen, für eine Präsidentengattin faktisch das Bild als Prostituierte nahegelegt, weil Nutzer häufig genug danach fragten.[13] Die Richtigkeit von Daten und Informationen, die die Technik mit mathematischer Wahrscheinlichkeit gleichsetzt, wird über die Häufigkeit ihrer Wiederholung begründet. Stochastik erzeugt weder Wahrheit noch menschliche Wertungen. Der Bundesgerichtshof hat Google vor diesem Hintergrund schon vor zehn Jahren zumutbare Sicherungsmaßnahmen ins Pflichtenheft geschrieben.[14] Nach der Rechtsprechung des Europäischen Gerichtshofs in seiner Entscheidung zum „Recht auf Vergessen“ hat jeder Nutzer in Europa einen Anspruch gegen den Anbieter einer Suchmaschine auf „Auslistung“ seiner Daten aus den Suchanzeigen, die seine Rechte verletzen.[15] Dieses Recht und die entsprechende Pflicht lassen sich auf ChatGPT übertragen.

Wie der Anbieter OpenAI das „Recht auf Vergessen“ umsetzt, muss er erklären. Dessen eigene Haftung für Persönlichkeitsrechtsverletzungen von Nutzerinnen und Nutzern, die er sich in den Frage- und Antwortrunden mit dem Bot möglicherweise zu eigen macht, ist nicht ohne Weiteres von der Hand zu weisen, wenn beispielsweise ein Auftrag lautet: „Schreibe ein lustiges Gedicht über die lange Nase von Person X.“ Nach den Kategorien unseres Haftungsrechts kann sich der Anbieter eines Produkts der Haftung für Schäden, die sein Produkt verursacht, nicht so einfach entziehen. Dass ein tiefes neuronales Netzwerk auch für seinen Anbieter nicht steuerbar sein mag, befreit diesen nicht von seiner Verantwortung. Im Gegenteil: Verantwortung heißt immer auch Verantwortung für die als möglich erkannten und in Kauf genommenen Folgen eigener Innovationskraft. (Haftungs-)Verantwortung geht nicht verloren, weil man sich dumm stellt und die Folgen eigenen Tuns anderen kostensparend in die Schuhe schieben will.

Jugendschutz

Auch das Argument einer unzureichenden Altersverifikation der italienischen Datenschutzbehörde hat einerseits eine datenrechtliche und andererseits eine medienrechtliche Dimension. Der Jugendmedienschutz böte mit Netzsperren, wie sie unlängst gegen frei zugängliche pornografische Angebote durch die Landesmedienanstalt NRW ins Werk gesetzt wurden[16], zumindest theoretisches Durchsetzungspotenzial. Strukturell ist die Pflicht zur Ausfilterung jugendschutzwidriger Inhalte im Netz durch Internetzugangsanbieter die Inanspruchnahme von Nichtverantwortlichen („Nichtstörern“). Sie legitimiert sich nur über die charakteristischen Defizite bei der Rechtsdurchsetzung in grenzüberschreitenden Kommunikationsräumen.[17] Angesichts der hochsensiblen Grundrechtslage, die bei der gebotenen Abwägung die wirtschaftlichen Interessen der Diensteanbieter ebenso wie die Interessen der von der Informationsverarbeitung Betroffenen, aber auch die legitimen Informationsinteressen Dritter berücksichtigen muss, können Netzsperren nur letztes Mittel der Regulierung sein.[18] Namentlich bei Mehrzweckanwendungen wie ChatGPT wäre es unverhältnismäßig, mittels pauschaler Netzsperre auch rechtlich zulässige Nutzungsszenarien zu blockieren.

Urheberrecht

Mit seinem riesigen Trainingsdatenpool kommt ChatGPT zudem mit dem Urheberrecht in Berührung. Dieses kennt eine Norm, die das sog. „Data Mining“ als automatische Analyse von digitalisierten Werken zur Informationsgewinnung in Grenzen gestattet.[19] Rechteinhaber können widersprechen, KI-Trainingsgegenstand zu werden, wenn sie dies maschinenlesbar erklären und hinreichend kenntlich machen. Die Einzelheiten sind hier aber ebenso unklar wie ein in Teilen angebotenes „Opt-out“ beim datenschutzrechtlichen Pendant, dem sog. „Scraping“. Hier werden Daten aus öffentlich zugänglichen Quellen genutzt. Wie weit die Erlaubnisnorm aus der DS-GVO trägt, die bei der Verarbeitung dieser Daten auf die Abwägung der Interessen der betroffenen Nutzenden einerseits und des Anbieters andererseits abstellt, ist offen. Im Datenschutzrecht kennt man – sicherlich professionalisierungsbedürftige – Konzepte der Anonymisierung und Pseudonymisierung.[20] Damit könnte man vor dem Training von Sprachmodellen wie ChatGPT im Sinne einer rechtmäßigen Realisierung sensible personenbezogene Daten ausfiltern, die sich möglicherweise andernfalls durch geschicktes Anfragen an ChatGPT oder verwandte KI-Tools herauskitzeln lassen.[21] Auch zu „Unlearning“-Verfahren[22] wird geforscht, um unrechtmäßig eingeflossene Datensätze zu neutralisieren oder zumindest Risiken für die davon betroffenen Personen einzudämmen.[23] Einerseits sind derartige Techniken bisher kaum in der Praxis im Einsatz, andererseits sind die Ergebnisse nicht unmittelbar auf die Situation der Rechteinhaber im Urheberrecht übertragbar.

Angesichts dieser vielfältigen Rechtsfragen ist es verständlich, dass der Gesetzgeber in der Europäischen Union mit Hochdruck an der Regulierung von KI-Angeboten wie ChatGPT arbeitet.[24] So wichtig die Zuordnung dieser Textroboter für beliebige Zwecke auch ist und wie gut sie auch gelingen mag: Sie wird im komplexen und behäbigen Gesetzgebungsprozess der EU nicht vor 2024/2025 anwendbar sein können. Die Crux: Bis dahin haben sich viele Risiken der neuen Technik realisiert.

IV. Risiken beherrschen

Was eigentlich ist das Bedrohliche der Wirkweise von Textrobotern wie ChatGPT, die nach nur wenigen Monaten des Einsatzes zu Recht als revolutionär eingestuft wird? Wenn man so will, entdeckt die Informationsgesellschaft das Feuer neu. Das geschieht nicht allmählich, denn der Bot wirkt nicht wie ein Feuerstein, aus dem man mühsam Funken hervorbringen muss, und auch nicht wie ein Blitz, der punktuell einschlägt. Wir erleben, weltweit und flächendeckend, wie der Mensch seine Produktivität nicht mehr nur durch eigenes Denken erzeugt, sondern indem er auf Knopfdruck per mathematisch analysierter Wahrscheinlichkeit Intelligenz simuliert, die Arbeitsergebnisse hervorbringt, die seinen eigenen oft überlegen sind. Das berührt unser Verständnis von relevantem Wissen und begründungspflichtiger Argumentation, die epistemische Ordnung der Welt, ja, unsere Realitätskonstruktionen, die mehr als bislang zwischen Fake-News-Parallelwelten und tragfähigem Wirklichkeitszugang changieren. Diese neue Technik wirkt nicht als Versuch in einem digitalen Sandkasten, sondern längst in der Wirklichkeit von Schule, Ausbildung, Studium, und Forschung, von gesundheitlicher oder psychologischer Beratungspraxis, und in vielen anderen Feldern der Berufswelt: Wir erleben einen sich in Echtzeit ausbreitenden Flächenbrand, der als wärmend und faszinierend empfunden wird, während die verursachten Brandschäden im Hintergrund weithin noch unerkannt sind. Das Neue an diesem Feuer ist seine exponentiell wachsende Riskanz, die sich hinter im Detail nicht abschätzbaren Chancen zu verbergen weiß. Nach der überwiegenden Wahrnehmung schadet ChatGPT also nicht unmittelbar – sondern der Schaden entsteht mit Zeitverzögerung, strukturell und entkoppelt von vielen einzelnen User-Erlebnissen, und so erscheint ChatGPT als Fortschritt jenseits aller Gefahr.

V. Expertise orchestrieren

Wie lässt sich sinnvoll mit dieser Gefahr umgehen? Eine Gruppe von Unternehmern und Wissenschaftlern hat eine Auszeit für den Einsatz der Technik gefordert.[25] Der Geist sei aus der Flasche und das Moratorium nutzlos, hält man dem entgegen.[26] Ob ein Moratorium realistisch ist, kann dahinstehen. Wir müssen uns die Zeit nehmen, uns zu orientieren und diese Dauer nicht als Leerlauf misszuverstehen. Jedenfalls ist klar, dass der durch die Bereitstellung der disruptiven Software ChatGPT hervorgerufene Zustand aktuell ohne tragfähiges Fundament für vertrauenswürdige und rechtskonforme Anwendungen ist.

Was ist zu tun? Zunächst sollten wir uns einen realistischen, weder schöngefärbten noch dramatisierenden Überblick über die Chancen, die Risiken und mögliche Gegenmaßnahmen verschaffen. Mit der Vielfalt der betroffenen Rechtsfragen geht eine Vielfalt der potenziell für die Rechtsdurchsetzung zuständigen Institutionen einher. Von funktionaler Kohärenz und effektivem Zusammenspiel ist das Orchester der nicht nur datenschutzrechtlichen Aufsichtsbehörden meilenweit entfernt. Das ist keine Petitesse: So ist es möglich, dass eine Lösung, die Konformität in einem Rechtsgebiet erreicht und damit eine Aufsichtsbehörde zufriedenstellt, gegen Anforderungen in einem anderen Rechtsbereich verstößt. Die jeweiligen Aufsichtsbehörden haben aber gar kein Mandat, außerhalb ihres thematischen Zuständigkeitsbereichs tätig zu werden. Wie lässt sich bei diesem verwaltungsverfahrensrechtlichen Nebeneinander verlässlich eine ganzheitliche Compliance bei Entwicklung und Einsatz der neuen Technologien erreichen?

In den USA hat die IT-Behörde NTIA eine öffentliche Konsultation zu potenziellen Maßnahmen gestartet.[27] Die Politik holt sich Hilfe. Das klingt sinnvoll. Wie wäre es in der EU mit einer Experten-Kommission aus Aufsichtsbehörden, Verwaltungspraxis, Wissenschaft, Industrie, Zivilgesellschaft, die den Auftrag der EU erhielte, nach sechs Monaten Lösungsansätze für einen Umgang mit der neuen Technik zu unterbreiten? Die Zahl der Sachverständigen, ihre fachliche Herkunft, ihr Prüfauftrag und ihre Befugnisse wären konkret festzulegen.

Womit sollte sich die Experten-Kommission befassen? Wer sich die Vielfalt der Zuständigkeiten in den einzelnen Mitgliedstaaten der EU, aber auch auf EU-Ebene vor Augen führt, muss über eine verbesserte (europäische) Verwaltungskooperation und Koordination nachdenken, die die sich überlappenden oder nebeneinander liegenden Regulierungsansätze beispielsweise zwischen Datenschutz- und Medienrecht neu konzipieren. Die Experten-Kommission müsste sich ferner mit der Produktverantwortung der Anbieter und der professionellen Anwender oder der privaten Nutzenden der Software (zum Beispiel Microsoft, SAP) befassen. Das heißt, bestehende Haftungsprinzipien und -regeln wären weiterzuentwickeln. Dazu könnte als im Hintergrund steuerndes Regulierungselement auch eine Pflichtversicherung zulasten der Anbieter und Anwender gehören, wenn es um ihre Produkte geht, vielleicht auch die Ausstattung eines Fonds zur Abdeckung von Risiken, die einstweilen als nicht versicherbar gelten. Schließlich müsste die Kommission über Standards für einen verantwortbaren Einsatz der in Rede stehenden Anwendungen sowie Zertifizierungsmechanismen nachdenken, die die rechtskonforme und standardgerechte Nutzung der Anwendungen gewährleisten. Dies müsste lebensbereichsspezifisch ausbuchstabiert werden, vom Urheber- über das Datenschutz- und Medienrecht bis hin zum Verbraucher-, Gesundheits-, Schul- und Hochschulrecht einschließlich des Prüfungsrechts und einschließlich der Bereiche, die als „soft law“ für die Forschung relevant sind, nämlich der Debatten über wissenschaftliche Integrität und die Regeln guter wissenschaftlicher Praxis. Zu einem solchen Regulierungsansatz mittlerer Reichweite gehört die Einsicht, dass „große“ Lösungen wie etwa die Kreation einer KI-Superkontrollbehörde auf EU-Ebene bestenfalls Fantasielösungen sind. Kleiner dimensionierte Lösungsansätze haben den Charme, dass zwar einerseits eine Abstimmung auf EU-Ebene möglich ist, aber jeder Mitgliedstaat, solange noch nicht alle relevanten Fragen EU-rechtlich verregelt sind, selbst regulatorisch kreativ sein kann. Zugleich kann eine die Arbeit umgehend aufnehmende Experten-Kommission über eine sinnvolle Überarbeitung der geplanten KIVerordnung der EU nachdenken, die die Leerstellen, die es im Hinblick auf ChatGPT & Co. noch gibt, versucht zu schließen.

VI. Freiheit verantworten

ChatGPT und alle vergleichbaren Anwendungen sind Ausdruck eines „Paradigmenwechsels“, wie Jan Gogoll, Dirk Heckmann und Alexander Pretschner betont haben.[28] Paradigmenwechsel verweisen auf Revolutionen im Denken. Mögen die noch schlummernden Möglichkeiten der KI auch revolutionär sein, so bleiben sie doch Produkte menschlichen Denkens. Der Deutsche Ethikrat hat daran, unter Federführung von Judith Simon und Julian Nida-Rümelin, in seiner vor kurzem erschienenen Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ erinnert.[29] Menschliches Denken ist getrieben von Interessen, die Menschen mit KI verfolgen. Sie müssen in Einklang mit der Schutzbedürftigkeit von Menschen gebracht werden, die KI nutzen oder ihr ausgesetzt sind. Es ist die Pointe des Paradigmenwechsels, dass die Erweiterung menschlicher Handlungsmöglichkeiten durch KI an der menschlichen Autorschaft und damit an der Freiheit, das Revolutionäre zu gestalten, nichts ändert. Autorschaft impliziert damit auch Verantwortung. Sie zu übernehmen und nicht zu scheuen, ist nötig, soll das Feuer der KI nicht wüten, sondern wärmen.

Dr. h.c. Marit Hansen ist Landesbeauftragte für Datenschutz Schleswig-Holstein und Leiterin des Unabhängigen Landeszentrums für Datenschutz in Kiel.

Professor Dr. Tobias Keber ist Vorsitzender des Wissenschaftlichen Beirats der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V.

Professor Dr. Stephan Rixen ist Direktor des Instituts für Staatsrecht der Universität zu Köln und Mitglied des Deutschen Ethikrats.

Professor Dr. Rolf Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht an der TH Köln und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V

* Dieser Text wurde unter dem Titel : „Es bringt nichts, ChatGPT zu verbieten“ in der F.A.Z. v. 24.04.2023, S. 18 veröffentlicht. Die vorliegende Version ist um Fußnotennachweise ergänzt.

[1] DataAgenda Podcast, Folge 35 v. 12.04.2023: ChatGPT – Die Informationsgesellschaft entdeckt das Feuer, abrufbar unter: https://dataagenda.podigee.io/38-dr-keber.

[2] Bitkom e.V., Pressemitteilung v. 11.04.2023, ChatGPT & Co.: Jedes sechste Unternehmen plant KI-Einsatz zur Textgenerierung, abrufbar unter: https://www.bitkom.org/Presse/Presseinformation/ChatGPT-Jedes-sechste-Unternehmen-plant-KI-Einsatz-Textgenerierung.

[3] GPDP (Garante per la protezione die dati personali), Mitteilung der italienischen Datenschutzaufsichtsbehörde v. 31.03.2023 ist abrufbar unter: https://www.gpdp.it/home/docweb/-/docweb-display/docweb/9870847#english.

[4] EDPB (European Data Protection Board), Pressemitteilung zur Gründung einer Taskforce v. 13.03.2023 ist abrufbar unter: https://edpb.europa.eu/news/news/2023/edpb-resolves-dispute-transfers-meta-and-creates-task-forcechat-gpt_en

[5] Veale/Binns/Edwards, Algorithms that remember, model inversion attacks and data protection law, Phil. Trans. R. Soc. A376: 20180083, 2018

[6] Presseartikel, Datenschutzkonferenz nimmt ChatGPT unter die Lupe, Netzpolitik.org v. 07.04.2023, abrufbar unter: https://netzpolitik.org/2023/openaidatenschutzkonferenz-nimmt-chatgpt-unter-die-lupe/

[7] GDD e.V., Offener Brief an das US-Unternehmen OpenAI als Entwickler des Textroboters ChatGPT v. 06.04.2023, abrufbar unter: https://www.gdd.de/downloads/aktuelles/sonstiges/OffenerBriefandasUSUnternehmenOpenAIalsEntwicklerdesTextrobotersChatGPT.pdf

[8] Holzinger, Explainable AI (ex-AI), Informatik-Spektrum 41(2), 2018, 138-143

[9] Presseartikel, Quellenangaben für den Chatbot, F.A.Z. v. 13.04.2023, abrufbar unter: https://www.faz.net/aktuell/wirtschaft/digitec/aleph-alpha-woherchatgpt-informationen-bezieht-18818474.html.

[10] BVerfG, Urt. v. 15.01.1958, 1 BvR 400/51, BVerfGE 7, 198 (208), „Lüth“, abrufbar unter: https://www.servat.unibe.ch/dfr/bv007198.html#212; BVerfG, Beschl. v. 26.02.1969, 1 BvR 619/63, BVerfGE 25, 256 (265), „Blinkfüer“, abrufbar unter: https://www.servat.unibe.ch/dfr/bv025256.html; BVerfG, Beschl. v. 19.05.2020, 1 BvR 1094/19, NJW 2020, 2631, Rn. 16, abrufbar unter: http://www.bverfg.de/e/rk20200519_1bvr109419.html; BVerfG, Beschl. v. 20.07.2021, 1 BvR 2756/20, BVerfGE 158, 389, Rn. 77, abrufbar unter: http://www.bverfg.de/e/rs20210720_1bvr275620.html.

[11] HK DS-GVO/BDSG/Frey, DS-GVO, 2. Aufl. 2020, Art. 85 Rn. 37.

[12] Von Gottberg, ChatGPT-Zensur in der Suchmaschine Bing, mediendiskurs v. 14.03.2023, https://mediendiskurs.online/beitrag/chatgpt-zensur-in-dersuchmaschine-bing-beitrag-1122/

[13] Süddeutsche Zeitung v. 05.11.2012, abrufbar unter: https://www.sueddeutsche.de/digital/persoenlichkeitsrechte-im-internet-google-loescht-suchergebnisse-zu-bettina-wulff-1.1514003

[14] BGH, Urt. v. 14.05.2013, VI ZR 269/12 („Autocomplete“), abgedruckt in ZD 2013, 405 (m. Anm. Hoeren).

[15] EuGH, Urt. v. 13.05.2014, C-131/12 („Recht auf Vergessen“), abrufbar unter: https://curia.europa.eu/juris/liste.jsf?language=de&num=C-131/12; s. auch (u.a. mit Vereis auf den EuGH) BVerfG, Beschl. v. 06.11.2019, 1 BvR 16/13 („Recht auf Vergessen I“), BVerfGE 152, 152, abrufbar unter: http://www.bverfg.de/e/ rs20191106_1bvr001613.html; BVerfG, Beschl. v. 06.11.2019, 1 BvR 276/17 („Recht auf Vergessen II“), BVerfGE 152, 216, abrufbar unter: http://www.bverfg.de/e/rs20191106_1bvr027617.html.

[16] Pressemitteilung der Kommission für Jugendmedienschutz v. 03.03.2022, abrufbar unter: https://www.kjm-online.de/service/pressemitteilungen/meldung?x_news_pi1%5Bnews%5D=5013&cHash=e0c75626b4a319c4f0f697a1695cbe60.

[17] Keber, Zur Hypertrophie des Internetrechts, in: Cole/Schiedermair/Wagner (Hrsg.), Die Entfaltung von Freiheit im Rahmen des Rechts, Festschrift für Dieter Dörr, C.F. Müller 2022, S. 967, 968.

[18] Kraetzig, Netzsperren – Eigentumsschutz oder Zensur?, ZUM 2023, 182.

[19] Schricker/Loewenheim/Stieper, 6. Aufl. 2020, UrhG § 60d, Rn. 1 ff.

[20] Schwartmann/Jaspers/Lepperhoff/Weiß (Hrsg.), Praxisleitfaden zum Anonymisieren personenbezogener Daten, Stiftung Datenschutz, Dezember 2022, S. 17, abrufbar unter: https://stiftungdatenschutz.org/fileadmin/Redaktion/Dokumente/Anonymisierung_personenbezogener_Daten/SDS_Studie_Praxisleitfaden-Anonymisieren-Web_01.pdf.

[21] Beispielsweise Carlini u.a., Extracting Training Data from Large Language Models, 30th USENIX Security Symposium, 2021, 2633-2650; Tramèr u.a. Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets, CCS ’22, 2022, 2779-2792.

[22] Eine Literaturübersicht ist abrufbar unter: https://github.com/jjbrophy47/machine_unlearning.

[23] Greengard, Can AI Learn to Forget? Communications of the ACM 65(4), 2022, 9-11; Bourtoule u.a., Machine Unlearning, 42nd IEEE Symposium of Security and Privacy 2021, 141-159; auf Löschung abzielend: Chourasia/Shah/Shokri, Forget Unlearning: Towards True Data-Deletion in Machine Learning, 2022, CoRR abs/2210.08911.

[24] Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union v. 21.04.2021 (COM/2021/206 final), abrufbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206.

[25] Future of Life Institute, Pause Giant AI Experiments: An Open Letter v. 22.03.2023, abrufbar unter: https://futureoflife.org/open-letter/pause-giantai-experiments/.

[26] Heesen, in: Presseartikel, ChatGPT & Co.: Arbeitspause für mächtige Sprachmodelle – Streit unter Experten v. 02.04.2023, heise.de, abrufbar unter: https://www.heise.de/news/Moratorium-fuer-grosse-KI-Modelle-ChatGPTCo-koennen-Leben-retten-8456050.html.

[27] NITA (National Telecommunications and Information Administration), AI Accountability Policy Request for Comment v. 11.04.2023, abrufbar unter: https://ntia.gov/issues/artificial-intelligence/request-for-comments.

[28] Pretschner/Gogoll/Heckmann, Presseartikel, „Endlich neue Prüfungen dank ChatGPT!“, F.A.Z. v. 23.03.2023, abrufbar unter: https://www.faz.net/aktuell/wirtschaft/digitec/endlich-neue-pruefungen-dank-chatgpt-18760199.html.

[29] Deutscher Ethikrat, Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ v. 20.03.2023, insb. S. 83 ff., 120 ff.; s. auch die Zusammenfassung S. 12 ff. (Nr. 21 ff.), S. 20 ff. (Nr. 57 ff.), abrufbar unter: https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf.