Abo

Kurzbeitrag : Chat-GPT: Verstehen, Handeln, Verantworten : aus der RDV 1/2023 Seite 48 bis 51

Lesezeit 13 Min.

Der Textroboter ChatGPT hat das Potenzial, die Welt zu verändern. Nun gilt es, das Machtverhältnis zwischen Mensch und Maschine zu regeln. Die Datenethikkommission hat eine Lösung vorgeschlagen, die auf das Bundesverfassungsgericht zurückgreift.

I. Darum ist ChatGPT ein Gamechanger

Im Frühjahr 2024 soll mit der KI-Verordnung der Europäischen Union der Rahmen für die Zukunft risikobehafteter „Künstlicher Intelligenz“ (KI) gesetzt sein. Es geht um ein Zusammenwirken von Mensch und Maschine unter menschlicher Letztentscheidung. Der Regulierungsansatz setzt voraus, dass der Anwender weiß, ob ein Inhalt in Schrift, Wort oder Bild überhaupt von einer Maschine stammt. An diesem Ausgangspunkt aller Kontrolle gerät das Mensch-Maschine-Verhältnis aktuell aus den Fugen. Der Grund ist die seit November 2022 frei verfügbare Software ChatGPT. Nach einer „Selbstauskunft“ des Programms ist es „ein Chatbot-System, das darauf ausgelegt ist, menschliche Konversationen zu simulieren.“ Es verwendet eine „Kombination aus maschinellem Lernen und natürlicher Sprachverarbeitung, um Antworten auf Benutzeranfragen zu generieren.“ Wir reden also über einen Textroboter, der sich aus unfassbar vielen Datenquellen speist, seien es etwa Websites, Blogs oder literarische und wissenschaftliche Inhalte jeder Art. Er wird aktuell weltweit durch unzählige Anfragen trainiert und kann im wahrsten Sinne des Wortes nur besser werden. Das Unternehmen, das sich im Wettbewerb der intelligenten Systeme durchsetzt, hat gute Chancen die Welt buchstäblich nach seinem Willen zu programmieren. Größter Geldgeber von OpenAI, dem Hersteller von ChatGPT, ist Microsoft. Wenn er die „denkende“ Software in das Office-Paket einbindet, kann der Anwender sich zurücklehnen. Google erprobt das Konkurrenzprodukt Bard und bildet Heerscharen von Programmierern in „Maschine Learning“ aus.

Ob es sich bei der Anwendung begrifflich um KI handelt, ist für deren Gefährlichkeit und Regulierungsbedürftigkeit belanglos. Die Definition wird aber für die rechtliche Einordnung gebraucht. Bemerkenswert ist es, wie selbstverständlich die Maschine sich in einer simulierten Selbstbewertung, die sie ohne das Vorhandensein eines Rechtsrahmens als Datenbasis ja noch gar nicht belastbar vornehmen kann, eloquent bis an die Grenze zur Schwafelei der entstehenden Regulierung für KI entzieht. Sie falle nicht darunter, da sie „nicht in der Lage (sei), selbstständig und intelligent zu lernen, zu entscheiden oder zu planen.“ Das Programm rät auf Nachfrage davon ab, sich bei juristischen oder medizinischen Entscheidungen auf seine Aussagen zu verlassen.

Schließlich gehe es um wichtige Entscheidungen, und die Ergebnisse sowie die KI seien „nicht zuverlässig genug (…), um juristische oder medizinische Entscheidungen zu treffen.“

Auch wenn die Maschine sich aus der Regulierung herausargumentiert, mit Blick auf ihre Fähigkeiten tief stapelt und ihre Hände in Unschuld wäscht, wenn es um ihre Verantwortung geht, liefert sie beeindruckende Ergebnisse zu rechtlichen Fragen. Man kann eine Diskussion über knifflige Probleme auf dem Niveau eines Doktorandenseminars simulieren. Thema: Wie unterscheiden sich anonyme von pseudonymen Daten nach der DS-GVO in der Auslegung des EuGH? Das ist eine wichtige Frage, denn für anonyme Daten gilt das Datenschutzrecht nicht und man darf sie frei von rechtlichen Grenzen zu beliebigen Zwecken nutzen. Die Software nimmt einen weiten Begriff der Anonymisierung an. Sie bezeichnet Fragen, die Nutzer ihr stellen, als anonym, obwohl man dem Nutzenden beim Eintippen seiner persönlichen Frage über die Schulter schauen kann. So stellt man Personenbezug her. Die Anonymisierung ist nicht absolut. Wir sind am Kern der Debatte über die Reichweite der Anonymisierung, die gerade Europas Digitalwirtschaft bewegt. Das Programm beruft sich für seine Antwort auf Nachfrage auf ein durch Anführungszeichen gekennzeichnetes wörtliches EuGH-Zitat. Will man die Randziffer des Zitats wissen, dann räumt die Software ein, dass das Zitat eine Interpretation beinhaltet. Auf deren Basis seien die Eingaben in die Software mit der Konsequenz als anonym zu bewerten, dass das Datenschutzrecht für ChatGPT nicht gelte. Ein wörtliches Zitat als Wertung auszugeben, ist wissenschaftlich unredlich und faktisch fatal. Ob diese Wertung falsch ist, dürfte die weit überwiegende Mehrzahl der Nutzenden der Software mangels Detailwissen nur schwer überprüfen können.

II. Konsequenzen für die Ausbildung

An Schulen und Hochschulen wird der Umgang mit der neuen Technik erprobt. Nicht verbieten, sondern die Anwendung nutzen und sie dabei hinterfragen, so lautet die fortschrittsoffene und plausible Parole. Was die Software für die Ausbildung so unberechenbar macht, ist, dass sie schon heute bessere Ergebnisse liefert als ein mäßig guter Student, oft ohne dass man dessen Lösung von menschlich generierten Resultaten unterscheiden kann. Die KI kann auch Lehrende entlasten, ohne dass Studierende oder Kollegen merken, ob eine Aufgabe durch die KI gestellt wurde. „Bitte entwerfe einen Fall zur Prüfung des Datenschutzrechts im deutschen juristischen Staatsexamen. Der Schwerpunkt soll auf Anonymisierung und Datensicherheit liegen und auf die römischen Pandekten Bezug nehmen. Bitte löse den Fall auch.“ Diesen Auftrag erledigt der Bot in Sekunden so passabel, dass man die Aufgabenstellung plausibel findet und die Antwort jedenfalls mit befriedigend bewerten würde. Wer den Bot nutzt, kann also nicht mehr durchfallen. Aktuell versagen Gegenmittel. Eine Überprüfung der menschlichen Herkunft obiger Aufgabe und Lösung durch die Kontrollsoftware GPTZero ergab, dass der Text wahrscheinlich von einem Menschen stamme. Selbst ein Votum für maschinelle Herkunft wäre wertlos, denn man hätte keine valide Möglichkeit, dessen Richtigkeit nachzuvollziehen. OpenAI hat angekündigt, selbst eine Software zu liefern, die sie entlarvt. Es ist einerlei, ob das Ansinnen des Anbieters die Deutungshoheit über den Nachweis der Herkunft seiner digitalen „Schöpfung“ zu übernehmen größenwahnsinnig oder durchtrieben ist. Der Regulierer müsste diesen Teufelskreis brechen.

Häusliche Arbeiten haben ihren festen Platz in der juristischen Ausbildung. Als Grundlage für eine chancengleiche Bewertung, gleich ob im Studium oder im Rahmen von Promotionen oder Habilitationen sowie jeglicher berufsqualifizierender Leistungsbewertungen haben sie in der Perspektive ausgedient. Den Einsatz von KI unter Strafe zu stellen, hilft nicht, wenn die maschinelle Herkunft nicht nachweisbar ist. Zudem müsste man rechtlich entscheiden, ob die Verwendung des KI-Ergebnisses überhaupt gegen Urheberverwertungsrechte verstößt oder ein Plagiat im Sinne einer Persönlichkeitsrechtsverletzung ist. So oder so ist sie in der Prüfung Pfusch. Wissensüberprüfung muss künftig auf mündliche Prüfungen und Klausuren setzen.

III. Konsequenzen für die berufliche Praxis

Wie sieht es in der beruflichen Praxis aus? Dass Richter sich Fälle von der Software votieren lassen, ist so problemlos möglich, wie das Stellen einer ärztlichen Diagnose und Behandlungsempfehlung. Aber ist das ein Problem? Aktuell diskutiert man den konstruktiven Einsatz der Software. Ein Szenario ist, dass die KI-Forschungsthemen für Ausbildung und Wissenschaft generiert, die der Mensch dann im Rahmen eines Zusammenwirkens mit ihr diskutiert und so seinen Horizont um die Perspektive von KI erweitert. Bei aller Euphorie darf man nicht übersehen, dass die Maschine dem Menschen auf diese Weise Forschungsaufträge erteilt, die dieser dann im Zusammenwirken mit der Maschine erledigt. So läuft man nicht nur Gefahr, die kreative Hirnleistung zu ersetzen. Man forscht auch im Auftrag der KI.

Maschinen, die von Menschen auf Basis menschlicher Daten und nach deren Zwecken auf die Simulation von Entscheidungen programmiert werden, sind auf dem Weg, menschliche Entscheidungen so gut zu simulieren, dass sie verlässlicher und – wie auch immer die Bewertung vorgenommen werden mag – „besser“ werden als menschliche Entscheidungen. Maschinen werden lernen, sie so unverwechselbar menschlich zu vermitteln, wie die Androiden im Science-Fiction-Film „Blade Runner“ ihre simulierten Gefühle. Träumen, so lautet die Frage im Titel der Romanvorlage zu Blade Runner von 1968, können sie nach aktuellem menschlichem Ermessen aber nicht. Es sei denn, man spricht ihnen wie ein 2022 von Google wegen Verwirrung entlassener KIProgrammierer mit neurologisch nachvollziehbaren Argumenten Gefühle zu.

IV. Was ist an ChatGPT besonders?

ChatGPT unterscheidet sich von unproblematischen Anwendungen wie einem Navigationssystem dadurch, dass hier der Mensch das Ziel eingibt und die Maschine in Echtzeit auftragsgemäß den schnellsten Weg errechnet. Der Mensch kann über die schnellste Route nur spekulieren. Anders als beim Abgleichen von Straßenverkehrsdaten mit dem Fahrtziel, haben wir in Kontexten juristischer Wertung, die sich die KI gerade erschließt noch das Problem, des flächendeckenden überlegenen, aber faktisch schlecht überprüfbaren Halbwissens der Maschine. Wenn sie besser geworden ist, werden wir ein anderes und größeres Problem haben. Weil wir dann vielleicht nicht mehr die Fähigkeit haben, der KI das Wasser zu reichen, um sie mit der Sache angemesseneren Argumenten zu korrigieren. Spätestens dann, wenn juristische Fälle von der KI so präzise bearbeitet werden, wie sie heute Schach spielt, drohen wir die Kontrolle zu verlieren. Wie ein Schachgroßmeister dem Computer vernünftigerweise keine bessere Entscheidungsalternative vorschlagen kann, kann das dann auch ein juristischer Großmeister in Richterrobe nicht mehr. Auf diese Weise ermittelte medizinische Empfehlungen kann jeder selbstbestimmt gegen einen ärztlichen Rat freiwillig befolgen. Richter sind aber Recht und Gewissen unterworfene Treuhänder des Rechtsstaats. Dass rechtliche Simulationen andere Menschen verurteilen oder vorverurteilen, ist nach aktuellen rechtlichen Begriffen unzulässig. Das Problem ChatGPT reicht tief bis in die Wurzeln der Demokratie. Die Datenbasis, aus der ein Computerprogramm sich speist, ist der Stoff aus dem die durch sie erzeugte Realität ist. Das Programm zu ihrer Auswertung gibt reale Ziele vor und sie werden oft genug erreicht. Man kann Coca-Cola- zu Pepsi-Cola-Trinkern umerziehen. Für den politischen Wechsel offene Wähler kann man gezielt zur Änderung ihrer Wahlentscheidung bewegen.

„Hannibal ad Portas!“ So könnte man die Lage mit Cicero beschreiben, denn die Technik schickt sich an, in unsere Köpfe einzudringen und dort Wertungsentscheidungen zu beeinflussen. ChatGPT ist kein Hexenwerk und der Einsatz keine Zauberei. Ihr Medium ist die komplexe Sprache, die den Menschen als seine alleinige Domäne im Unterschied zu anderen Lebewesen zum Kommunizieren befähigt. Sprache und Wissen sind entscheidende Parameter von Macht. Beide beherrscht die Technik jetzt. Mit ChatGPT wird ein Quantensprung in der Breite vollzogen, der seine Technik zum Gamechanger macht. Während die Dampfmaschine unsere Muskeln ersetzt hat, kann der Bot unser Denken ersetzen.

V. Gefahren für die Demokratie

Die Existenz des Problems ist unbestreitbar und die Gefahr real. Die Technik hat aber ihr Gutes. Schon da wir sie nicht verhindern können, müssen wir sie zulassen und die rechtlichen Grenzen festlegen. Der Entwurf der KI-Verordnung hält dabei an der menschlichen Letztentscheidung fest. Wenn es wie hier um den Einsatz von KI in jedermanns Alltag geht, dann setzt die Überprüfung und Kontrolle Transparenz über das Programm und dessen Wirkweise bei jedem Anwender voraus. Jeder muss also grundsätzlich alles nachvollziehen können, was die Maschine „entscheidet“. Die neue Technik macht es dem Menschen aber schwer oder unmöglich, ihre Ergebnisse vorherzusagen und er dürfte je nach Wissen auch Schwierigkeiten haben, sie nachzuvollziehen. Wenn das Konzept der KI-Verordnung sinnvoll und verantwortbar sein soll, dann muss der Mensch seine Überlegenheit nachweisen.

Wie das geht, lässt sich am Beispiel eines Experiments zeigen. Welche Partei würde ChatGPT wählen? Das lässt sich feststellen, indem man die Wahl-O-Mat-Fragen, mit denen jeder seine potenzielle Wahlentscheidung auf Basis von Wahlprogrammen ermitteln kann, dem Bot stellt. Das im Netz geteilte Ergebnis ergab eine Präferenz von jeweils gut 76 Prozent für Grüne und Linke, 73 für SPD, 56 für FDP, 48 für CDU/CSU und 31 für AfD. Die Auswertung der Datenbasis, auf die der Bot zugreift, bildet offenkundig nicht die Realität ab. Sie erzeugt einen Zerrspiegel zugunsten des linken Parteienspektrums. In diesem Zusammenhang ist Transparenz über die Quellen entscheidend, aus denen sich der Algorithmus speist und nach welchen Kriterien sie bewertet werden. Ergäbe sich etwa, dass er sich primär aus Quellen des öffentlich-rechtlichen Rundfunks bedienen würde, ließe das einen Rückschluss auf eine entsprechende Berichterstattung zu und wäre ein Beleg für mangelnde plurale Vielfalt. Darauf könnte der Gesetzgeber, der den Auftrag die Vielfalt als Grundpfeiler unbeeinflusster demokratischer Willensbildung auch im Internet zu sichern hat, reagieren. Dieses Beispiel zeigt, wie menschliche Intelligenz sich im Wissen über die Datenbasis und die Entscheidungsparameter maschinelle Intelligenz sinnvoll zu Nutze machen kann, indem sie in Kenntnis der Datenbasis und der Entscheidungsparameter des Algorithmus Schlüsse aus den Ergebnissen der Maschine zieht. Genau hier liegt der Unterschied zum stumpfen und verlockenden Technikvertrauen.

VI. Der Lösungsansatz der Datenethikkommission

Die Datenethikkommission hat diese Gefahr antizipiert und 2019 die Entwicklung eines Algorithmus vorgeschlagen, der jedermann einen transparenten Realitätscheck ermöglicht („Zwei-Säulen-Modell“).[1] Die Kriterien für die „Meinungsbildung“ des Kontrollalgorithmus müssen unter demokratisch legitimierter Aufsicht offen und transparent entwickelt werden. Es muss Kriterien für Pluralität geben, wie man das für die positive Rundfunkordnung kennt, die das Bundesverfassungsgericht für die Sicherung der Meinungsvielfalt etabliert hat. Jedem Ergebnis eines Chats mit ChatGPT (1. Säule) muss eine nach transparenten und allgemein anerkannten Kriterien generierte Antwort eines Referenzalgorithmus gegenüber gestellt werden (2. Säule), die sich aus demselben Datenpool speist wie der Bot. Das Ergebnis der 2. Säule entspricht mit dem tatsächlichen Wahltrend der Realität oder kann daran gemessen werden. Die Datenethikkommission schlägt damit ein datenbasiertes Modell für einen Pluralitätscheck vor, der die Rechtsprechung des Bundesverfassungsgerichts zur Sicherung der Meinungsvielfalt auf die KI-Kontrolle überträgt. Dabei muss man allerdings noch ein Problem lösen. Es gibt Überlegungen, wie man die KI „entlarvt“ oder überlistet. Das Problem ist aber, dass auf neuronalen Netzen basierende KI sog. nicht lineare, also nicht menschlich vorhersehbare Ergebnisse generiert. Das „austricksen“ der KI ist nur möglich, wenn der Mensch die Daten, die das Wissen der Maschine enthalten, kennt und die Maschine insofern ihre „Autonomie“ verliert.

VII. Umgang mit unkontrollierbaren Entscheidungszenarien

Es gibt auch weitere Ansätze. Um Zweifel in unkontrollierbaren Entscheidungssituationen zu überwinden, wirbt der deutsche Risikoforscher Gerd Gigerenzer dafür, im Zweifel dem Bauchgefühl zu vertrauen.[2] Der verstorbene schwedische Statistiker Hans Rosling[3]hat demgegenüber plausibel erklärt, warum eine geworfene Münze statistisch gerechtere Entscheidungen erzeugen kann, als das Gefühl. Der Mentalkünstler Thorsten Havener[4] rät dem Menschen dazu, sich das Recht vorzubehalten, die gefallene Münze auf Rat der inneren Stimme umzudrehen. Einem Navigationssystem oder Schachcomputer kann man aber intuitiv nicht sinnvoll widersprechen. Der israelische Nobelpreisträger Daniel Kahneman[5] hält nichts von juristischen Bauchentscheidungen. Er erforscht, wie man bei der Entwicklung von Algorithmen nach logischen Regeln unspezifische und verdeckte Fehlerquellen („Noise“) ausmerzt. Man könnte so die Akkuratesse und Unbestechlichkeit der KI für Justiz und Rechtsstaat nutzen und die Risiken intuitiver Rechtsfindung, die vorschnell und von Stimmungen abhängig sein kann, minimieren.

VIII. Fazit

Die Würfel sind geworfen. Bevor sie fallen, müssen wir eine Gretchenfrage beantworten: Wie können wir es verantworten, ChatGPT nicht zu nutzen, ohne unsere Verantwortung abzugeben, indem wir das Programm nutzen? ChatGPT hat in Sekunden eine Antwort auf dieses Welträtsel parat, die bei Licht betrachtet nur eine vage Problembeschreibung ist. Sie lautet: „Es gibt einige Ansätze, um die Verantwortung für die Verwendung von ChatGPT zu übernehmen, ohne die Verantwortung abzugeben. Einer davon ist, sicherzustellen, dass die Daten, die das Modell trainieren, repräsentativ und ethisch korrekt sind. Ein weiterer Ansatz besteht darin, die Ausgabe des Modells sorgfältig zu überwachen und sicherzustellen, dass es nicht verwendet wird, um falsche oder schädliche Informationen zu verbreiten. Es ist auch wichtig, das Modell regelmäßig zu überwachen und zu evaluieren, um sicherzustellen, dass es nicht unerwartetes Verhalten aufweist.“

* Prof. Dr. Rolf Schwartmann forscht zu Medienrecht, Daten und Digitalisierung an der TH Köln und leitet dort die Kölner Forschungsstelle für Medienrecht und steht dem Vorstand der GDD vor. Der Beitrag ist eine leicht ergänzte Fassung des in F.A.Z. v. 26.01.2023, S. 6 erschienenen Beitrags des Autors.

[1] Gutachten der Datenethikkommission (2019), S. 208 f., Handlungsempfehlung 66

[2] Gigerenzer, Gerd, Risiko, 2013

[3] Havener, Thorsten, Ich sehe das, was du nicht sagst, 2020.

[4] Rosling, Hans (u.a.) Factfulness, 2018

[5] Kahneman, Daniel/Sibony, Olivier/Sunstein, Class. R., Noise, 2021.