Abo

Kurzbeitrag : Prüfen in der „KI-Ära“ : aus der RDV 1/2026, Seite 28 bis 30

Die KI-generierte Hausarbeit ist nur einen Klick entfernt. KI-Systeme wie ChatGPT gehören heute zum festen Bestandteil des universitären Werkzeugkastens: In einer Studie der Hochschule Darmstadt gaben 90 % der befragten Studierenden an, KI-Tools für ihr Studium zu nutzen. Die Anwendungsgebiete reichen von der Literaturrecherche über die Datenanalyse und die Problemlösung bis hin zur Texterstellung. Das Thema drängt. Studierende wie Lehrpersonal wünschen sich eine klare Positionierung der Hochschulen, doch diese agieren überwiegend zurückhaltend.

Lesezeit 6 Min.

I. KI-Einsatz durch Studierende

Das mag an nachvollziehbaren Vorbehalten gegenüber dem KI-Einsatz durch Studierende liegen. Schon intuitiv haben wir Bedenken: Wenn KI das Denken übernimmt, kann das zwar kurzfristig zu schnelleren und besseren Ergebnissen führen. Langfristig lagern die Studierenden damit allerdings nicht nur das Denken, sondern auch den Lerneffekt aus. Eine Studie des Massachusetts Institute of Technology (MIT) hat dieses Störgefühl kürzlich bestätigt. Die Forscher fanden heraus, dass Studierende „kognitive Schulden“ anhäufen, wenn sie beim Verfassen von Aufsätzen auf KI-Assistenten wie ChatGPT zugreifen. Was Studierende durch den Einsatz von KI also an Denkarbeit einsparen, bezahlen sie später mit geringeren Lernerfolgen.

Sollten wir also Wege suchen, KI aus den Hochschulen zu verbannen? Das dürfte die Studierenden kaum angemessen auf eine Arbeitswelt vorbereiten, in der sich 97 % der Unternehmen mit dem Einsatz generativer KI beschäftigen. Der verantwortungsvolle Einsatz Künstlicher Intelligenz in dieser Welt verlangt menschliche Kontrolle. Diese Kontrolle kann nur gewährleisten, wer neben fachlichen Fähigkeiten auch über Fähigkeiten im Umgang mit KI verfügt. Die KI-Verordnung der Europäischen Union verpflichtet Unternehmen schon heute zur Vermittlung von KI-Kompetenz, wenn sie KI entwickeln oder einsetzen. Sie müssen ihren Mitarbeitern Fähigkeiten und Kenntnisse vermitteln, die einen sachkundigen Einsatz erlauben. Übertragen auf Hochschulen bedeutet das: Sie müssen dafür sorgen, dass die Studierenden eigenständige Leistungen erbringen, um einen fachlichen Lernerfolg zu garantieren. Zugleich müssen sie den Umgang mit KI lehren.

Die Sicherung eigenständiger Leistungen bei gleichzeitiger Vermittlung von KI-Kompetenz ist ein Balanceakt. Dennoch adressieren die wenigsten Prüfungsordnungen an deutschen Hochschulen dieses komplexe Verhältnis. Damit entziehen sich die Einrichtungen ihrer Verantwortung. Denn unter der fehlenden Regelung leidet die Rechtssicherheit und damit schließlich der Prüfling. Wo klare Regelungen zum Einsatz von KI fehlen, müssen die Studierenden die Zulässigkeit anhand der hergebrachten und allgemeinen Bestimmungen des Prüfungsrechts selbst erproben.

II. Prüfungsrechtliche Bewertung

Nach allgemeinem Prüfungsrecht liegt eine Täuschungshandlung vor, wenn der Prüfling eine selbstständige und reguläre Prüfungsleistung vorspiegelt, obwohl er unerlaubte oder nicht offen gelegte Hilfsmittel genutzt hat. Wer eine ganze Hausarbeit von einer KI formulieren lässt und diese als eigene Leistung einreicht, begeht eine Täuschungshandlung. Für diese Feststellung bedarf es keiner vertieften Kenntnisse im Prüfungsrecht. Allerdings verstecken sich mittlerweile auch hinter einfachen Korrekturhilfen KI-Anwendungen. Täuscht der Studierende also bereits, wenn er von einem Textprogramm Rechtschreibung und Grammatik seiner Arbeit prüfen lässt? Schon dazu dürften verschiedene Prüfer unterschiedliche Ansichten vertreten. Ohne eindeutige Regelung trägt zunächst der Prüfling das Risiko, die Einstellung seines Prüfers zum KI-Einsatz falsch einzuschätzen.

Daneben tritt ein praktisches Problem. Geht ein Studierender gerichtlich gegen den Vorwurf einer Täuschungshandlung vor, liegt die Beweislast bei der Prüfungseinrichtung. Diese hat aber oft keine wirksame Möglichkeit, den Einsatz von KI nachzuweisen. Für andere Täuschungshandlungen im Rahmen schriftlicher Arbeiten helfen den Hochschulen vor den Verwaltungsgerichten die Grundsätze des Anscheinsbeweises. Die Gerichte vermuten, dass ein Studierender getäuscht hat, wenn ein typischer Sachverhalt vorliegt, der diesen Schluss nach allgemeiner Erfahrung zulässt. Nur durch den Nachweis besonderer Umstände, die einen atypischen Geschehensablauf ernsthaft möglich erscheinen lassen, kann der Studierende diese Vermutung widerlegen.

Die Grundsätze des Anscheinsbeweises ermöglichen in vielen Prüfungssituationen eine praktikable und gerechte Lösung. Anders als das Verwaltungsgericht München in einer Entscheidung im November 2023 annahm, dürften sie auf den Einsatz von KI hingegen nicht übertragbar sein. Denn wie sehen ein typischer Sachverhalt und die allgemeine Erfahrung bei einem Phänomen aus, das erst seit wenigen Jahren überhaupt vorstellbar ist? Allein auf die Ergebnisse KI-basierter Überprüfungssoftware können und dürfen sich Hochschulen und Gerichte jedenfalls nicht verlassen. Wenn KI einen Text auf KI überprüft, sind Prüfling und Prüfer nur noch Beifahrer eines autonomen Bootes, das unkontrolliert in Richtung Wasserfall beschleunigt. Das ist weder aus gesellschaftlicher, noch aus technischer Perspektive sinnvoll und deshalb zurecht verboten.

III. Vorschlag zur praktischen Umsetzung

Die Hochschulen müssen also umdenken. Es hilft niemandem, die Realität des KI-Einsatzes in studentischen Hausarbeiten zu ignorieren. Schon aus Gründen der Bestimmtheit müssen die Prüfungsordnungen der Bildungseinrichtungen deshalb die Zulässigkeit des Einsatzes von KI und dessen Grenzen regeln. Dazu braucht es auch neue Prüfungsformate, die die tatsächlichen und rechtlichen Herausforderungen des zunehmenden KI-Einsatzes adressieren und die KI-Kompetenz der Studierenden fördern. Bei der Entwicklung solcher Formate müssen die Hochschulen vieles berücksichtigen: Datenschutz spielt eine Rolle, auch Urheber- und Persönlichkeitsrechte sollten sie im Blick behalten. Richtig umgesetzt leisten derartige Projekte aber nicht nur einen Beitrag zur Entwicklung der Studierenden, sondern auch zur Chancengleichheit. Ansonsten profitiert im Zweifel der Prüfling, der sich die bessere KI leisten kann.

An der Technischen Hochschule Köln existiert bereits ein Prüfungsformat, das die fachlichen Fähigkeiten der Prüflinge ebenso fordert und fördert wie ihre KI-Kompetenz. Statt die Studierenden bei der Bestimmung des zulässigen KI-Einsatzes im Regen stehen zu lassen, bindet etwa der Studiengang Wirtschaftsrecht die Technologie bei einigen Hausarbeiten aktiv in die Prüfung ein. Der Einsatz von KI ist in diesen Hausarbeiten ausdrücklich gestattet. Aufgabe der Studierenden ist es, im Dialog mit dem hauseigenen Chatbot eine Arbeit zu einem vorgegebenen Thema zu verfassen. Neben der inhaltlichen Leistung ist für die Bewertung entscheidend, dass die Prüflinge aufzeigen, an welchen Stellen der Bot an seine Grenzen gestoßen ist – etwa, weil er falsche Informationen ausgegeben oder eine kreative Lösung nicht gefunden hat.

Die Ergebnisse dieser Auseinandersetzung stellen die Studierenden in einer mündlichen Prüfung vor.

Die Hausarbeit wird bei der Bildung der Gesamtnote mit 40 % gewichtet und der mündliche Vortrag mit 60 %. Die Prüfungsordnung der Fakultät lässt den Einsatz von KI als Hilfsmittel nach dieser Maßgabe zu. So kann der Prüfer auf Grundlage des Prüfungsrechts unter Wahrung von Chancengleichheit und Prüfungsgerechtigkeit eine Bewertung vornehmen, die die Leistung des Prüflings unter kontrolliertem Einsatz von KI bewertetet. Die Fakultät hat sich aus diesem Grund dafür entschieden, sowohl in Bachelor- als auch in Masterprüfungen eine vergleichbare Kombination aus häuslicher Arbeit und mündlicher Prüfung vorzusehen.

Um in diesem Format gute Ergebnisse zu erzielen, müssen die Prüflinge die Ergebnisse der KI hinterfragen. Dazu müssen sie jedenfalls grundlegend die Funktionsweise der Anwendung verstehen und fachliche Fehler der KI erkennen können. Das Prüfungsformat adressiert damit auch ein psychologisches Phänomen, das die Kontrolle Künstlicher Intelligenz in der Praxis erschwert: den Automatisierungsbias. Bereits 1999 fanden Forscher heraus, dass Menschen dazu neigen, maschinelle Ergebnisse als besonders verlässliche Erkenntnisquelle zu betrachten. Sie stimmen der Maschine zu, obwohl ihre Fachkenntnisse einen anderen Schluss verlangen und sie erkennen nicht, dass die Maschine relevante Informationen unberücksichtigt lässt. Als wirksame Gegenmaßnahme ermittelte die Forschungsgruppe die Zuweisung inhaltlicher Verantwortung. Für den Umgang mit einem Chatbot bedeutet das: Nur wer die KI als fachlich unterlegenen Assistenten begreift, ist im Dialog mit ihr in der Lage, dem Automatisierungsbias zu entgehen.

IV. Fazit

Prüfungseinrichtungen und Prüfer müssen Verantwortung übernehmen und sich klar zum Einsatz von KI durch die Studierenden positionieren. Nur so können sie Rechtsunsicherheit vermeiden und Prüfungsformate entwickeln, die sowohl fachliche Fähigkeiten als auch KI-Kompetenz fördern.  Gelingt die Integration Künstlicher Intelligenz, profitieren Hochschulen ebenso wie

*Prof. Dr. Rolf Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln, ist Mitherausgeber von Recht der Datenverarbeitung (RDV) sowie Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V., Moritz Köhler ist wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht an der TH Köln.