ChatGPT in der Hausarbeit? Gericht sagt: Rauswurf. Endgültig.

Image

Zwei Studierende der Uni Kassel haben KI für ihre Prüfungsarbeiten genutzt – und dürfen jetzt nicht mal mehr wiederholen. Das Verwaltungsgericht Kassel hat diese harte Linie am 25. Februar 2026 bestätigt. Was das für alle bedeutet, die gerade studieren oder bald anfangen.


Stellt euch vor: Ihr sitzt an eurer Bachelorarbeit oder einer wichtigen Hausarbeit. Die Deadline drückt, der Text stockt – und ChatGPT ist nur einen Tab entfernt. Schnell mal ein paar Absätze generieren lassen, etwas umformulieren, fertig. Klingt nach einem harmlosen Shortcut? Das Verwaltungsgericht Kassel sieht das ganz anders.

Was passiert ist

An der Universität Kassel haben zwei Studierende KI-Tools für ihre Prüfungsleistungen genutzt – ohne dass das erlaubt war. Der eine schrieb eine Hausarbeit im Masterstudiengang Verwaltungsrecht, die andere eine Bachelorarbeit in Informatik. Die Uni hat beide Arbeiten nicht einfach nur mit „nicht bestanden“ bewertet. Sie hat beide Studierende von sämtlichen Prüfungswiederholungen ausgeschlossen. Das bedeutet: Kein zweiter Versuch, kein Drittversuch. Das Studium ist in diesem Fach faktisch beendet.

Die Studierenden haben dagegen geklagt – und verloren. Die 7. Kammer des VG Kassel (zuständig für Hochschulrecht) hat die Entscheidung der Universität in beiden Fällen bestätigt (Az. 7 K 2134/24.KS und 7 K 2515/25.KS). Das Gericht ging sogar noch weiter: Es hat ausdrücklich „verallgemeinerungsfähige Regeln“ für den Umgang mit KI in Prüfungssituationen formuliert. Das heißt: Diese Entscheidung soll als Blaupause für ähnliche Fälle an anderen Hochschulen dienen.

Warum das so hart bestraft wird

Die Universität Kassel stuft die unerlaubte KI-Nutzung als „schwere Täuschung“ ein. Das klingt nach schwerem Geschütz – und ist es auch. Der Grund: Wer eine Prüfungsarbeit abgibt, unterschreibt eine Eigenständigkeitserklärung. Darin versichert man, dass die Arbeit selbstständig verfasst wurde – ausdrücklich auch ohne KI-Tools wie ChatGPT. Wer trotzdem KI nutzt und das verschweigt, gibt eine falsche Erklärung ab. Das kann sogar nach § 156 StGB strafbar sein (falsche Versicherung an Eides statt).

Entscheidend ist ein Grundsatz, den auch das VG Hamburg Ende 2025 klar formuliert hat: KI-Tools sind bei Prüfungen nur erlaubt, wenn sie ausdrücklich zugelassen sind. Es braucht also kein explizites Verbot in der Prüfungsordnung. Wenn nichts dazu steht, ist KI tabu. Punkt.

„Aber wie wollen die das überhaupt beweisen?“

Das ist die Frage, die sich wahrscheinlich viele stellen. Und ja – der rein technische Nachweis von KI-Nutzung ist tatsächlich schwierig. KI-Detektoren wie Turnitin, GPTZero oder Copyleaks klingen vielversprechend, sind aber nach dem aktuellen Stand der Wissenschaft als alleiniger Beweis unbrauchbar. Eine breit rezipierte Studie von Weber-Wulff und Kollegen hat 14 Detektionstools getestet – keines erreichte 80 % Genauigkeit. Noch problematischer: Eine Stanford-Studie zeigte, dass über 61 % der Texte von Nicht-Muttersprachlern fälschlicherweise als KI-generiert eingestuft wurden. Die Technische Hochschule Augsburg fasst es nüchtern zusammen: „Für das Prüfungswesen an Hochschulen ist keines der Tools relevant.“

Aber das bedeutet nicht, dass man damit durchkommt. Die Gerichte setzen längst nicht mehr auf Software allein. Sie arbeiten mit dem sogenannten Anscheinsbeweis – einer juristischen Methode, bei der mehrere Indizien zusammengenommen ein klares Bild ergeben. Und diese Indizien sind oft erdrückend:

Erstens: Erfundene Quellen. Das ist der Klassiker. KI-Systeme „halluzinieren“ Literaturangaben – sie erfinden Buchtitel, Autoren, sogar Seitenzahlen. Eine kurze Recherche in Google Scholar oder über DOI-Prüfung deckt das sofort auf. Wer Quellen zitiert, die nicht existieren, hat ein massives Problem.

Zweitens: Stilbrüche. Wenn jemand in Klausuren durchschnittlich schreibt, aber eine stilistisch makellose Hausarbeit abliefert, fällt das auf. Prüfer vergleichen die Arbeiten – und erkennen, wenn Formulierungen, Satzbau und Fachvokabular plötzlich ein anderes Niveau haben.

Drittens: Mündliche Nachprüfungen. Immer mehr Hochschulen laden bei Verdacht zum Gespräch. Wer seine eigene Arbeit nicht erklären kann, steht dann ziemlich blank da.

Wie verbreitet ist das Phänomen?

Sehr. Der KI-Monitor 2025 des Hochschulforums Digitalisierung zeigt: 65 % der Studierenden in Deutschland nutzen KI-Tools mindestens wöchentlich. 97 % der Hochschulen beschäftigen sich mit den Auswirkungen auf Prüfungen. Aber nur 43 % haben bisher ihre Prüfungsordnungen tatsächlich angepasst. Die Lücke zwischen Technologieverbreitung und Regelwerk ist riesig – und das schafft eine gefährliche Grauzone.

Die Hochschullandschaft ist dabei alles andere als einheitlich. Die Uni Köln erlaubt KI als Inspirationsquelle, verbietet aber das Ausgeben von KI-Texten als Eigenleistung. Die Uni Hohenheim lässt KI grundsätzlich zu, verlangt aber eine transparente Dokumentation – wer sie nicht offenlegt, täuscht. Die Humboldt-Uni Berlin überlässt die Entscheidung den einzelnen Prüfenden. Die bayerischen Hochschulen für angewandte Wissenschaften haben im Mai 2025 immerhin eine gemeinsame KI-Leitlinie verabschiedet – ein Vorreitermodell. Bundeseinheitliche Standards existieren aber nach wie vor nicht.

Das bedeutet: Die Regeln unterscheiden sich nicht nur von Hochschule zu Hochschule, sondern möglicherweise von Fachbereich zu Fachbereich und von Prüfer zu Prüfer. Wer auf Nummer sicher gehen will, muss sich aktiv informieren.

Noch nicht das letzte Wort

Wichtig zu wissen: Die Urteile aus Kassel sind noch nicht rechtskräftig. Das Gericht hat die Berufung wegen der grundsätzlichen Bedeutung zugelassen. Es wird also eine zweite Runde geben – vor dem Hessischen Verwaltungsgerichtshof. Die dort zu klärende Frage hat Sprengkraft: Reicht die unerlaubte KI-Nutzung automatisch für einen endgültigen Prüfungsausschluss aus, oder muss man jeden Fall einzeln bewerten?

Es gibt durchaus kritische Stimmen. Die Universität Hamburg hat in einer offiziellen Handreichung ausdrücklich davor gewarnt, KI-Nutzung pauschal als besonders schwere Täuschung einzustufen – mit dem Argument, dass der Zugang zu ChatGPT so niedrigschwellig sei, dass man das nicht mit planvollem Ghostwriting gleichsetzen könne.

Andererseits: Ein endgültiger Prüfungsausschluss wegen einer Bachelorarbeit kommt faktisch einem Berufsverbot nahe. Das berührt die Berufsfreiheit nach Art. 12 Grundgesetz – ein Grundrecht, das nach der Rechtsprechung des Bundesverfassungsgerichts nur aus besonders gewichtigen Gründen eingeschränkt werden darf. Wenn 65 % der Studierenden regelmäßig KI nutzen und der Zugang so niedrigschwellig ist wie eine Google-Suche, stellt sich die Frage, ob der endgültige Ausschluss nicht über das Ziel hinausschießt. Es gäbe mildere Mittel: eine Bewertung mit „nicht bestanden“ ohne Wiederholungssperre, eine verpflichtende mündliche Verteidigung der Arbeit oder eine zeitlich befristete Prüfungssperre.

Die Abwägung zwischen Prüfungsintegrität und den Lebenschancen junger Menschen wird die Berufungsinstanz leisten müssen. Es ist die spannendste prüfungsrechtliche Frage der letzten Jahre.

Was ihr konkret daraus mitnehmen solltet

Erstens: Geht davon aus, dass KI bei Prüfungen verboten ist, solange sie nicht ausdrücklich erlaubt wird. Fragt im Zweifel eure Prüfer vorher – schriftlich.

Zweitens: Wenn KI zugelassen ist, dokumentiert genau, wofür ihr sie eingesetzt habt. Transparenz schützt.

Drittens: Lasst die Finger von KI-generierten Quellenangaben. Prüft jede einzelne Quelle, bevor ihr sie in eure Arbeit übernehmt. Halluzinierte Literaturangaben – also Bücher, Aufsätze oder Urteile, die gar nicht existieren – sind praktisch ein Geständnis. KI-Systeme erfinden regelmäßig Autoren, Titel und sogar Seitenzahlen. Eine DOI-Prüfung oder eine Suche in Google Scholar dauert Sekunden und kann euch vor dem Schlimmsten bewahren.

Viertens: Unterschätzt die Eigenständigkeitserklärung nicht. Das ist kein Formular, das man einfach so unterschreibt. Es ist eine rechtlich bindende Erklärung, deren Verletzung strafrechtliche Konsequenzen haben kann.

Fünftens – und das ist vielleicht das Wichtigste: KI ist nicht das Problem. Die Täuschung ist das Problem. Wer ChatGPT als Recherchehilfe, Gedankenstütze oder Schreibassistenten nutzt und das offenlegt, handelt in den meisten Fällen korrekt. Wer KI-Texte als eigene ausgibt, begeht eine Pflichtverletzung, die – wie die Kasseler Fälle zeigen – das gesamte Studium kosten kann.

Die Fälle aus Kassel sind ein Weckruf. Nicht gegen die Nutzung von KI an sich, sondern gegen die Illusion, dass Mogeln mit neuer Technologie weniger Mogeln wäre.


Axel Pöppel ist Fachanwalt für Arbeitsrecht in Hamburg. Er beschäftigt sich seit Jahren intensiv mit den rechtlichen Auswirkungen künstlicher Intelligenz – von der Hochschule bis ins Arbeitsleben.

VG Kassel, Urteile vom 25.02.2026 – Az. 7 K 2134/24.KS und 7 K 2515/25.KS (nicht rechtskräftig)

Sie benötigen weiteren rechtlichen Rat?

Nutzen Sie unsere Online-Anfrage für einen schnellen Check.

Die Schilderung Ihres Problems und eine kurze Ersteinschätzung sind kostenlos, wenn Sie gekündigt wurden oder einen Aufhebungsvertrag erhalten haben.

Für alle anderen Anliegen können Sie gerne eine kostenpflichtige Erstberatung in Anspruch nehmen.

Jetzt beraten lassen

Kanzleibewertung

Erfahrungen & Bewertungen zu Pöppel Rechtsanwälte