Hausarbeiten und KI
KI in Hausarbeiten: Faulheit oder Mentoring?
Wer KI beim Schreiben nutzt, ist faul – oder etwa nicht? Der Vorwurf steht schnell im Raum, wenn Studierende generative Sprachmodelle in wissenschaftlichen Arbeiten einsetzen. Doch dieser Blick greift zu kurz. Richtig eingesetzt, kann KI weit mehr sein als ein bequemes Werkzeug: Sie gibt Mentoring im Schreibprozess, wird zur Quelle strukturierender Ideen und gibt Impulse für neue Perspektiven.
KI-Tools bieten vielfältige Unterstützung: Sie helfen bei der Gliederung, schlagen Formulierungen vor, erklären Begriffe, liefern Beispiele oder regen zum Weiterdenken an. In dieser Rolle fungiert KI wie ein persönlicher Schreibcoach – geduldig, rund um die Uhr verfügbar und belesen auf vielen Gebieten. Gerade für Studierende, die unsicher im wissenschaftlichen Schreiben sind, eröffnet sich so ein niedrigschwelliger Zugang zur Textproduktion. Es wird leichter Argumentationslinien zu entwickeln und sprachliche Schwächen auszubessern.
Richtig eingesetzt, stärkt die KI nicht nur die Textqualität, sondern auch die Selbstlernkompetenz und das wissenschaftliche Denken. Gleichzeitig ist der produktive Umgang mit KI heute eine Schlüsselkompetenz für Studium und Beruf. Wer lernt, mit KI-Werkzeugen effizient, kritisch und zielgerichtet zu arbeiten, schult nicht nur technisches Know-how, sondern auch medienkritische und metakognitive Fähigkeiten. Dies eröffnet neue Wege, wissenschaftliches Schreiben als dynamischen, iterativen Prozess zu verstehen – in dem KI nicht als Abkürzung dient, sondern als Begleiter in einem vertieften Denk- und Schreibprozess.
Allerdings birgt die Nutzung auch Risiken: Eine zu starke Abhängigkeit kann die eigene Reflexionsfähigkeit und wissenschaftliche Tiefe gefährden. Außerdem bleibt die Frage der Urheberschaft problematisch, wenn KI wesentliche Teile der Leistung übernimmt.
Warum nicht einfach verbieten?
Einige Universitäten haben die Nutzung von KI in Hausarbeiten auch gänzlich untersagt und warnen, dass solche Arbeiten als Täuschungsversuch gewertet werden „… mit entsprechenden Folgen“. Das ist sehr blauäugig und realitätsfern. KI ist doch mittlerweile in so vielen Softwarelösungen integriert, dass die Grenzen der Nutzung verschwimmen. Kann und will man Studierende z.B. zwingen die KI-Zusammenfassung der Googlesuchergebnisse auszublenden oder auf Rechtschreibprüfungen zu verzichten? Und wer zieht die Grenze zwischen erlaubt und verboten: Die Autokorrektur? Die semantische Texthilfe? Der KI-generierte Literaturvorschlag?
Ein pauschales Verbot ignoriert nicht nur die technische Realität, sondern auch das pädagogische Potenzial. Es verhindert die Ausbildung genau der Kompetenzen, die im Berufsleben erwartet werden: kritischer Umgang mit KI, reflektierte Nutzung, transparente Dokumentation.
Warum KI-Detektoren keine Lösung sind
Verschiedene Anbieter werben mit sogenannten KI-Detektoren, die Lehrenden als Hilfsmittel zur Erkennung nicht gekennzeichneter KI-Nutzung angeboten werden. Doch diese Tools sind hochproblematisch – technisch, rechtlich und ethisch.
Technische Schwächen:
KI-Detektoren basieren selbst auf KI und liefern nur Wahrscheinlichkeiten – keine belastbaren Beweise. Studien zeigen, dass die Ergebnisse häufig unzuverlässig sind und dies auch voraussichtlich bleiben werden.
Typische Probleme sind:
- viele falsch-positive und falsch-negative Treffer, besonders nicht-englischsprachige Texte und gut strukturierte Texte sind oft von falsch-positiven Bewertungen betroffen
- unterschiedliche Erkennungsraten je nach Tool und Sprachmodell,
- das Fehlen einer prüfbaren Originalquelle,
- der Einsatz durch Studierende selbst, um Texte gezielt zu „ent-KI-isieren“ oder umzustellen.
Die Aussagekraft solcher Tools reicht rechtlich nicht aus: In aktuellen Verfahren vor Verwaltungsgerichten galten Detektor-Ergebnisse lediglich als Indiz, nicht als Beweis. Ungerecht ist außerdem, ob z.B. einfache stilistische oder grammatikalische Hilfestellungen durch KI als solche erkannt werden, aber die thematische Eigenleistung dabei untergeht.
Datenschutz und Urheberrecht:
Ein weiteres Problem liegt in den rechtlichen Rahmenbedingungen. Studierendenarbeiten enthalten evtl. personenbezogene Daten und sind zudem durch das Urheberrecht geschützt. Die Weiterverarbeitung der Texte durch KI-Detektoren ist rechtlich heikel:
- Ohne explizite Einwilligung oder Prüfungsordnungsregelung darf die Arbeit nicht verarbeitet werden
- Die Nutzungsbedingungen (AGB) externer Tools regeln oft nicht transparent, was mit den Daten geschieht.
- Es besteht das Risiko, dass studentische Arbeiten zu Trainingsdaten für kommerzielle KI werden – ein klarer Verstoß gegen Datenschutz und Urheberrecht.
KI-Detektoren sind im Sinne der KI-VO als System zur Erkennung von verbotenem Prüfungsverhalten als Hochrisiko-KI einzustufen.
Regelungsbedarf
Wenn Studierende mit KI schreiben, stellt sich nicht nur die Frage nach Faulheit oder Fleiß, sondern vor allem: Was ist fair? Was ist erlaubt? Und wo ziehen wir die Grenzen? Ein generelles Verbot ist keine Lösung. Ebenso wenig helfen KI-Detektoren, die unzuverlässige Ergebnisse liefern und neue Datenschutzprobleme aufwerfen. Stattdessen braucht es ein gemeinsames Verständnis und klare, nachvollziehbare Regeln.
Was genau muss also geregelt werden? Zum Beispiel, wann und wie der Einsatz von KI erlaubt ist – und wie dieser Einsatz transparent gemacht werden soll. Reicht ein kurzer Hinweis am Ende der Arbeit? Oder braucht es eine genaue Beschreibung, was genau mit KI gemacht wurde? Auch die Frage nach der Eigenleistung ist zentral: Ab wann ist eine Arbeit noch die der Studierenden – und wann übernimmt die Maschine zu viel? Zudem braucht es verlässliche Verfahren für Verdachtsfälle, ohne Detektoren als Beweismittel.
Statt ein künstliches „KI-freies Schreiben“ zu erzwingen, braucht es genau hier Orientierung, Austausch und klare Rahmenbedingungen. Denn nur wenn Studierende wissen, woran sie sind, können sie verantwortungsvoll mit den neuen Möglichkeiten umgehen – und Lehrende sie dabei gut begleiten.
notwendige Regelungen | Inhalt |
Einsatz und Kennzeichnung | wann darf KI genutzt werden wie müssen die Studierenden das transparent machen |
Eigenleistung | feste Kriterien, ab wann eine Arbeit als Hauptleistung der Studierenden gilt und nicht als KI-Beitrag |
Verfahrenswege |
Klare Regeln und mögliche Wege für Verdachtsfälle |
Chancengerechtigkeit | Sicherstellung, dass KI-Nutzung nicht zu Benachteiligung führt (etwa durch Ressourcen-Ungleichheit) |
Alternativen | neue oder erweiterte Prüfungsformate |
Was machen andere Hochschulen?
Die Universität Graz empfiehlt, die Nutzung von KI in wissenschaftlichen Arbeiten transparent zu kennzeichnen, um wissenschaftliche Redlichkeit und Nachvollziehbarkeit zu sichern. Auf ihrer Webseite stellt sie dafür ein breites Spektrum konkreter Formulierungshilfen und Vorlagen bereit: https://lehren-und-lernen-mit-ki.uni-graz.at/de/ki-nutzung-kennzeichnen/
Die AI Usage Cards sind ein kostenloser Online-Service der Universität Göttingen, mit dem sich der Einsatz von KI in wissenschaftlichen Arbeiten transparent dokumentieren lässt. Karten dokumentieren Einsatzbereiche wie Projektmetadaten, Ideenfindung, Methodik, Schreiben, Datenverarbeitung und ethische Reflexion. Dabei lässt sich ein KI-Einsatzbericht via Webformular erstellen – als LaTeX-Datei oder in anderen Maschinensprache-kompatiblen Formaten.
Was macht die HWR Berlin?
HWR-weiter Rahmen: An der HWR existiert eine KI-Leitlinie (Mai/2023), welche allgemeine und übergreifende Handlungsempfehlungen gibt. Diese Leitlinie wird derzeit an neue Kennisse und Entwicklungen angepasst sowie grundlgend überarbeitet und erweitert. Ziel ist es eine HWR weitere KI-Richtline zu veröffentlichen, welche neben KI in Studium und Lehre auch die Bereiche Verwaltung und Forschung abdeckt.
Fachbereichsbezifische Festlegungen:
Ergänzend zu übergeordneten Handlungsempfehlungen wurden/werden in den einzelnen Fachbereichen Regelungen etabliert, um die Nutzung und Dokumentationspflichen von KI in studentischen Arbeiten (u.a. Haus-/Abschlussarbeiten) zu konkretisieren und angepasste Eigenständigkeitserklärungen festzulegen. Bisher existieren an der HWR folgende Vorgaben:
Fachbereich | Festlegung |
Fachbereich 1 | Regelung zur Nutzung generativer KI-Tools für unbeaufsichtigte Prüfungsleistungen (inkl. Studienleistungen) – FB1 Fachbereichsratsbeschluss vom 28.1.25 |
Fachbereich 3
|
Standard für die Nutzung von generativer KI in unbeaufsichtigten Prüfungsleistungen und Studienleistungen – FB3 Fachbereichsratsbeschluss vom 18.6.25 |
Fachbereich 5 | Regelung zur Nutzung generativer KI in unbeaufsichtigten Prüfungsleistungen (inkl. Studienleistungen) – FB5 Fachbereichsratsbeschluss vom 1.7.25 |
Darüber hinaus gibt es Vorlagen zur Kennzeichnung und Nutzung von KI in den weiterbildenden Masterstudiengängen der Berlin Professional School.
Anpassung der Prüfungsformate
Im Artikel „E-Portfolios als kombinierte Prüfungen in Moodle“ sind wir schon 2020 darauf eingegangen, wie sich schriftliche und mündliche Leistungen sinnvoll in einem digitalen Portfolioformat verbinden lassen würden (wenn es die Prüfungsordnung hergeben würde). Dabei wurde deutlich: E-Portfolios fördern kontinuierliches Arbeiten, geben Einblick in Lernprozesse und schaffen durch begleitende Reflexionen mehr Transparenz über die Eigenleistung – ein Vorteil, der in Zeiten generativer KI nochmals an Bedeutung gewinnt.
Neue Prüfungsformate, die den Einsatz von KI berücksichtigen oder bewusst begrenzen wollen, profitieren besonders von diesem Ansatz: Durch dokumentierte Zwischenschritte, Reflexionsaufgaben und Feedbackphasen wird die Entstehung der Leistung nachvollziehbar – und automatisierte KI-Texte lassen sich nicht einfach „abgeben“. Der Aufwand für Lehrende steigt zwar durch die Betreuung über das Semester hinweg und die Auswertung von Prozessanteilen, verringert aber u.U. den Peak am Semesterende.
An der HWR mit dem hohen Grad an Firmenkontakten wären zudem Projekte mit echtem Anwendungsbezug – etwa zur Lösung konkreter Fragestellungen aus Unternehmen – vielversprechend. Solche Aufgabenformate fördern praxisorientiertes Denken und echte Problemlösungskompetenz, bei denen der bloße Einsatz von KI-Tools nicht ausreicht. Hier wird Anwendungswissen sichtbar – und Eigenleistung lässt sich plausibel nachvollziehen.
Auch mündliche Reflexionsgespräche, z. B. als kurzer Zusatz zur schriftlichen Arbeit, helfen dabei, Eigenleistung sichtbar zu machen – ohne gleich die Prüfungsform grundsätzlich zu ändern. In Kombination mit Peer-Feedback oder Selbsteinschätzungen lassen sich zudem metakognitive Kompetenzen fördern, die für den souveränen Umgang mit KI ebenso entscheidend sind wie Fachwissen. Wichtig bleibt, dass solche Formate nicht nur als Kontrolle gedacht sind, sondern Raum für Entwicklung, Feedback und Selbststeuerung schaffen – gerade in einer zunehmend KI-gestützten Lernumgebung.
Ulrike Hanke hat sich früh damit beschäftigt, wie sich Prüfungen in einer Welt mit generativer KI verändern müssen. In ihrem Entscheidungsmodell lädt sie Lehrende dazu ein, bewusst zu reflektieren: Was genau will ich prüfen – und wie KI-geeignet ist meine Aufgabenstellung?

Bildquelle: Hanke, U. (2025): Entscheidungsmodell „Prüfen in einer Welt mit KI“
Dazu hat sie ihre o.a. Grafik noch mit folgenden Aufgabenbeispielen ergänzt
Wenn der Umgang mit KI geprüft werden soll:
- Vergleichsaufgaben
Studierende vergleichen z. B. einen selbstgeschriebenen Text mit einem Text, den eine KI erstellt hat. Sie sollen Unterschiede erkennen und erklären – z. B. bei Argumentation, Stil oder fachlicher Genauigkeit. - Den Prozess berücksichtigen
Nicht nur das fertige Produkt zählt: Studierende sollen zeigen, wie sie mit der KI gearbeitet haben. Etwa durch Screenshots, Arbeitsprotokolle oder eine Reflexion über den Arbeitsweg. - Reflektierende Aufgaben
Studierende sollen beschreiben, wann und warum sie die KI eingesetzt haben – und was sie daraus gelernt haben. Es geht um die Fähigkeit, das eigene Vorgehen zu hinterfragen.
Wenn der Umgang mit KI nicht geprüft werden soll:
- Authentische Aufgaben
Aufgaben, die nah an der beruflichen Praxis sind. Sie verlangen eigene Erfahrungen, Meinungen oder konkrete Falllösungen – Dinge, die eine KI nicht gut oder nur oberflächlich kann. - Den Prozess berücksichtigen
Auch hier zählt nicht nur das Endprodukt: Studierende dokumentieren z. B. Zwischenschritte, Überlegungen oder Veränderungen. So kann man besser sehen, ob die Arbeit wirklich selbst gemacht wurde. - Den Prozess begleiten
Die Lehrperson unterstützt den Weg zur Lösung – z. B. durch regelmäßige Zwischenfeedbacks, Sprechstunden oder Reflexionsaufgaben. So wird die Arbeit sichtbarer und überprüfbarer. - Metakognitive Aufgaben
Studierende denken über das eigene Lernen nach. Sie beantworten z. B.: Was fiel mir leicht? Was schwer? Wie bin ich vorgegangen? Auch das zeigt Eigenständigkeit – und ist für eine KI schwer nachzumachen.
Quellen und Vertiefungen
- Lernen-Pruefen-mitChatGPT-Lernzieltaxonomie
- Weber-Wulff et al. (2023):
Testing of detection tools for AI-generated text
🔗 https://doi.org/10.1007/s40979-023-00146-z -
Májovský et al. (2024):
Perfect detection of computer-generated text faces fundamental challenges
🔗 https://doi.org/10.1016/j.xcrp.2023.101769 -
Baresel et al. (2025):
Der Einsatz von KI-Detektoren zur Überprüfung von Prüfungsleistungen (Digitale Lehre Hub Niedersachsen)
🔗 https://doi.org/10.57961/fjg9-jr89 -
Salden, P. und Leschke, J. (2023):
Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben
🔗 https://doi.org/10.13154/294-9734 -
Rechtssprechung
Urteil zum Anfangsverdacht vs. menschl. Gutachten
🔗 https://www.gesetze-bayern.de/Content/Document/Y-300-Z-BECKRS-B-2024-N-11848 - Bremer, L (2025)
KI an Hochschulen: Verbieten oder Integrieren?
🔗 https://www.linkedin.com/pulse/ki-hochschulen-verbieten-oder-integrieren-lasse-bremer-ur1if/ - Heckmann, D., & Rachut, S. (2024).
Rechtssichere Hochschulprüfungen mit und trotz generativer KI.
In: Ordnung der Wissenschaft, Ausgabe 1/2024, S. 24–31.
🔗 https://ordnungderwissenschaft.de/wp-content/uploads/2024/03/Heckmann-Druckfahne.pdf - Themenabschnitt: „Prüfen und Bewerten in einer KI-geprägten Welt“
🔗 https://www.tu.berlin/bzhl/ressourcen-fuer-ihre-lehre/ressourcen-nach-themenbereichen/ki-in-der-hochschullehre - Handreichung_Dokumentation_und_Kennzeichnung_der_KI-Nutzung der Uni Graz
- Gotoman, J. E. J.et al. (2025)
Accuracy and Reliability of AI-Generated Text Detection Tools: A Literature Review. American Journal of IR 4.0 and Beyond, 4(1), 1–9.
🔗 https://doi.org/10.54536/ajirb.v4i1.3795
0 Kommentare