
DEDICAITE – DEtecting AI-generated TExts in a DIdactic Context
Als „zu gut“, weil vermutlich mit Hilfe von KI (Künstlicher Intelligenz) geschrieben, beurteilten die Prüfer der TU München die Arbeit eines Studenten. Das Verwaltungsgericht München gab ihnen im März 2024 recht1. Dieses aktuelle Gerichtsurteil zeigt, dass die Verfügbarkeit von leicht bedienbaren KI-Anwendungen für Studierende eine Herausforderung für Lehrende aller Hochschulen ist. Da ein schlichtes Nutzungsverbot kaum zielführend und auch nicht im Sinne unseres Lehr- und Forschungsverständnisses ist, gilt es den Umgang mit diesen Technologien zu untersuchen, zu verstehen und Bewertungskriterien in der Lehre sowie die Lehre selbst anzupassen. Wir wollen explorativ untersuchen, ob Lehrende in der Lage sind, KI-generierte Texte von selbstgeschriebenen zu unterscheiden bzw. stilistische und formale Auffälligkeiten in Texten einzuordnen. In einem Pilotprojekt konnten wir zeigen, dass Lehrende mit einer Genauigkeit von bis zu 70% die von Studierenden selbst verfassten Texte von ChatGPT-generierten Versionen unterscheiden konnten. Aus den Ergebnissen dieses Projekts haben wir eine Anleitung zur Textanalyse entworfen, deren Effektivität wir jetzt mithilfe einer möglichst großen Anzahl Lehrender aller Fakultäten der RUB in einem Folgeprojekt evaluieren möchten.
Dieses Folgeprojekt DEDICAITE wollen wir in den kommenden Monaten an der RUB durchführen. In einer Online-Befragung von ca. 400 Lehrenden mit unterschiedlicher Lehrerfahrung aus möglichst vielen Fakultäten sollen die Teilnehmenden beurteilen, wie Texte geschrieben wurden. Sie erhalten dazu randomisiert ein bis zwei Texte, die entweder von Studierenden oder ChatGPT verfasst wurden. Die Hälfte der Teilnehmenden bekommt wiederum randomisiert eine gezielte Anleitung, anhand welcher Texteigenschaften man Chatbot Texte leichter identifizieren kann, die andere Hälfte erhält eine weniger konkrete Hilfestellung. Ziel von DEDICAITE ist es zu prüfen, ob unsere spezifische Anleitung zu einer höheren Trefferquote führt als eine Standardempfehlung. Außerdem möchten wir prüfen, welche Rolle Fachkenntnisse bei der Entscheidung spielen. Abschließend werden noch Fragen nach den Gründen für die Entscheidung gestellt (Zeitaufwand circa 15 Minuten). Die Befragung läuft über RedCap.
Hier gehts zur Umfrage:https://tinyurl.com/3wvfx4te
Mitglieder:
Johanna Busse, Berin Doru, Christoph Maier (Kinder- und Jugendmedizin, St. Josef-Hospital, RUB)
Marianne Tokic (AMIB, RUB)
Maria Berger, Steffen Hessler, Judith Schönhoff (Germanistisches Institut, Fak. f. Philologie, RUB)
Stephanie Heimgartner (Praxis & Transfer, Fak. f. Philologie)
- https://www.faz.net/aktuell/karriere-hochschule/student-nutzt-chatgpt-fuer-bewerbung-erstes-urteil-zu-ki-an-hochschulen-19564795.html ↩︎