Imaginieren Sie, dass im Herbst 2023 der Anwalt Rhys Palmer das erste Telefonat von einem besorgten Studenten erhielt, der behauptete, dass er ein Chatbot mit künstlicher Intelligenz verwendet hatte, um seine Hausaufgaben zu kopieren. Es war der erste von vielen.
Noch weniger als ein Jahr zuvor war ChatGPT von OpenAI gestartet worden, und Studenten nutzten ihn bereits, um wissenschaftliche Artikel und Bücher zusammenzustellen. Aber auch, um Essays zu schreiben.
“Seit dem ersten Anruf dachte ich, dass dies ein großes Problem werden würde,” sagt Palmer von seinem Büro in Robertsons Solicitors in Cardiff, wo er sich auf Bildungsrecht spezialisiert hat. “Für den besorgten Studenten hatte der Universität selbst künstliche Intelligenz verwendet, um Plagiate zu entdecken. Ich sah mögliche Fehler in diesem Prozess und prognostizierte, dass eine Welle von Studenten mit ähnlichen Problemen konfrontiert werden würde.”
Während der Einsatz von Chatbots immer mehr verbreitet wird, was ursprünglich ein leichtes Problem war, ist es nun eine tiefgreifende Herausforderung für Universitäten. Wenn viele Studenten Chatbots verwenden, um zu schreiben, zu recherchieren, zu programmieren und zu denken, was ist der Zweck des traditionellen Bildungssystems?
Seit dem ersten Anruf im Jahr 2023 hat Palmer eine Spezialität entwickelt, indem er Studenten, die beschuldigt wurden, AI verwendet zu haben, um ihre Hausaufgaben zu kopieren, unterstützt. Er sagt, dass die meisten Studenten freigesprochen wurden, nachdem sie Beweise wie vorher geschriebene Essays, Studienmaterialien und frühere Arbeiten vorgelegt haben.
“‘Kopieren mit AI’ ist… ein eigenes Problem,” sagt Palmer. “Oft sind es die Eltern, die anrufen, um sich für ihre Kinder zu äußern. Oft fühlen sie sich, als hätten ihre Kinder keine klaren Anweisungen oder Ausbildung erhalten, wie sie AI verwenden können oder nicht.”
In anderen Fällen hat Palmer Studenten unterstützt, die sich entschieden haben, AI zu verwenden, um sich vor Strafen zu schützen, indem sie argumentierten, dass die Universitätspolitik bezüglich AI nicht klar war oder dass sie gesundheitliche Probleme wie Depressionen oder Angst hatten.
“Sie kommen und sagen: ‘Ich habe mich geirrt,'” sagt er. “In solchen Fällen nehmen wir eine Erklärung von einem Arzt oder einem Experten, der bestätigt, dass ihr Urteil beeinträchtigt war.”
Einige Studenten berichten, dass ChatGPT jetzt der am häufigsten verwendete Programm auf ihren Laptops in Universitätsbibliotheken ist. Für viele von ihnen ist es bereits ein wichtiger Teil ihres täglichen Lebens.
Gaspard Rouffin, 19 Jahre alt, Student im dritten Jahr für Geschichte und Deutsch an der Universität Oxford, verwendet es jeden Tag für alles, von der Suche nach Buchempfehlungen bis zur Zusammenfassung von langen Artikeln, um zu sehen, ob er sie komplett lesen sollte. Für Sprachmodule ist der Einsatz von AI zweifellos am umstrittensten.
“Ich hatte einen Lehrer im zweiten Jahr in einer Übersetzungsstunde, und er bemerkte, dass viele Übersetzungen von AI generiert wurden, also verweigerte er die Bewertung der Übersetzungen in dieser Woche und sagte uns, dass wir nie wieder so etwas tun sollten,” sagt er.
Einige Lehrer waren weniger wachsam. Ein Studentin im dritten Jahr an der Universität Oxford erinnert sich an einen Tutorial, in dem ein Klassenkamerad einen Essay las, den sie als offensichtlich von AI generiert erkannte.
“Ich verstand sofort,” sagt sie. “Es hatte etwas in der Syntax, der Art, wie es aufgebaut war, und der Art, wie es gelesen wurde.”
Die Reaktion des Lehrers? “Er sagte: ‘Wow, das war eine sehr gute Einleitung, sehr gut formuliert und ich fand die Genauigkeit sehr überzeugend.’ Ich saß einfach nur da und dachte: ‘Wie kann er nicht erkennen, dass das ein Produkt von ChatGPT ist?’ Ich denke, das zeigt ein Mangel an Kenntnissen über diese Angelegenheit.”
Ein Studienbericht von der Studentenunterkunft Yugo zeigt, dass 43% der Studenten in Großbritannien AI verwenden, um ihre akademische Arbeit zu korrigieren, 33% verwenden es, um bei der Strukturierung von Essays zu helfen, und 31% verwenden es, um Informationen zu vereinfachen. Nur 2% der 2.255 Studenten sagten, dass sie es verwenden, um ihre Hausaufgaben zu kopieren.
Trotzdem sind nicht alle Studenten positiv gegenüber diesem Programm. Claudia, 20 Jahre alt, die “Gesundheit, Umwelt und Gesellschaft” studiert, sagt, dass sie manchmal sich unwohl fühlt. Sie sagt: “Manchmal fühle ich mich enttäuscht, zum Beispiel in Sprachmodulen, wenn ich sicher bin, dass ich alles selbst geschrieben habe und viel Arbeit hineingesteckt habe, und dann höre ich, dass andere einfach ChatGPT verwendet haben und am Ende höhere Noten bekommen.”
Studenten haben auch Angst vor den Folgen, wenn Chatbots entdeckt werden. “Ich habe Angst, mich zu irren und Plagiate zu begehen,” sagt Eva, 20 Jahre alt, die “Gesundheit und Umwelt” an der University College London studiert. Anstatt ihre Notizen zu wiederholen, fügt sie sie in ChatGPT ein und fragt es, um ihre Kenntnisse zu testen.
“Es ist natürlich ein bisschen unangenehm, wenn man hört: ‘Ah, ich habe diese Note bekommen,'” sagt sie. “Und man denkt: ‘Ja, du hast ChatGPT verwendet, um sie zu bekommen.’ [Aber] wenn andere jetzt AI verwenden und dann nichts über die Materie wissen, ist das ihr Problem.”
Universitäten, die etwas zögerlich reagieren, versuchen, neue ethische Richtlinien zu erstellen und klarzustellen, wie AI in Abhängigkeit vom Kurs, Modul oder Bewertungsverfahren verwendet werden kann.
Die Ansätze variieren stark. Viele Universitäten erlauben den Einsatz von AI für Forschungszwecke oder zur Unterstützung bei der Rechtschreibung und Grammatik, aber einige verbieten ihn vollständig. Die Strafen für Regelverstöße reichen von schriftlichen Warnungen bis hin zur Exmatrikulation.
“Universitäten sind in einer Position, als ob sie versuchen, die Tür hinter dem Käfer zu schließen,” sagt ein Assistent des Rektors an einem Universität des Russell-Gruppen. “Unsere Universität reagiert erst jetzt auf AI, indem sie Politiken festlegt, wie zum Beispiel welche Bewertungen den Einsatz von AI nicht zulassen.”
Es gibt deutliche Anzeichen dafür, dass der Schreibstil von Robotern erkannt wird: “Wenn ich ein sehr umfangreiches Werk sehe, das mit großen Wörtern oder vielen Nachnamen gefüllt ist, beginne ich zu zweifeln.”
Einige Studenten sind offensichtlich überfordert. Die Daten, die von Times Higher Education erhalten wurden, zeigen, dass die Fälle von unangemessener Verwendung von AI in Universitäten der Russell-Gruppe zugenommen haben, während AI immer beliebter wird. An der Universität von Sheffield zum Beispiel gab es 92 verdächtige Fälle von AI-Verstößen im akademischen Jahr 2023-24, bei denen 79 Studenten bestraft wurden. Im Vergleich dazu gab es im Jahr 2022-23 nur 6 verdächtige Fälle und 6 Strafen.
Aber Palmer sagt, dass viele Universitäten zu sehr von AI-Software wie Turnitin abhängig sind, die die Arbeit der Studenten mit Milliarden von Webseiten vergleicht, um mögliche Plagiate zu entdecken. Turnitin gibt eine “Übereinstimmungsquote” an – den Prozentsatz des Textes, der mit anderen Quellen übereinstimmt. Die Firma selbst sagt, dass die Ergebnisse nicht isoliert verwendet werden sollten.
“Die Probe fällt auf die Universität, um zu entscheiden, ob der Student wahrscheinlich kopiert hat, aber das ist eine sehr geringe Belastung im Vergleich zu einem Strafverfahren,” sagt Palmer.
Studenten der Medizin und der Biomedizin scheinen besonders anfällig für Beschuldigungen zu sein, sagt Palmer, weil sie oft direkt von AI gelernte medizinische Definitionen und Fachbegriffe lernen.
Der Fall von Andrew Stanford illustriert, wie komplex dieses Problem sein kann. Im Jahr 2023 wurde Stanford, 57 Jahre alt, von der Universität Bath besch