MYSTERIÖSE PLAGIATSVORWÜRFE

Nina Fehr Düsel ist der neue Shootingstar der SVP. Allerdings sorgt ihr Doktortitel inzwischen für eine bislang unveröffentlichte Kontroverse. Einen Tag nach ihrer Wahl in den Nationalrat schreibt jemand anonym der Universität Zürich einen Brief mit dem Vorwurf, Frau Fehr Düsel habe ihre Dissertation zu weiten Teilen «wörtlich von früheren Arbeiten anderer Autoren abgeschrieben», und beantragt, ihr den Doktortitel zu entziehen. Bezüglich ihrer Vorwürfe stützt sich die Person laut NZZ vom 25. November 2023 auf ein beigelegtes Gutachten des österreichischen Plagiatsprüfers Stefan Weber, das sie selbst in Auftrag gegeben hat. Der Vorwurf, dass vermeintliche Fehler systematisch oder gar in unlauterer Absicht erfolgt seien, stimmt in doppelter Hinsicht stutzig, egal wie man zur Partei und zur frischgewählten Nationalrätin steht. Erstens ist nicht einzusehen, warum sich jemand die Mühe macht, den Plagiatsprüfer Stefan Weber einzuschalten, wenn er selber eine Plagiatsprüfungskontrolle hätte durchführen können. Es gibt viele Online-Tools, die eine automatische Plagiatsprüfung erledigen. Viele sind kostenlos und schon lange obligatorisch, zum Beispiel für Maturitätsarbeiten an Gymnasien. Zweitens ist – bei allem Respekt – aufgrund des Alters von Frau Fehr Düsel nicht davon auszugehen, dass sie ihre Dissertation mit Hilfe von ChatGPT oder einer anderen Art «Künstlicher Intelligenz» verfasst hat.

Wer darüber hinaus eine Vorstellung davon bekommen will, welch dramatische Umwälzungen sich zurzeit an Universitäten in der ganzen Welt abspielen, muss nicht länger Websites wie essayshark.com besuchen, um sich für 13 Dollar 40 je Manuskriptseite Texte generieren zu lassen. Seit dem 30. November 2022 wurde der Betrug quasi «demokratisiert», wie es der englische Bildungsforscher Mike Sharples von der britischen Open University nennt: An diesem Tag machte das amerikanische Unternehmen OpenAI seine künstliche Intelligenz Chat-GPT kostenlos im Internet zugänglich. Natürlich brach dadurch der Markt für digitale Studienhelfer zusammen. Warum teures Geld ausgeben, wenn eine Maschine gratis ähnliche Resultate liefert? Bald darauf bestand Chat-GPT die Schlussprüfung in Verfassungsrecht an der University of Minnesota Law School und die medizinische Zulassungsprüfung der USA. Studenten rühmten auf X (dem früheren Twitter), dass ihre mittels künstlicher Intelligenz verfassten Bachelor- und Masterarbeiten angenommen wurden. In der Fähigkeit, auf Befehl scharfsinnige Texte zu beliebigen Themen zu verfassen, liegt die Sprengkraft der künstlichen Intelligenz für die höhere Bildung.

Mit Chat-GPT scheint alles anders geworden zu sein. Gemütlich am Laptop ein paar Fragen in ein Suchfeld eines Browser-Fensters zu tippen und die Antworten zu einem flüssigen Text zu arrangieren, fühlt sich nicht wirklich anrüchig oder gar kriminell an. Der Betrug wurde sowohl demokratisiert als auch normalisiert, und zwar in einem noch nie da gewesenen Tempo. Bei anderen wichtigen Technologien wie dem Internet geschahen die Veränderungen langsamer. Die spracherzeugenden künstlichen Intelligenzen erreichten uns so plötzlich wie ein Erdbeben. Schnell wurde klar, dass Verbote kaum Wirkung zeigen. Von den angefragten Schweizer Universitäten untersagt heute keine die Anwendung von KI. «Verbote von bereits genutzten Hilfsmitteln sind weder zweckmässig noch durchsetzbar», schreibt zum Beispiel die Medienstelle der Universität Bern. Ausserdem sind Verbote nicht durchsetzbar, weil es anders als bei Plagiaten keine Möglichkeit gibt, zweifelsfrei zu erkennen, ob ein Text aus dem Internet kommt. Was Chat-GPT liefert, ist nicht einfach ein aus bestehenden Textfragmenten zusammengeflicktes Machwerk, sondern ein einzigartiges Original, das in diesem Moment produziert wurde. Vermutlich ist der Kampf gegen KI-Texte mit technischen Mitteln bereits verloren, zumal jedes hinreichend leistungsfähige Programm, das feststellen kann, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde, von einem ebenso leistungsfähigen KI-Textgenerator in einem sinnlosen rechnerischen Wettrüsten überlistet werden kann. Darüber hinaus gibt es im Internet bereits Werkzeuge, die Texte detektionssicher machen sollen. Die grundsätzlich offene Haltung der Universitäten gegenüber dem Einsatz von künstlicher Intelligenz ist also nicht das Resultat einer grossen Begeisterung als vielmehr Ergebnis der eigenen Hilflosigkeit. Hochschulen schicken sich einfach ins Unvermeidliche. An der ETH Zürich experimentieren Dozenten mit künstlicher Intelligenz und machen die neue Technologie zum Teil ihres Unterrichts. Doch wie nicht anders zu erwarten, experimentiert die Studentenschaft genauso schnell wie die Dozenten.

In Fachgebieten wie Biologie, Physik oder Chemie, die ein Experiment oder eine Erhebung beschreiben, ist der Einsatz sprachgenerierender KI weniger problematisch, da ein Text ein in der Realität existierendes Resultat der Forschung darstellt. (Wenn ein Gen gefunden wurde, ist es im Grunde nebensächlich, ob bei der Beschreibung eine künstliche Intelligenz verwendet wurde.) Auf der anderen Seite stehen Forschungsrichtungen wie Geschichte, Politologie oder Soziologie, in denen häufig aus alten Texten neue Texte fabriziert werden. Dort ist der Text oft das Endprodukt der Wissenschaft. Aus diesem Grund verwischen die Grenzen zwischen sinnvollem und fragwürdigem Einsatz von KI.

Hier zeigt sich, dass die Hochschulen vor einem Dilemma stehen. Einerseits gehört die texterzeugende künstliche Intelligenz zu den Werkzeugen, über die ihre Abgänger im Berufsleben verfügen. Andererseits liegen Denken und Sprache so nahe zusammen, dass das Erste Schaden nimmt, wenn das Zweite nicht mehr gepflegt wird. Nicht auszuschliessen, dass die selbständig verfasste schriftliche Arbeit als Leistungskontrolle in unserem Bildungssystem ihr Ende erreicht hat. Studenten und Schüler werden KI einsetzen, um Aufgaben zu schreiben. Die Lehrer und Professoren werden KI einsetzen, um sie zu bewerten. Niemand lernt, niemand profitiert!

Dass sich die Diskussion nicht entspannen wird, haben die letzten Wochen gezeigt. Bekanntlich wurde der US-amerikanische Unternehmer Sam Altmann, CEO von OpenAI, wegen eines Richtungsstreits der Firma am 17. November 2023 entlassen, um einen Tag später vom Technologieunternehmen Microsoft eingestellt zu werden. 24 Stunden später wechselte er erneut zu OpenAI. Genaueres über die Hintergründe ist nicht zu erfahren. Möglich, dass es sich um die neuste KI, das sogenannte Q-Star-Projekt, handelt, das, so Elon Musk in einem Interview mit der «New York Times», in der Lage sein soll, einfache mathematische Probleme, die nicht Teil des Trainingsmaterials sind, auf Grundschulniveau selbstständig zu lösen. Ob damit Schaden angerichtet wird oder nicht, bleibt offen. Trotzdem gilt auch hier das Diktum von Friedrich Dürrenmatt aus dem Theaterstück «Die Physiker»: «Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.»

Christoph Frei, Akademisches Lektorat, CH-8032 Zürich

Bild:
ChatGPT Logo