It's the bribery, stupid! - FALTER.maily #1055
Ich würde meinen, wir müssen die Geschichte über Sebastian Kurz fabelhaften Aufstieg zum ÖVP-Chef und Kanzler grundsätzlich ...
Vor ein paar Tagen hat mein Handy nicht mehr aufgehört zu vibrieren. Ein Blick auf WhatsApp und ich sehe, dass ich 45 neue Nachrichten in meiner Uni-Chat-Gruppe habe. Sie müssen wissen, ich studiere noch. Darum denke ich, komisch, das passiert normalerweise nur kurz vor Prüfungen, wenn der Lernstress die Studierenden einholt und einer nach dem anderen fragt, ob nicht doch jemand eine Stoffzusammenfassung hätte. Aber es steht keine Prüfung an: Semesterferien. Was ist hier los?
"Der zweite Prüfungstermin findet nicht mehr online statt, sondern in Präsenz", schreibt ein Studienkollege. Den Erstantritt am 2. Februar konnte man noch digital von zuhause aus absolvieren. Essay-Fragen, eineinhalb Stunden, Einsatz von Mitschrift erlaubt.
Warum jetzt nicht mehr? Nachfrage beim Professor: "Weil einige versucht haben, sich eine gute Note mit der Software ChatGPT zu erschleichen, haben sie sich für einen Zweittermin in Präsenz entschieden", weiß ein anderer Kollege. Ich muss ein bisschen lachen ob der Ironie: Es ist eine Vorlesung zum Thema Digitalisierung. In der Gruppe sammeln sich Seitenhiebe gegen die anonymen Schummler: "Wer für so eine Prüfung eine KI nutzen muss, sollte hinterfragen, ob Studieren die richtige Entscheidung war", schreibt jemand.
Die künstliche Intelligenz ChatGPT kann menschenähnliche Texte verfassen, ja sogar wissenschaftliche, erzählen Studierende in Medienberichten aus aller Welt. Die Unterscheidung zu Selbstgeschriebenem fällt laut Experten schwer. Wie konnte man dann bei dieser Prüfung die Schummler ausfindig machen? "Das ist auch für uns alles noch sehr neu. Im Prinzip ist es Check, Re-Check, Double-Check", sagt der Prüfungsverantwortliche Maximilian Brockhaus, Universitätsassistent am Institut für Zeitgeschichte der Universität Wien.
Dass die erste Prüfung schon nach einer halben Stunde abgegeben wurde, kam ihm verdächtig vor. "Die habe ich mir dann genau angesehen und der Verdacht, dass ChatGPT verwendet wurde, erhärtete sich." Auch die restlichen Prüfungsdateien analysiert Brockhaus jetzt genauer. Er lässt die Prüfungsfragen selbst vom Programm beantworten und erkennt Parallelen in Schlagworten und Syntax.
Auch der Bezug zu den Vorlesungsunterlagen habe bei manchen gefehlt. Anschließend lässt er die verdächtigen Prüfungsdateien noch durch einen sogenannten "Classifier" laufen, ein Programm des Unternehmens "Open AI", das auch ChatGPT im November öffentlich zugänglich gemacht hat. "Das Programm zeigt auf einer fünfstufigen Skala an, wie wahrscheinlich es ist, dass ChatGPT verwendet wurde", so Brockhaus.
Fünf Verdachtsfälle konnte Brockhaus so feststellen. Die Konsequenz? "Diese fünf Personen haben wir jetzt zu sogenannten Plausibilitätschecks eingeladen. Das entspricht der Richtlinie der Universität Wien. Die Gespräche sollen dazu dienen, die Studierenden noch mal erklären zu lassen, wie die Antwort zustande gekommen ist und ob sie das notwendige Hintergrundwissen haben - oder die Prüfungsantwort erschummelt."
Was fünf meiner Studienkollegen jetzt wohl ziemlich ärgert, stellt Universitäten auf der ganzen Welt vor eine drängende Debatte: Wie kann man garantieren, dass die Eigenständigkeit in der Arbeit der Studierenden nicht verloren geht? Und kann man Chat-GPT in der Lehre auch sinnvoll einsetzen? "Das nehme ich an", sagt Brockhaus. Wie das genau aussehen soll, werde insbesondere an Instituten in den USA intensiv diskutiert. Auch an den Vizerektoraten für Lehre und Digitalisierung der Universität Wien sei man sich der Problematik bewusst und arbeite an einer Lösung.
Konklusion: Es sieht so aus, als müssten Studierende auch in Zukunft noch selbstständig denken. Der Bot kann zusammentragen und zusammenfassen. Kritisch reflektieren und Neues produzieren, bleibt weiterhin etwas fundamental Menschliches. Und wenn der nächste Prüfungstermin in Präsenz stattfindet, wird man wohl oder übel auf den guten alten Schummelzettel zurückgreifen müssen.
Ihre Magdalena Riedl
Wer noch nicht genug vom Thema hat: Ob künstliche Intelligenz mittlerweile einfach zu "smart" geworden ist, diskutieren Experten im Podcast "The Daily" von The New York Times: Reinhören empfohlen!
Auch Kollegin Lina Paulitsch hat sich letzte Woche mit dem Thema "ChatGPT" auseinandergesetzt. Sie nähert sich dem Tool aus philosophischer Perspektive: Ist die Maschine bloßes Hilfswerk, oder entscheidet sie bald in Eigenregie?
Ebenfalls zum Stichwort Transparenz, aber anders: Gerald Fleischmann war der "Mister Message-Control" im Team von Sebastian Kurz, sein wichtigster Spindoktor. Jetzt gibt er den Experten und hat ein Buch darüber geschrieben, wie man die Öffentlichkeit manipuliert. Kann sich das ausgehen? Gerald Fleischmann im Gespräch mit Barbara Tóth lesen Sie im neuen FALTER.
Im FALTER-Podcast klärt Nina Branda das Missverständnis rund um eine Weinviertler Familie in einem "Keller" auf, der gar keiner war. Das dazugehörige Video, in dem klar wird, warum die Sache dennoch beunruhigend ist, finden Sie hier. Nina Brnadas Reportage aus der Vorwoche können Sie hier nachlesen!
Sie haben noch kein FALTER-Abonnement und gelangen deshalb nicht hinter die Bezahlschranke? Unter diesem Link finden Sie zu unserem 4-Wochen-Testabo, das völlig kostenlos ist. Keine Sorge, es endet automatisch! Viel Spaß beim Lesen!
Versteckte Kleinode Wiens entdecken
Das Buch Verlockende Oasen ist eine Entdeckungsreise zu den schönsten, öffentlich zugänglichen Grünanlagen Wiens. Diese stillen Orte sind grüne Wohlfühloasen im urbanen Grau. Informationen zu Architektur, Geschichte und Gestaltung ergänzen die brillanten Fotos und laden zum Flanieren durch die grünen Inseln der Stadt.
Erhältlich auf faltershop.at