Sie sind hier: Startseite / Publikationen / Basler Schulblatt / Artikel / «ChatGPT ist eine Black Box»

Artikelaktionen

«ChatGPT ist eine Black Box»

26.10.2023
Chancen, Betrug und fehlende Transparenz: Ein Gespräch über künstliche Intelligenz mit Jean Terrier von der Universität Basel
Bild Legende:

Bildung im Zeitalter der künstlichen Intelligenz ist verbunden mit rasanten Veränderungen und dem stetigen Erlernen von neuen Fähigkeiten. Wie können wir sicherstellen, dass Schülerinnen, Schüler und Lehrpersonen technologisch am Ball bleiben und nicht den Anschluss verlieren?

Basler Schulblatt: ChatGPT hat in den Schulen Einzug gehalten. Wie genau künstliche Intelligenz funktioniert, wissen die Wenigsten. Was macht KI?

Jean Terrier: Diese Frage könnte man wohl in einer Dissertation beantworten (lacht). Künstliche Intelligenz ist breiter als nur Chatbots, aber zur Illustrierung halte ich mich an dieses Beispiel: Ein Chatbot wie ChatGPT formuliert Sätze auf der Basis von Beispielen, die er in der Datenmenge findet. Die Maschine wird mit viel Text gefüttert und erkennt darin Muster. Sie erkennt Abweichungen oder Ähnlichkeiten von Wörtern, die miteinander kombiniert werden.

Durch diese statistische Analyse von grossen Datenmengen ist die Maschine in der Lage, für uns kohärente Sätze zu erstellen. Wenn wir die Maschine nach Wissen oder nach der Wahrheit fragen, kann sie das nicht liefern. Die Maschine denkt nicht. Sie versteht auch nicht. Der technische Vorgang ist nicht extrem komplex, das kennen wir seit einiger Zeit. Neuer ist das Vorhandensein von riesigen Datenmengen. Die Bibliotheken, zum Beispiel, sind inzwischen komplett digitalisiert.

Wie geht die Uni Basel mit dem Gebrauch von ChatGPT um?

Wir wissen, dass viele Studierende KI-Tools nutzen und ausprobieren. Sei es zur Inspiration oder als sprachliche Unterstützung. An der Uni Basel gibt es kein pauschales Verbot – das streben wir auch nicht an. Wenn ChatGPT im prüfungsrelevanten Bereich genutzt werden soll, gelten Regeln. Studierende müssen Chatbots zum Beispiel als Quelle oder als Hilfsmittel angeben.

Ab wann gilt der Einsatz von KI-Programmen als Betrug?

Jean Terrier: Das liegt in den Händen der Dozierenden. Je nach Lernziel können sie jede Form von Hilfe ausschliessen oder sie erlauben – von Taschenrechnern über Wikipedia bis ChatGPT. Gewisse Studierende lernen Berufe, in denen ein Internetanschluss und gewisse Programme unabdingbar sind. In diesem Fall werden Dozierende möglicherweise praxisnahe Prüfungen bevorzugen, in denen bestimmte Tools zur Verfügung stehen. Wenn wir hingegen prüfen möchten, ob die Studierenden eine Sprache wirklich beherrschen, sind keine Übersetzungsprogramme erlaubt. Betrug heisst, sich nicht an die für die Prüfung definierten Regeln zu halten – von Prüfung zu Prüfung sind die Regeln aber nicht immer dieselben.

Wie können Lehrpersonen KI im Unterricht sinnvoll nutzen? 

Natürlich kann KI selber ein Thema im Unterricht sein. Mit Fragen wie: Wie funktioniert KI? Was ist bei der Anwendung von solchen Tools zu beachten? Mir fällt ein gelungenes Experiment des Instituts für Kunstgeschichte der Uni Bern ein. Die Studierenden sollten lernen, kritisch mit ChatGPT umzugehen. Konkret mussten sie Texte zu historischen Persönlichkeiten erstellen, diese korrekt zitieren und die Quellangaben ausfindig machen. Welche Nachschlagewerke wurden von ChatGPT benutzt? Das war gar nicht so einfach herauszufinden. Ein Fazit war, dass ChatGPT im Zweifelsfalle einfach Fakten erfindet, respektive sich aufgrund von mangelnden Informationen am falschen Ort bedient.

Weiter können Lehrpersonen selber Tools zur Textgenerierung als Schreibassistenten nutzen. Sie können helfen, aus kurzen Angaben einen Text zu erstellen – und dies in einem Stil, der genau auf das Zielpublikum abgestimmt ist. Dagegen würde ich aus den genannten Gründen die Struktur an sich nicht von solchen Tools schreiben lassen, dafür wird Fachexpertise benötigt.

Wer mit ChatGPT arbeiten will, muss also gleich mit mehreren Herausforderungen umgehen können. Welche Fähigkeiten benötigen wir dafür?

ChatGPT macht heute noch viele Fehler und die Ergebnisse können stark variieren. Die Kunst besteht darin, das Tool korrekt zu bedienen. Je sorgfältiger der Prompt, also der eingegebene Befehl, formuliert wird, desto brauchbarer sind die Ergebnisse. Wenn wir mit diesen Maschinen arbeiten wollen, müssen wir laufend unsere Kompetenzen beim «Prompt Engineering» erweitern. Weiter liefert ChatGPT heute noch keine Quellen. Im Gegensatz zu Wikipedia. Hier muss man selber eingreifen und ergänzen – das ist viel Arbeit. Die Studierenden müssen Prompts korrekt formulieren, das Ganze überprüfen, anpassen und Literaturhinweise hinzufügen. Die Nutzung von Formulierungstools wie ChatGPT kann unter Umständen den Schreibprozess beschleunigen. Aber fertige Texte, die den universitären Qualitätsstandards entsprechen, liefern sie momentan nicht.

Welche Rolle spielen die Schulen bei dieser technologischen Entwicklung?

Wir müssen lernen, anders mit diesen Medien umzugehen. Alle werden künftig in der Lage sein, Bilder, fertige Musikstücke und Videos zu erstellen – und dies noch viel schneller als jetzt. Wenn wir heute Fotos sehen, gehen wir davon aus, dass das eine Abbildung der Realität ist. Das werden wir bald nicht mehr erkennen können. Es kann ein reales Foto oder ein durch ein KI-Tool erstelltes Foto sein. Wenn wir weiterhin denken, dass wir das Abbild der Realität vor uns sehen, haben wir ein Problem.

Eine Aufgabe der Schulen ist es, diese Medienkompetenz in unsere Gesellschaft zu bringen. Bei vielen Dingen sind ChatGPT und andere KI-Tools eine Beschleunigung, sie erleichtern gewisse Arbeitsschritte. Deshalb müssen wir auch das Lernen und die Aufklärung beschleunigen. Ob wir die Kapazität und die nötigen Mittel für unsere Schulen und Universitäten dazu haben, wird sich zeigen.

Kann der Lernprozess an unseren Schulen durch die KI revolutioniert werden?

Das bleibt abzuwarten. Wenn sich Schreibassistenten verbreiten, werden wir weniger den Text an sich bewerten, dafür von Schülerinnen und Schülern mehr Originalität und kritisches Denken erwarten. Ausserdem sehen wir interessante neue Lernmethoden, bei denen Chatbots zum Einsatz kommen. Wer lernen will, muss aktiv werden – diese Aktivität kann auch eine Interaktion sein, also ein Gespräch mit anderen. Dieser Vorgang kann von einem Chatbot imitiert werden. Man stellt ihm eine Frage, erhält eine Antwort und kann jederzeit nachfragen, wenn man etwas nicht verstanden hat. Das kann sehr hilfreich sein.

Sagen wir, Sie erhalten einen Zauberstab und könnten damit die Bildungslandschaft verändern. Was würden Sie sich wünschen?

Das Problem mit ChatGPT und anderen KI-Tools ist, dass viele Daten gesammelt werden. Diese Daten verbessern zwar das Programm, doch was die Firmen dahinter sonst noch damit machen, wissen wir nicht. Das ist bezüglich Datenschutz problematisch. Zudem kommt auch die Chancengleichheit ins Spiel: Schülerinnen und Schüler, die sich die besseren Versionen der Chatbots leisten können, bekommen bessere Resultate. Das ist unfair.

Was ich mir wünschen würde, wäre also mehr Transparenz. Wir wissen nicht, was hinter den heutigen KI-Tools steckt. Momentan haben wir keine Kontrolle darüber, wie die Maschinen trainiert werden. Viele Infos kommen aus dem Internet, von YouTube oder von Twitter-Kommentaren. Das ist eine Black Box. Mit einem Zauberstab würde ich Tools für unsere Schulen und Universitäten entwickeln, die für unsere Bedürfnisse massgeschneidert sind – am liebsten Open Source, für alle zugänglich.

Interview: Jacqueline Visentin
Foto: Universität Basel

 

Zur Person

Dr. Jean Terrier ist Projektleiter «Digital Literacies» an der Universität Basel. Er sorgt dafür, dass Dozierende, Studierende und weitere Angehörige der Uni die nötigen Fähigkeiten besitzen, um mit neuen digitalen Herausforderungen und Programmen umgehen zu können. Die Uni Basel hat sich damit, wie viele andere Unis in der Schweiz, an das Bundesprojekt «Stärkung von Digital Skills in der Lehre» angeschlossen. (vis)