Bild nicht mehr verfügbar.

Die Auswirkungen von Chat GPT auf das Bildungssystem sind umstritten.
Foto: Getty Images

Der Hype und die Diskussionen um das Sprachmodell Chat GPT reißen nicht ab. Während Schulen und Universitäten noch zwischen Verbot und bewusstem Einsatz lavieren – etwa was das Erstellen von Hausaufgaben und Seminararbeiten, aber auch die Zuhilfenahme bei Prüfungen betrifft –, finden Forscherinnen wie die Informatikerin Ute Schmid von der Otto-Friedrich-Universität Bamberg deutliche Worte.

Jahreszahlen und rechnen

"Sprachmodelle wie Chat GPT machen einmal mehr deutlich, dass stupides Auswendiglernen und die Abfrage von derartigem Wissen an Schulen und Unis ein überholtes Konzept sind", sagt Schmid auf STANDARD-Nachfrage. Jahreszahlen auswendig zu lernen oder in Mathematik und Physik nur zu rechnen, anstatt diese Rechengänge tatsächlich verstehen, herleiten und formalisieren zu können, sei kaum zielführend. Denn diese Art von Wissen könne man sehr schnell online abrufen, und es sage wenig über die tatsächlichen Kompetenzen einer Person aus.

Im Zeitalter von künstlicher Intelligenz (KI) müsse man sich in Europa gut überlegen, "was wir mit Bildung meinen und wie wir Kompetenzen sinnvoll abprüfen". Denn die Art, wie geprüft werde, bedinge auch, wie gelernt und welche Fähigkeiten trainiert werden. Anstatt Wissen massenweise über Multiple-Choice-Tests abzufragen, schlägt die Forscherin ein Mehr an persönlichen Prüfungsgesprächen vor. Dass so ein Umbruch sehr personalintensiv und mit entsprechenden Kosten verbunden ist, liege allerdings auf der Hand.

Problem für die Geisteswissenschaft?

KI-Ethik-Experte Thilo Hagendorff von der Eberhard-Karls-Universität Tübingen geht noch einen Schritt weiter und glaubt, dass sich große Teile der Geisteswissenschaften neu erfinden müssen – vor allem die nicht empirisch arbeitenden Fächer. "Forschung basiert dort vielerorts auf der Exegese vergangener Texte. Bücher zu studieren und aus diesen Texten etwa für eine Dissertation zusammenzusetzen kann durch Sprachmodelle übernommen werden", ist Hagendorff überzeugt.

Viele der tiefgreifenden Veränderungen durch künstliche Intelligenz, die sich auch in den Medien, in der Wirtschaft, aber ganz generell im menschlichen Zusammenleben widerspiegeln werden, seien derzeit noch gar nicht abschätz- und vorstellbar. Von der in akademischen Kreisen diskutierten Forderung, dass Sprachmodelle wie Chat GPT in wissenschaftlichen Arbeiten angeführt werden sollten, hält er hingegen wenig: "Früher oder später wird jeder Sprachmodelle benutzen. Es geht dann aber weniger ums Schreiben solcher Texte, sondern wie man diese editiert."

Editieren statt schreiben

Die Frage, wie und ob Forschende beim Schreiben ihrer Arbeiten von künstlicher Intelligenz ersetzt werden können, bleibt umstritten. So wies Schmid etwa auf ein abgeblasenes EU-Projekt hin, bei dem das dolmetschende Personal von einem Sprachmodell hätte unterstützt werden sollen. Da das Editieren und Verbessern der maschinell übersetzten Texte teilweise so aufwendig war, dass die Übersetzer und Übersetzerinnen länger an einem Schriftstück saßen, als wenn sie es von vornherein selbst in eine andere Sprache übersetzt hätten, verzichteten sie auf dessen Einsatz.

Auswendiglernen allein wird in Zeiten von intelligenten Sprachmodellen wie Chat GPT nicht genug sein, ist die Informatikerin Ute Schmid überzeugt.
Foto: Universität Wien/Franz Pfluegl

Robotikprofessor Oliver Brock von der TU Berlin widerspricht Hagendorff ebenfalls, was das Verfassen akademischer Arbeiten betrifft. Existierende Texte so zu kombinieren, dass sich daraus eine relevante und interessante Forschungsarbeit ergebe, sei eine komplexe Aufgabe und mache genau die Leistung von Menschen aus. Er bezweifelt auch, ob Chat GPT dazu jetzt in der Lage wäre. "In all dem aktuellen Hype und Enthusiasmus um Chat GPT dominieren derzeit die Berichte darüber, was alles funktioniert. Darüber, was nicht funktioniert, liest man viel weniger", sagt Brock.

Wenn Chat GPT schwurbelt

Dass der Sprachbot auch im wissenschaftlichen Kontext überzeugend falsche Antworten liefert – der Fachbegriff dafür lautet "Halluzinieren" –, konnte DER STANDARD bereits in eigenen Experimenten dokumentieren. So beantwortete Chat GPT etwa die Frage nach dem pseudowissenschaftlichen Fantasiebegriff "linguistischer Magnetismus" mit einer selbstbewussten Erklärung, die von vorn bis hinten erfunden war. Die Zuordnung des angeblichen Phänomens zur Soziolinguistik machte die Erklärung ein Stück weit überzeugender, aber nicht weniger falsch.

Für Brock stellt sich überhaupt die Frage, ob man bei Chat GPT von künstlicher Intelligenz reden könne. "Vom Ziel, biologische Intelligenz zu synthetisieren, sind wir weiterhin weit entfernt. Chat GPT stellt dabei sicherlich keinen Durchbruch für die KI-Forschung dar", erklärt der Robotik- und KI-Experte. Zwar habe man beim maschinellen Lernen auf niedrigen Dimensionalitäten wie Sprache und Bilder viele Fortschritte gemacht. Aber bereits bei Videos oder auch beim Einsatz von Robotern in der viel höher dimensionierten realen Welt stoße man auf Herausforderungen, die man mit den Fähigkeiten von Sprachmodellen nicht lösen könne.

Wie funktioniert Intelligenz?

Um die Intelligenz von Lebewesen wie Menschen oder Tieren künstlich reproduzieren zu können, gibt es laut Ansicht von Brock eine wesentliche Hürde. So fehle es immer noch am tiefen wissenschaftlichen Verständnis, wie Intelligenz zustande komme und funktioniere. Dazu sei ein interdisziplinärer Ansatz notwendig, der neben der Neurowissenschaft auch die Psychologie und Erziehungswissenschaften umfassen müsse. "Wir müssen Wissenschafterinnen und Wissenschafter trainieren, an diesen Grenzbereichen zu forschen. Dafür wird es auch neue wissenschaftliche Methoden brauchen", ist Brock überzeugt.

Für Diskussionspotenzial sorgt immer wieder auch der Umstand, dass viel KI-Forschung in der Hand kommerzieller Unternehmen stattfindet. Ethikexperte Hagendorff erachtet die Kommerzialisierung per se nicht als problematisch. Viele Modelle und die Technologien dahinter würden zudem als Open Source teilweise frei zur Verfügung gestellt. Heikel werde es allerdings, wenn die zentralisiert gesteuerten Modelle normative, wertende Antworten geben – etwa auf Fragen, ob dies oder jenes Konzept gut oder schlecht sei. "Wenn diese Maschinenmoral von einer einzelnen Firma bestimmt wird, sehe ich das als sehr problematisch", sagt Hagendorff auf STANDARD-Nachfrage. (Martin Stepanek, 30.1.2023)