Das Thema Fake-News interessiert Mina Schütz schon seit ihrem Master: "Es ist eine große Herausforderung, vereint so viele verschiedene Ansätze, dass einem in dem Themenbereich nie langweilig wird."

Foto: AIT / Michael Mürling

Als Donald Trump 2016 mitten in der US-Präsidentschaftswahl steckte, begann der Begriff Fake-News, also Falschmeldungen, zu zirkulieren. Dieser ist seither nicht nur politisch zum Schlagwort geworden: Auch innerhalb der Informationswissenschaften poppten neue Sprachmodelle auf, um solche Beiträge in sozialen Medien zu entlarven.

Doch in diesem relativ neuen Forschungsfeld gibt es noch einige Lücken: "Mit solchen neuen Modellen kann man maschinelle Lösungsansätze leichter programmieren und ausführen. Aber es gibt in der Forschung noch keine einheitliche Definition davon, was Fake-News eigentlich sind. Und daher keine universelle Lösung, mit der man diese künstliche Intelligenz auch einsetzen kann", sagt Mina Schütz, Dissertantin am Center for Digital Safety & Security des Austrian Institute of Technology, AIT.

Ist Satire Fake?

Zählt etwa Satire, die nicht als solche erkannt wird, auch als "Fake"? Wie geht man mit Beiträgen um, die wie ein normaler journalistischer Text aussehen, jedoch nur so von dubiosen Quellen und falschen Informationen strotzen? Und wie mit Hate-Speech, also Hassrede? In ihrer Doktorarbeit versucht Schütz dabei, die zwei Forschungsgebiete Fake-News und Hate-Speech zusammenzuführen.

Wichtig ist dabei auch die Art der Kennzeichnung: "In der Desinformationserkennung ist wichtig, dass dort nicht nur ‚falsch‘ steht", so Schütz. "Die Endnutzer brauchen die Info, warum etwas falsch ist, warum sie etwas hinterfragen sollten." Ansonsten bestehe die Gefahr, dass etwas überlesen wird. In ihrem Projekt soll die eingesetzte künstliche Intelligenz deshalb transparent gestaltet werden. Da Anwendbarkeit in der Prioritätenliste weit oben steht, erhielt Schütz den AIT Poster Award.

Linguistische Hinweise

Doch wie funktioniert eine solche Anwendung überhaupt? Um den Algorithmus zu füttern, braucht es passende Daten. Diese hängt man an sogenannten Features auf, also linguistischen Hinweisen, aus denen schließlich Muster abgelesen werden können.

Bei Nachrichtenartikeln gilt es, den Aufbau der Website anzusehen und zu überprüfen, ob Autor oder Datum angegeben ist. Bei Beiträgen in den sozialen Medien geht das noch weiter: Wie sind Schreibstil und Wortwahl, sind Behauptungen emotional oder aggressiv verfasst, kommen Hassrede, Sexismus oder Rassismus vor? Das geht auch auf einer niederschwelligen, linguistischen Ebene, indem überprüft wird, ob viele Ausrufezeichen, Smileys oder bestimmte Satzstellungen vorkommen.

Gerade in der deutschen Sprache gebe es hierzu noch wenig Forschung, so die Informationswissenschafterin. "Kleine sprachliche Hinweise, wie etwas geschrieben und formuliert ist, können viel Aufschluss geben. Aber es ist auch wichtig, Narrative zu erkennen."

Das Thema Fake-News interessiert Schütz schon seit ihrem Master: "Es ist eine große Herausforderung, vereint so viele verschiedene Ansätze, dass einem in dem Themenbereich nie langweilig wird." Dass die sozialen Medien zu diesen Dingen neigen, fällt ihr natürlich auch persönlich auf – vor allem in den Kommentaren: "Ich halte mich bei solchen Diskussionen aber eher raus und lerne lieber daraus." (Katharina Kropshofer, 23.8.2021)