Roter Roboter zeigt mit dem Finger auf ein Objekt außerhalb des Bildbereichs
Eine Untersuchung legt nahe, dass Trainingsdaten die politische Ausrichtung von Sprachmodellen einzementieren.
Midjourney/Brandtner

Vorurteile werden offensichtlich auf KI-Tools wie Chatbots übertragen. Ein Forscherteam unterschiedlicher Universitäten zeigt in einem aktuellen Paper erneut auf, dass KI-Sprachmodelle unterschiedliche politische Voreingenommenheiten enthalten. Bei der Untersuchung von 14 großen Sprachmodellen fanden die Forscher heraus, dass Modelle wie OpenAIs ChatGPT und GPT-4 tendenziell mehr links-libertär ausgerichtet sind, während Metas LLaMA eher rechts-autoritär ist.

Die Forscher benutzten politisch sensible Aussagen und Trainingsdaten, um die politische Ausrichtung der Modelle zu analysieren. Durch die Platzierung der Modelle auf einem politischen Kompass konnten sie deren Neigungen nachvollziehen. Die Modelle reagierten unterschiedlich auf Fragen zu Themen wie Feminismus und Demokratie und zeigten, dass das Nachtraining mit politisch voreingenommenen Daten ihre Tendenzen sogar noch verstärkte.

Googles BERT-Modelle wurden als gesellschaftlich konservativer eingestuft als OpenAIs GPT-Modelle. Die Forscher spekulieren, dass dies möglicherweise auf die unterschiedlichen Textquellen zurückzuführen ist, auf denen sie trainiert wurden, wobei BERT auf konservativeren Büchern und GPT auf liberaleren Internettexten basiert. Diese politische Voreingenommenheit beeinflusste demnach auch, wie die Modelle Fehlinformationen erkannten, wobei linke Modelle besser darin waren, Fehlinformationen aus rechten Quellen zu erkennen und umgekehrt.

Warnung an Unternehmen

Die Untersuchung betont die Tragweite dieser Voreingenommenheiten, insbesondere weil KI-Modelle in Produkte und Dienstleistungen integriert werden, die von Millionen Menschen genutzt werden. Es bestehe die Gefahr, dass diese Vorurteile in realen Anwendungen, etwa bei einer Gesundheitsberatung oder im Kundendienst, enormen Schaden anrichten könnten.

OpenAI hat sich dem Vorwurf der Voreingenommenheit gestellt und betont, dass es daran arbeite, Unparteilichkeit sicherzustellen. Einige Forscher glauben jedoch, dass völlige politische Unvoreingenommenheit in diesem Zusammenhang unwahrscheinlich bleibe. Auch wenn die Studie einräumt, dass sie keinen Zugang zu den neuesten Sprachmodellen besitze und die verwendeten Tests Mängel aufwiesen, ist sie als Aufruf an Unternehmen zu verstehen, verantwortungsbewusst und transparent in der Entwicklung und Implementierung von AI-Systemen zu sein. (bbr, 10.8.2023)