Der AMS-"Infomat" sollte Jugendliche spielerisch bei der Berufsorientierung unterstützen. Doch das Tool hat Tücken.
APA/EVA MANHART

Österreich und die Digitalisierung haben einen Beziehungsstatus, den man bestenfalls als "Es ist kompliziert" beschreiben kann. Man kann den Verantwortlichen in diesem Land gar nicht vorwerfen, dass sie es nicht versuchen würden: Ausweise sollen digital werden, Funkfrequenzen werden für privaten ultraschnellen Mobilfunk geöffnet, Behördengänge kann man auf dem Smartphone absolvieren, und ja, sogar das Fax soll endlich aus dem Gesundheitssystem verschwinden.

Doch die Umsetzung hält einer Prüfung in der Realität oft nicht stand. Der digitale Führerschein lässt die Server kollabieren, ein Jahr später heißt es dann, man habe aus den Fehlern gelernt. Doch wieder brechen die Verbindungen zusammen, wenn die Handysignatur abgedreht wird. Derartige Beispiele gibt es viele – und da muss man noch nicht einmal das unsägliche Kaufhaus Österreich bemühen.

Schlampiger Umgang mit KI

Jüngstes Exempel ist das AMS mit dem Berufsinfomat, einem Chatbot auf Basis von ChatGPT. Von den großen Ankündigungen blieb leider am Ende nur ein Beispiel übrig, wie man es nicht macht. Tatsächlich hat die AMS-KI auf der Checkliste, was beim schlampigen Umgang mit künstlicher Intelligenz alles schiefgehen kann, sämtliche Haken gesetzt.

Zum einen wäre da die äußerst simple technische Umsetzung. Es handelt sich um eine Softwarelösung von der Stange, um ein digitales Massenprodukt. Dieses wird genau so auch auf der Website der Stadt Basel eingesetzt und soll dort Touristinnen und Touristen zu Sehenswürdigkeiten geleiten und den Weg zum nächsten Restaurant weisen. Eine Anwendung ohne Risiko also, wenn man davon absieht, dass vielleicht einmal ein Gast durch eine KI-Halluzination in die falsche Straßenbahn steigt. Doch in Österreich wird eine Variante dieser Software zur Beratung von Arbeitssuchenden eingesetzt. Das ist fahrlässig. Welche Risiken dieses Experiment birgt, zeigte sich nur wenige Stunden nach der Veröffentlichung. Einem Mann wird geraten, einen Beruf in der IT-Branche zu ergreifen, einer jungen Frau hingegen, in die Hotellerie oder Gastronomie zu gehen. Das ist auch nicht überraschend: Vorurteile sind Teil der DNA von KI-Modellen, denn sie sind fest in deren Trainingsmaterial verankert. Das AMS versprach Anpassungen und programmierte einen digitalen Zeigefinger ein. Die KI darf jetzt keinen Unterschied zwischen Männern und Frauen mehr machen. Doch wenn das Problem so einfach zu lösen wäre, wäre OpenAI, die Mutterfirma von ChatGPT, da schon längst draufgekommen.

Dass man für knapp 300.000 Euro ein Stück Stangen-Software erhalten hat, stört das AMS nicht: Man habe das Programm beim Bundesrechenzentrum und einer privaten Firma bestellt und erhalten, heißt es auf Nachfrage. Hauptsache, das Endergebnis passt, wie die Lieferanten dorthin gelangten, ist egal. Nun, das Resultat passt aber leider nicht und zeigt, dass künstliche Intelligenz nichts ist, was man leichtfertig auf die Welt loslässt. (Peter Zellinger, 4.1.2024)

Video: AMS stellt Berufsinformationen mithilfe künstlicher Intelligenz zur Verfügung.
APA