Wie KI-Systeme zu ihren Urteilen kommen, bleibt oft im Dunkeln.

Foto: PATRICK T. FALLON/AFP

Schon jetzt entscheidet künstliche Intelligenz (KI), welche Produkte uns beim Onlineshopping aufgrund unseres bisherigen Kauf- und Suchverhaltens vorgeschlagen werden. Auch personalisierte Werbung, Serienanregungen auf Netflix und angezeigte Videos auf Youtube funktionieren nach diesem Prinzip. Künftig könnten solche Algorithmen aber auch entscheiden, ob wir einen Job bekommen, ob Sozialhilfe zusteht, wir eine bestimmte Versicherung oder einen Kredit abschließen dürfen und welche medizinische Behandlung uns zusteht.

AK kritisiert EU

Angesichts der tiefgreifenden gesellschaftlichen Veränderungen, die durch Systeme mit künstlicher Intelligenz zu erwarten sind, warnt die Arbeiterkammer (AK) Wien vor fehlenden Schutzmaßnahmen. Kritisiert wird dabei auch ein letztgültiger EU-Entwurf aus dem April 2021, der den Umgang und den Rechtsrahmen für künstliche Intelligenz regeln soll. Auf Konsumentinnen und Bürger sei vergessen worden. Auch der Rechtsschutz für Betroffene, die durch den Einsatz von künstlicher Intelligenz zu Schaden kommen oder benachteiligt werden, spiele im Entwurf keine Rolle.

"Das geht gar nicht", sagte AK-Konsumentenschützerin Daniela Zimmer bei einem Pressegespräch am Donnerstag. Zwar seien Bereiche wie Justiz und Strafverfolgung, Bildung, Beschäftigung, aber auch Kreditentscheidungen als "hochriskante Anwendungen" eingestuft worden, was den KI-Einsatz eigentlich verbiete. Viele der Verbote seien aber löchrig und mit diversen Ausnahmen formuliert, kritisiert Zimmer. Beim Bereich Versicherungen etwa fehle ein derartiges Verbot überhaupt, auch wenn Entscheidungen über eine Finanzierung existenziell seien.

Fehlende Transparenz der Systeme

Auf das Problem der fehlenden Transparenz und Verständlichkeit, wie Entscheidungen von KI-Systemen getroffen werden, weist auch das Institut für Technikfolgenabschätzung (ITA) der Österreichischen Akademie der Wissenschaften hin. "Wie ein System zu seiner Schlussfolgerung kommt, bleibt häufig im Dunkeln, teilweise sogar für Entwicklerinnen und Entwickler", erklärt Walter Peissl, stellvertretender Direktor des ITA.

In einer von der AK in Auftrag gegebenen Studie (PDF) haben er und sein Team Erkenntnisse zum Stand der Forschung zusammengetragen. Aktuell sei es so, dass ein Algorithmus etwa bei einer Analyse von einem Foto zum Schluss komme, dass es sich zu 93 Prozent um eine Katze handeln müsse, veranschaulicht Peissl an einem Beispiel. Künftig sollte das System transparent darlegen, warum es zu diesem Urteil kommt, etwa weil Ohren, Barthaare und Tatzen zu sehen und bestimmte Merkmale übereinstimmen. Nur so könnten von einer KI-Entscheidung Betroffene verstehen, wie eine Entscheidung gefällt wurde.

Sozialen Kontext berücksichtigen

Für den Wissenschafter ist es auch zu wenig, derartige Systeme nur technisch beschreiben oder regeln zu wollen. Vielmehr müsse immer berücksichtigt werden, in welchem sozialen Kontext eine KI eingesetzt werde und Entscheidungen treffe. Peissl plädiert dafür, in erster Linie Systeme einzuschätzen, die zumindest theoretisch von Menschen kontrolliert werden können. Betroffene müssten zudem aktiv in die Gestaltungsprozesse von künstlicher Intelligenz eingebunden werden, um die Sozialverträglichkeit solcher Algorithmen zu erhöhen.

Ein potenzielles Risiko bieten zudem die Daten, die derartigen Systemen zugrunde liegen. Effiziente Systeme, die schnell eine Vielzahl an Daten verwerten können, seien hilfreich. Sind aber bestimmte Vorurteile im System eingebaut, könne es schnell gefährlich werden. "Objektive Technik gibt es nicht, im Normalfall verfolgen solche Systeme immer irgendwelche Interessen derjenigen, von denen sie betrieben werden", sagt Peissl zum STANDARD.

Umso wichtiger sei es deshalb, sehr verantwortungsbewusst mit solchen KI-Systemen umzugehen. Es müsse klar abgesteckt sein, zu welchem Zweck und in welchem Umfang man sie gezielt einsetze. Denn eines sei auch klar: "Durch die hohe Skalierbarkeit und Effizienz der Datenverarbeitung kann ein umso größerer Schaden entstehen", ist Peissl überzeugt. (Martin Stepanek, 28.4.2022)