Maya Pindeus, CEO von Humanising Autonomy, achtet auf Ethik bei KI-Projekten.

Foto: Nicolas Pindeus

Die Österreicherin Maya Pindeus hat mit Humanising Autonomy ein aufstrebendes Start-up im Bereich der künstlichen Intelligenz (KI) gegründet. Am Sonntag, 16. April, ab elf Uhr diskutiert sie bei der vom STANDARD mitveranstalteten Diskussion "Europa im Diskurs" im Burgtheater mit Helga Nowotny, Peter Knees, Jörg Piringer und Lisz Hirn über die größten Herausforderungen der Technologie.

STANDARD: Sie haben es sich zur Aufgabe gemacht, KI menschenfreundlicher zu machen. Was genau heißt das?

Pindeus: Eine der großen Diskussionen rund um KI widmet sich der Frage: Wie gestaltet man sie auf eine Art, die verständlich und ethisch vertretbar ist? Wie kann sie den Menschen assistieren? Dafür ist es nötig, um den Menschen herum zu denken und zu bauen. Unser Unternehmen Humanising Autonomy arbeitet daran, Mensch-Maschine-Interaktion zu ermöglichen. Mir ist dabei wichtig, dass die Daten, das Modell, aber auch der Mehrwert für den Menschen erklärt werden. Zuerst sollte diese Frage beantwortet und erst dann KI entwickelt werden.

STANDARD: Das Konzept von Humanising Autonomy ist, Verhalten zu analysieren und zu prognostizieren. Das wirft Fragen in puncto Datenschutz auf. Wie gehen Sie damit um?

Pindeus: Wir entwickeln KI, die aus einer Bewegung eine Intention vorhersieht. Um Verhalten zu interpretieren, muss man aber nichts über die Person wissen. Tracing und Gesichtserkennung sind ein mögliches Add-on, aber nicht notwendig. Bei unserem Verhaltensmodell werden Datenpunkte einer Bewegung extrahiert und für eine Interpretation verwendet. Es geht um den Kontext und die mögliche Intention, zum Beispiel bei Rot eine Straße zu überqueren, nicht um die Person selbst.

Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: illustration in the style of a graphic novel showing a human trying to cross the street while the traffic light is green --ar 3:2
Foto: Midjourney/Stefan Mey

STANDARD: Gleichzeitig gibt es das Thema "Black Box": Man weiß vielleicht, mit welchen Daten die KI gefüttert wird, und kennt die Ergebnisse. Die Modelle dazwischen sind aber unbekannt. Was kann verbessert werden?

Pindeus: Deep-Learning-Modelle sind meist so komplex, dass es nur schwer möglich ist, sie zu verstehen. Man kann aber kleinere Datensätze verwenden, die modular sind. Die einzelnen Modelle kann man also verstehen und sie bei Bedarf miteinander verknüpfen. Das würde ich als den ethischeren Weg betrachten. Und die Analyse der Modelle ist wichtig, weil KI noch in den Kinderschuhen steckt. Derzeit wird oft wild herumexperimentiert.

STANDARD: Das "wilde Herumexperimentieren" war Anlass für den Brief des Future-of-Life-Instituts, in dem gefordert wurde, KI-Experimente zu pausieren, bis man die langfristigen Auswirkungen evaluiert hat. Kritiker des Briefs betonen, dass man sich auf aktuelle KI-Probleme fokussieren sollte. Welchem Lager gehören Sie an?

Pindeus: Ich glaube, dass Experimentieren wichtig ist. Es muss aber ein Regelwerk geben. Das Problem ist, dass das Regelwerk meist erst später entsteht.

Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: illustration in the style of a graphic novel showing a robot fighting against humans --ar 3:2 --q 2 --v 5
Foto: Midjourney/Stefan Mey

STANDARD: Auf EU-Ebene entsteht das Regelwerk derzeit in Form des AI Act. Wo sollte hier der Fokus liegen?

Pindeus: Es ist schwierig, KI als Ganzes zu diskutieren, weil es so viele Anwendungen gibt. Im Straßenverkehr kann KI Leben retten oder mehr Unfälle verursachen, ähnlich ist es in der Medizin. Dann gibt es Applikationen für Marketing und Medien, deren Anwendung anders definiert ist. Wir sollten die Risiken passend zu den Branchen und Applikationen diskutieren, sonst bleibt es auf einer viel zu hohen Ebene. Eine andere Frage ist, wie die Datensätze mit Berücksichtigung von zum Beispiel Datenschutz gestaltet werden.

STANDARD: Der AI Act sieht auch die Unterteilung in verschiedene Risikogruppen vor. Behaviour Analytics ist dabei recht weit oben angesiedelt. In diese Kategorie fällt auch Ihr Start-up, gemeinsam mit den US-Konzernen. Ist das ein Problem?

Pindeus: Es geht auch darum zu zeigen, wie Daten genutzt werden. Ich habe nie an undurchsichtige KI-Entwicklung geglaubt, wir waren von Anfang an transparent. Daher mache ich mir wenige Sorgen, mit anderen in die gleiche Schublade gesteckt zu werden. Gesichtserkennung birgt auf jeden Fall Gefahren, die aufgezeigt werden müssen. Bei Behaviour Analytics kommt es darauf an, wie man es nutzt und wie man es kreiert.

Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: illustration in the style of a graphic novel showing politicians discussing with a robot --ar 3:2 --q 2 --v 5
Foto: Midjourney/Stefan Mey

STANDARD: Also bräuchte es auch eine Differenzierung, wie transparent und datenschutzkonform Gesichtserkennung umgesetzt wird?

Pindeus: Ja, und auch, wann Gesichtserkennung überhaupt genutzt werden soll. Wir nutzen es zum Beispiel nicht, weil ich glaube, dass es für unsere Mission nicht notwendig ist. Ich muss mich nicht identifizieren, um eine bessere Mensch-Maschine-Interaktion zu ermöglichen. Das große Thema ist, wie die Technologien genutzt werden. Wo kommen die Daten her? Wie werden sie gespeichert und ausgewertet?

STANDARD: Viele KIs werden mit Daten trainiert, die von weißen Männern in den USA stammen. Dass sich deren Weltbild auch in der KI findet, bezeichnet man als "AI Bias". Sollten Quellen auch offengelegt werden?

Pindeus: Auf jeden Fall. Es muss eine Metrik geben, woher die Daten kommen und wie sie auf Bias geprüft werden. Natürlich wird es mit größeren Datenmengen auch schwieriger, deren Ausgewogenheit zu erkennen. Je kleiner die Datensätze, desto mehr kann man Qualitätskontrolle betreiben.

Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: illustration in the style of a graphic novel showing many young white men, looking all the same, working on computers --ar 3:2 --q 2 --v 5
Foto: Midjourney/Stefan Mey

STANDARD: Welche Lebensbereiche werden in den kommenden Jahren am meisten durch KI verändert werden?

Pindeus: Unmittelbar werden viele Servicebereiche durch KI bereichert, vom Reisebüro bis zum Marketing. Generative KI ist sehr spannend, aber zum Beispiel auch im visuellen Bereich sehr gefährlich – Stichwort: Deep Fakes. Einen positiven Einfluss wird sie überall dort haben, wo es um Gesundheit und Sicherheit geht, auch in der Logistik oder auf Baustellen. Im Bereich der User-Experience werden mehr Produkte KI nutzen, um Konsumenten zu helfen. Und auch Mixed Reality und Gaming sind ein Riesenthema.

STANDARD: Und wie sollte man sich dafür im Arbeitsleben umstellen?

Pindeus: Es geht darum, KI als Werkzeug zu sehen – und nichts anderes. Sie ist nicht da, um einen Arbeitsplatz auszulöschen. Aber erfolgreich werden jene sein, die wissen, wie sie mit den KI-Werkzeugen umgehen können, um ihre Arbeit besser zu machen. Mit KI arbeiten, aber sich nicht davor fürchten. (Stefan Mey, 15.4.2023)

Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: illustration in the style of a graphic novel showing a robot serving in a travel agency --ar 3:2 --q 2 --v 5
Foto: Midjourney/Stefan Mey