Kaum eine neue Technologieentwicklung wird zurzeit so breit diskutiert wie die der Künstlichen Intelligenz (KI). Dabei geht es gleichermaßen um Erwartungen und Möglichkeiten wie auch um die Risiken, die mit KI-Technologien1 einhergehen. Ersteres beleuchtet zum Beispiel effizientere Problemlösungsstrategien mittels Automatisierung. Die Einsatzgebiete sind dabei mittlerweile allgegenwärtig: In der Medizin wird KI als Unterstützung für die Diagnostik eingesetzt, im Transport oder in der Logistik errechnet die KI die effizientesten Routen, und im Sicherheitsbereich wird KI zur automatisierten Gesichtserkennung eingesetzt. Bei der Risikodiskussion geht es vor allem um die (nicht-)intendierten, direkten sowie indirekten Nebenwirkungen, die KI-Technologien mit sich bringen. Beispiele diskriminierender Entscheidungen mittels KI finden sich viele, betreffen in den meisten Fällen Minderheiten oder Frauen und häufen sich bisweilen in den USA – wo KI-Technologien noch weiter verbreitet und weniger reguliert im Einsatz sind.

Nun kann man darüber streiten, ob die KI als solche als diskriminierend, unfair oder gar rassistisch bezeichnet werden kann oder ob sie nur ein Spiegel unserer Gesellschaft ist und das reproduziert, was ihr vorgelegt wird. Am Kern des Problems geht diese Diskussion allerdings vorbei. Im Wissen, dass KI-Technologien in ihrer Wirkung auch Schäden verursachen können, sollte der Fokus darauf liegen, inwieweit diese Schäden vermieden werden können, wie dabei vorgegangen werden muss, und in welchen Bereichen eventuell restriktivere Regulierungen unterstützen könnten.

Sozialwissenschaftliche KI-Forschung

Eine sozialwissenschaftliche Untersuchung von KI-Technologien, die insbesondere die Entwicklung und Implementierung dieser Technologien erforscht und begleitet, kann hierfür einen Ansatz bieten. Dabei liegt unser Schwerpunkt bei Vicesse einerseits darin, herauszufinden, unter welchen Umständen KI-Entwicklung stattfindet und welche Fragestellungen die Entwicklung begleiten. Hierbei beleuchten wir auch, inwiefern Nutzerinnen und Nutzer in die Entwicklung mit eingebunden werden. Andererseits erforschen wir bei der Implementierung von KI-Technologien, wie der Einsatz von KI die Praktiken von Nutzerinnen und Nutzern und mittelbar Betroffenen beeinflusst. Dabei stellt sich immer die Frage, wie man mit potenziell diskriminierenden Faktoren – Verwendung unausgewogener Datensätze, Variablensetzung und Klassifizierungen, Intransparenz – umgeht.

Sozialwissenschaftliche KI-Forschung ermöglicht es, das Wissen von Endnutzerinnen und Endnutzern, die mit diesen Systemen arbeiten sollen, in die Entwicklung der Technologien einzubeziehen.
Foto: http://istockphoto.com/koya79

Hier zeigt sich, dass mittlerweile auch aufseiten der KI-Entwicklerinnen und -Entwickler durchaus ein Bewusstsein für die diskriminierende Entscheidungsmacht von KI vorhanden ist, dieses sich aber häufig nur auf offensichtliche Diskriminierungsmerkmale beschränkt – auf Faktoren wie Hautfarbe, Geschlecht oder Herkunft. Es ist aber oft nicht damit getan, diese Merkmale einfach aus KI-Systemen zu entfernen, um Diskriminierung vorzubeugen. Häufig sind es komplexere, sogenannte Proxymerkmale wie Einkommen und Wohnort, die Benachteiligung über die Hintertüre zur Folge haben.

Sozialwissenschaftliche KI-Forschung ermöglicht es, das Wissen von Endnutzerinnen und Endnutzern, die mit diesen Systemen arbeiten sollen, in die Entwicklung der Technologien einzubeziehen. Diese Entwicklung vollzieht sich meist arbeitsteilig und in mehreren Schleifen: Einzelne Teillösungen müssen integriert, getestet und adaptiert werden. Dabei gilt es, immer die Rolle der Nutzerin und des Nutzers, deren Bedürfnisse, Problemsicht und Handlungslogik zu berücksichtigen und so zu übersetzen, dass sie für die technische Entwicklungsarbeit anschlussfähig sind. Durch diese Art des "user-centred system design" kann der praktische Gebrauchswert von KI-Lösungen deutlich erhöht werden. Jedes technische System sollte sich den Nutzerinnen und Nutzern anpassen und nicht umgekehrt!

End-User Involvement

Endnutzerinnen, Endnutzer und Betroffene sollten so gut wie möglich verstehen, wie ein KI-System funktioniert, welche Leistungen es erbringt, wo seine Grenzen liegen und welche Möglichkeiten der Intervention es gibt. Hier besteht noch erheblicher Verbesserungsbedarf hinsichtlich der Kommunikation zwischen den Welten der Technik und der Endnutzerinnen und der Endnutzer. Akzeptanz und Vertrauen aufseiten der Endnutzerinnen und Endnutzer erfordern ein gewisses Verständnis der Technologie, einen gewissen Einblick in die algorithmische "Black-Box". Ein zumindest rudimentäres KI-Verständnis hat zudem den praktischen Nebeneffekt, dass Nutzerinnen und Nutzer besseres Feedback über die KI im Einsatz liefern könnten.

Was unsere Forschung bei Vicesse aber besonders aufzeigt ist, dass eine KI-Entwicklung und -Implementierung nicht als ein rein technischer Prozess verstanden werden kann. Sie ist immer auch durch organisationsinterne, soziale und normative Eigenschaften beeinflusst. Diese zu erforschen und aufzuzeigen hat das Potenzial, die Risiken von KI-Systemen zu minimieren und die KI im Einsatz zu verbessern. (Roger von Laufenberg, 6.10.2021)