Künstliche Intelligenz (KI) wird als neue Universaltechnologie gehandelt, die so wie der elektrische Strom oder das Internet alle Bereiche unseres Lebens radikal verändern wird. Als Trägerin großer Hoffnungen birgt KI aber auch substanzielle Risiken für Mensch und Gesellschaft, die wir noch nicht in vollem Ausmaß verstehen. Der Soziologe David Collingridge hat in seinem Buch "The Social Control of Technology" auf das Dilemma hingewiesen, dass insbesondere gesellschaftliche und soziale Auswirkungen von Technologien schwierig abzuschätzen sind, solange sie noch nicht ausreichend entwickelt und verbreitet sind.

Mit zunehmender Implementierung und Nutzung von Technologien lassen sich wertvolle Erfahrungen gewinnen und damit auch die Genauigkeit der Technikfolgenabschätzung verbessern, gleichzeitig sinken aber die Möglichkeiten, regulierend oder gestaltend auf die Technologieentwicklung einzugreifen. Wer hätte 2004 vorhersehen können, welchen Einfluss ein soziales Netzwerk, das damals für Studierende der Harvard-Universität entwickelt wurde, 15 Jahre später auf unser gesellschaftliches, wirtschaftliches und politisches Leben haben wird? Ist eine Technologie etabliert und in unseren alltäglichen Praktiken verankert, lässt sie sich nur mehr schwer ändern.

KI und Privatsphäre

Mit den KI-Technologien stehen wir eben gerade jetzt vor einer bedeutenden Phase: Noch ist KI in vielen Bereichen nicht so weit entwickelt, dass wir ihre Gestaltung nicht mehr beeinflussen könnten, gleichzeitig sollte keine zu voreilige Regulierung wichtige Innovationen hemmen und damit positive Entwicklungen für unsere Gesellschaft verhindern. Allerdings haben wir nicht lange Zeit, um dieses Fenster zu nutzen.

Die Ethikrichtlinien und Politikempfehlungen der KI-Expertengruppe der Europäischen Kommission sowie auch das Weißbuch des Österreichischen Rats für Robotik und KI stellen den Menschen in den Mittelpunkt. Sie unterstreichen einmal mehr, dass KI-Technologien kein Selbstzweck sind, sondern dazu dienen sollen, unser Wohlbefinden und unsere Selbstbestimmung und Freiheit zu steigern. Menschenzentriertheit bedeutet hier allerdings nicht, die Aufmerksamkeit nur auf den Einzelnen zu lenken, sondern auf das Wohlergehen der Gesellschaft insgesamt sowie auf die Umwelt, in der wir leben. Allerdings sind genau diese längerfristigen gesellschaftlichen und sozialen Auswirkungen schwierig zu fassen.

Kritische Entwicklungen, die etwa unter dem Schlagwort "Datafizierung" diskutiert werden, zeigen auf, wie KI-Technologien heute in unsere Privatsphäre eindringen und unsere persönlichsten und intimsten Bereiche für andere offenlegen können. Wir machen uns dadurch verletzbar, weil wir in unseren Wünschen, Bedürfnissen und Sehnsüchten vorhersagbar und damit auch manipulierbar werden. Mit gezieltem "Verhaltensengineering" durch manipulative Taktiken wird die individuelle Freiheit und Selbstbestimmung schrittweise eingeschränkt. Während wir heute noch über die Sicherung der Privatsphäre und Datenschutz diskutieren, sollten wir schon längst über Sicherung unseres Grundrechts auf Freiheit und Selbstbestimmung sprechen.

Was rezipieren wir?

Bereits heute entscheiden Algorithmen zu einem großen Ausmaß, welche Informationen wir bekommen, welche Musik wir hören, welche Bücher wir lesen und welche Sendungen wir unbedingt sehen sollten. Setzt sich die Entwicklung fort, werden wir in Zukunft noch viel mehr Entscheidungen an Maschinen delegieren. Die Konsequenzen dieser Verschiebung von Mensch zu Maschine sind sicherlich kontextabhängig, führen aber insgesamt zu einer Einschränkung unserer Selbstbestimmung und zu einer stärkeren Abhängigkeit von Technologien, die zum heutigen Stand der Forschung wenig transparent und damit für Anwenderinnen und Anwender kaum kontrollierbar sind.

Der Netflix-Algorithmus entscheidet bereits jetzt, welche Sendungen zu unseren Sehgewohnheiten passen und vorgeschlagen werden.
Foto: APA/AFP/MARTIN BUREAU

Unklar ist auch, wie KI-Technologien unsere sozialen, kulturellen und kognitiven Kompetenzen beeinflussen werden. Lisanne Bainbridge hat in "The Ironies of Automation" auf wichtige Paradoxien der Automatisierung aufmerksam gemacht und aufgezeigt, dass Menschen durch Automatisierung wichtige Fähigkeiten verlieren. Wenn wir KI-Technologien entwickeln wollen, die die Menschen in ihrer Würde respektieren und sie in ihrer Freiheit und in ihrem Wohlbefinden – individuell und als Gesellschaft – stärken, dann gelingt dies nur, wenn wir sie nicht isoliert betrachten, sondern KI-Technologien in ihrem jeweiligen Anwendungskontext als sozio-technische Systeme verstehen.

Wir müssen jetzt handeln und entsprechende verantwortungsvolle, interdisziplinäre Forschungsprojekte auf den Weg bringen, wir müssen Menschen über die Chancen und Gefahren von KI-Technologien aufklären und sie in ihren digitalen Kompetenzen stärken, und wir brauchen kluge Regulierungsmaßnahmen, um Menschen in ihren Grundrechten zu schützen. (Sabine Köszegi, 30.10.2019)