Künstliche Intelligenz (KI) wird in einem großen und von vielen womöglich unterschätzten Ausmaß unser gesellschaftliches Zusammenleben betreffen. Die Hoffnungen sind groß: Roboter, die gefährliche Aufgaben für uns übernehmen (bei Umweltkatastrophen, Entminungen) oder die Pflege kranker Menschen erleichtern; computergestützte medizinische Anwendungen (die Analyse von Millionen Röntgenbildern, die Synthese komplexer Gesundheitsdaten); Prognosemodelle (im Feld der Kriminalistik, des Arbeitsmarktes, des Klimawandels); viele weitere Anwendungen sind denkbar und werden, auch unter dem Aspekt neuer Geschäftsmodelle, in der Informatik und angrenzenden Gebieten diskutiert.

Eine zentrale Rolle bei diesen Entwicklungen spielen Algorithmen und welche (auch ethischen) Auswirkungen diese in einem System künstlicher Intelligenz haben, etwa wenn es um faire Anwendungen von Prognosemodellen, um gesellschaftliches Feedback zu den Modellen (oder dessen Fehlen), um Privacy-Fragen (und welche Daten wie verwendet werden dürfen), oder auch um die Angst vor einer möglicherweise zu großen Autonomie eines KI-Systems geht. Auch Medien und digitale Plattformen bedienen sich zur zielgenaueren Ansprache des Publikums und zur Filterung der Konsumentenpräferenzen verschiedener Algorithmen. Kritikerinnen und Kritiker befürchten nun eine Abgabe genuin menschlicher Verantwortung bei moralischen Fragen, die nun bei anonymen KI-Systemen und deren Algorithmen, die eine Black-Box seien, liege.

Ein bekanntes Beispiel ist das selbstfahrende Auto, das in Bruchteilen einer Sekunde schwerwiegende Entscheidungen in Unfallsituationen treffen muss. Abgesehen von der zur Zeit hypothetischen Frage, ob Maschinen so selbständig und eigenmächtig sein können, um sich selbst weiterzuentwickeln und letztlich die Kontrolle über uns Menschen zu erlangen (technologische Singularität), sollte uns die viel praktischere und aktuellere Frage beschäftigen, ob Maschinen und KI-Systeme so konstruiert und eingesetzt werden können, dass sie uns bei wichtigen Themen unterstützen und dies auf eine ethisch fundierte Weise tun, so dass wir mit den von Maschinen erzielten Ergebnissen auch als Gesellschaft profitieren und keine Angst vor ethischem Kontrollverlust haben brauchen. Da Systeme von einfachen Tools (zum Beispiel Suchmaschine) zu Assistenten (zum Beispiel selbstfahrende Autos) weiterentwickelt werden, stellt sich zudem die Frage, ob und wann sie zu vollen moralischen Agenten werden können, die Selbstreflexion und eigene Argumentationsketten aufweisen, oder ob dieser letzte Schritt Science-Fiction bleibt.

Selbstfahrendes Auto bei einer Testfahrt.
Foto: AFP/ED JONES

Wie wird die Maschine annähernd zum Menschen?

Was bedeutet das konkret für die Entwicklung und Anwendung künstlicher Intelligenz? Können Algorithmen für etwas verantwortlich sein? Wenn nicht, wer oder was dann? Müssen wir eine Ethik, einen bestimmten ethischen Ansatz, heranziehen und diesen für unsere Gesellschaft verbindlich für alle KI-Systeme einführen? Aber was heißt dann einführen; bei der Programmierung der Algorithmen, bei der Entscheidungsfindung eines KI-Systems, bei der Zulassung einer Technologie durch den Staat und seine Behörden? Das sind keine einfachen Fragen und wir können nicht erwarten, dass die angewandte Ethik (etwa die Technikethik oder die Medienethik) uns klipp und klar sagen kann, welche Richtung einzuschlagen ist. Wir können aber zwei Themenkomplexe näher abklären, für die es in der Literatur (einige aktuelle Referenzen sind unter dem Text angeführt) bei vielen Teilbereichen ähnliche Ansichten und Vorschläge gibt: Einerseits die großen Schwierigkeiten, die künstliche Intelligenz mit ethischem Analysieren (ethical reasoning) generell hat, andererseits Wege, die wir als Gesellschaft künftig einschlagen sollten, wenn wir eine ethisch verantwortungsbewusste Weiterentwicklung von KI und Algorithmen wünschen.

Bleiben wir zunächst beim so genannten ethical reasoning von umgangssprachlich autonom genannten Systemen. Was müsste so ein System beherrschen, um annähernd wie ein Mensch potenziell ethisch zu agieren? Zunächst müsste es eine Situation als eine mit ethischen Implikationen erkennen (das Auto erkennt die Unfallgefahr mit dem potenziellen Trolley-Szenario, also dass nur entweder die Insassen oder die Verkehrsteilnehmer gerettet werden können); auch die potenziellen Konsequenzen und deren Eintrittswahrscheinlichkeiten müssten eingeschätzt werden können. Es müsste entscheiden können, ob es selbst oder jemand anderer für die Lösung des ethischen Dilemmas verantwortlich ist; wenn es selbst verantwortlich ist, müsste es nicht nur die Prinzipien der Entscheidung (etwa utilitaristische, deontologische, Tugenden, Gerechtigkeitsprinzipien, Wertordnungen et cetera) unterscheiden, sondern auch nach Relevanz für den Einzelfall ordnen können, jedenfalls aber den Entscheidungsweg transparent machen, bevor eine Handlung gesetzt wird.

Zwar können in dieser puren Form (man denke an all die Daten, die man für eine konsequentialistische, also nach den Folgen einer Entscheidung fragende, Analyse benötigen würde) auch Menschen kaum agieren, zumindest nicht in der Raschheit, in der in diesem Szenario eine Entscheidung nötig wäre, doch zeigt dies, wie hoch der Anspruch an eine diesbezügliche Maschinenethik ist und wie weit zurzeit KI-Systeme noch von diesem Ideal entfernt sind. Idealmodelle haben es jedoch an sich, dass sie uns mögliche Wege zu einem Ziel aufzeigen können und uns besser verstehen lassen, was KI- und Algorithmenethik in Zukunft erarbeiten sollen. Versuche, komplexe ethische Analysen von KI-Systemen durchführen zu lassen, gab es bereits, etwa bei der Anwendung spieltheoretischer Modelle im Konsequentialismus, deontischer Logik für das Nachdenken über Pflichten oder von "Theory of Mind"-Modellen für tugendethische Fragestellungen.

Was ist relevant?

Ein weiteres Problem: Menschen können durch Erfahrung lernen und ethische Verhaltensweisen (unter anderem durch Beobachtung) erarbeiten; wenn wir einer Maschine (möglicherweise durch Deep-Learning-Routinen) diese Art des Lernens einprogrammieren, wie kann diese Maschine dann Stereotypen, Vorurteile und Verzerrungen (bias) erkennen? Diese Phänomene treten in letzter Zeit verstärkt dort auf, wo Menschen sich bei der Informationsbeschaffung und Meinungsbildung auf Algorithmen verlassen, denken wir an Vorurteilbehaftete, teils sogar "rassistische" Chatbots oder Echokammern auf digitalen Plattformen, die Meinungspluralität einschränken. Wieso sollte ein KI-System diese Fehler nicht machen? Ein besonders wichtiges Kriterium für ethisch programmierte Algorithmen ist zudem die Frage der Werteintegration. Welche Werte soll ein KI-System integrieren, wie soll es zwischen Werten abwägen (und Werte priorisieren), wer bestimmt darüber, welche Werte in der Gesellschaft gerade als relevant gesehen werden?

Hier stellen sich zumindest zwei Probleme: der gerade in den letzten Jahren verstärkt beobachtbare Wertepluralismus und das Problem der Datenaggregation. Ersteres erleben wir zum Beispiel anhand der Pandemie, wo immer wieder der Wert der Freiheit gegen den Wert der Gesundheit (und Sicherheit) ausgespielt wird. Letzteres weist auf das mathematische und philosophische Problem der Aggregierung von Stimmen hin. Es gibt laut Arrows Unmöglichkeitstheorem kein vollkommen konsistentes System der Stimmenzählung, das sämtliche Präferenzen der Bürgerinnen und Bürger berücksichtigen kann, was im Zusammenhang des Einbezugs aller möglichen Werte, die wir als wichtig ansehen, ein Problem darstellt. Soziale Entscheidungen aufgrund individueller Präferenzen sind demnach immer nur mit bestimmten Einschränkungen möglich; wie soll eine Maschine darüber befinden? Das Beispiel autonom fahrender Fahrzeuge kann dies zeigen: Im Trolley-Szenario entscheidet das Auto (der Algorithmus) nach den einprogrammierten Kriterien, die wiederum auf vielfältigen ethischen Analysen fußen. Es könnte nun utilitaristisch Menschenleben gegenrechnen; wenn es gleich viele Menschenleben betrifft, könnten Alter, soziale Herkunft und Status et cetera eine Rolle spielen. Es könnte aber auch der Wert der autonom getroffenen Entscheidung wichtig sein: die Insassen des Autos haben entschieden, mit dieser Technologie zu fahren, die betroffenen Verkehrsteilnehmer nicht; sie werden von außen in die algorithmische Entscheidung einbezogen. Weitere Entscheidungskriterien gäbe es viele.

Ethics in/by/for Design

Da Maschinen unter Berücksichtigung des bisher Gesagten keine "autonomen moralischen Agenten" sind, und vermutlich nie sein können, sollte es in der Algorithmenethik (oder Maschinenethik) eher um deren passiven Status als Empfänger unserer eigenen ethischen Vorstellungen gehen, also um eine ethisch aufgeklärte Beziehung zwischen Mensch und Maschine; es geht weniger darum was diese Systeme können, sondern wie wir mit ihnen umgehen. Dazu gibt es die verschiedensten Vorschläge: Ethische Überlegungen können sich zunächst im Zulassungs- und Entwicklungsprozess wiederfinden (Ethics in Design). Hier müssen die Konsequenzen der Technologie auf die unterschiedlichen Stakeholder abgeschätzt und transparent gemacht werden. Das KI-System muss sozial, rechtlich und eben auch ethisch von der Gesellschaft akzeptiert werden. Dann wird es immer auch darum gehen, das Verhalten von KI-Systemen ethisch zu analysieren, beziehungsweise deren Entscheidungen auf der Basis akzeptierter ethischer Modelle zu ermöglichen (Ethics by Design). Zuletzt müssen die Produkt- und Softwaredesigner beziehungsweise auch die Regulierungsorganisationen den sozialen Impact der Systeme beachten und ihre eigene Integrität mit (unter anderem) Codes of Conduct beweisen (Ethics for Design).

Auf dem Weg dorthin schlagen ethisch aufgeklärte Informatikerinnen und Informatiker und Technikethikerinnen und -ethiker vor, Prinzipien, die sich in anderen angewandten Ethiken bewährt haben, im Designprozess künstlicher Intelligenz und bei der Entwicklung und Anwendung von Algorithmen zu implementieren. Virginia Dignum zum Beispiel verwendet in ihrem Buch "Responsible AI" die Prinzipien Accountability, Responsibility und Transparency. Das KI-System muss demnach transparent machen, wie es zu den Wertvorstellungen, nach denen es entscheidet, gekommen ist, ob alle relevanten Stakeholder in diesem Prozess involviert waren, welche Ethik-Ansätze mit welcher Priorisierung zur Anwendung kommen und wie ein Governance System sicherstellen kann, dass alle am Designprozess Beteiligten (bis hin zu den Regulierungsbehörden) verantwortlich gemacht werden können (und nicht etwa nur die Programmierenden oder die Unternehmen).

Auch die Datenverwendung und die Funktionalitäten des Systems müssen mit gesellschaftlich anerkannten Werten in Verbindung gebracht werden können. Sarah Spiekermann verlangt in ihrem Buch "Digitale Ethik" ein neues Wertebewusstsein in unserem Umgang mit (digitaler) Technologie, um die wichtige Frage nach dem "Warum" neuer technologischer Entwicklungen beantworten zu können. Das Entscheidende sei eine vernünftige Wertepriorisierung und eine Wiederentdeckung der Tugendethik, um Werte so auszubalancieren, dass jede(r) ihr/sein Telos im Leben erreichen kann. Diese Werte müssen sich in der von uns verwendeten Technologie widerspiegeln. Sie nennt als ein Beispiel die Dauerbeschallung von in sozialen Netzwerken aktiven Kommunikatoren und der Mangel an Fokussierung, Tiefe und Vollständigkeit, den man dort erleben kann. Dies müsste durch sorgfältigere (wertbewusstere) Programmierung, anderen Einstellungsmöglichkeiten und bewussteren Umgang mit der Technologie verbessert werden.

Im Grunde verlangen viele ethischen Überlegungen zur KI also durchaus ähnliche Dinge. Neben dem zuvor erwähnten Ethics in/by/for Design und einer neuen Werteorientierung geht es auch immer um Involvement, also den Einbezug aller betroffenen Stakeholder, die Ermöglichung eines Diskurses (verhandeln über jene Normen, die konfligieren) und die Fokussierung auf Human-in-the-loop-Systeme, bei denen sichergestellt ist, dass Menschen jedenfalls einbezogen werden, wo es um uneindeutige normative Fragen der gesellschaftlichen Wirkungen von KI geht. Dazu gehören auch die vielfältigen Regulierungsvorschläge von Expertenorganisationen, die der Politik helfen können, entsprechende Vorgaben und Kodices durchzusetzen. (Michael Litschka, 31.8.2021)