KI-Technologie von Microsoft soll nur in ethischer Weise verwendet werden dürfen.

Foto: Terminator

Der Einzug künstlicher Intelligenz in den militärischen Bereich wirft Sorgenfalten auf die Stirn einiger Experten. So sieht sich etwa die südkoreanische Universität KAIST, führend in dem Bereich, einem akademischen Boykott ausgesetzt, da sie mit einem heimischen Rüstungskonzern an vollautonomen Waffen arbeitet. Und bei Google protestieren tausende Angestellte gegen eine Kooperation mit dem Pentagon.

Eine Diskussion, der sich Microsoft entziehen möchte. Auf einer Konferenz zu Ethik und künstlicher Intelligenz erklärte Eric Horvitz, Chef von Microsoft Research, dass man sicherstellen wolle, dass eigene Entwicklungen nur auf "ethische Weise" und nicht für kriegerische Zwecke verwendet würden.

Auftritt von Horvitz ab ca 22:00
Carnegie Mellon University

"Aether"-Komitee entscheidet über Freigabe

Dazu hat man eine Reihe von Richtlinien formuliert, über deren Einhaltung das "Aether"-Komitee ("AI and Ethics in Engineering and Research") wachen soll. Dieses solle überprüfen, wie Kunden die Technologien des Konzerns einsetzen und ob mit wem man in geschäftlicher Verbindung bleiben solle.

Laut Horvitz habe man schon "signifikante Deals" beendet und bei anderen Geschäften entsprechende Limitationen festgeschrieben. Diese betreffen etwa den Einsatz von verschiedenen Entwicklungen im Bereich der Gesichtserkennung. Microsoft bietet etwa cloudbasierte "Cognitive Services" an, die Algorithmen zur Erkennung von Gesichtern und Emotionen beinhalten.

"Komplementäre" Technologie

"Ich freue mich, sagen zu können, dass dieses Komitee Biss hat", zitiert Geekwire den Manager. In einer offiziellen Stellungnahme des Konzerns heißt es weiter, dass es wichtig sei, künstliche Intelligenz in einer "verantwortlichen und ethischen Weise zu entwickeln."

KI sei eine "komplementäre" Technologie, erklärte Horvitz weiter. Computer und Menschen sollen zusammenarbeiten und sich in ihren Fähigkeiten ergänzen. Es gäbe dabei aber noch viele Dinge zu verbessern, wie etwa jüngste Unfälle mit selbstfahrenden Autos zeigen. (red, 11.04.2018)