Microsoft ermöglicht den Zugang zur Emotionserkennung und anderen Funktionen künftig nur noch per begründetem Antrag.

Foto: Imago/Panthermedia

In den letzten Jahren hat sich in der Entwicklung künstlicher Intelligenz viel getan. Von Brettspielen über Medizin bis hin zur Generierung teils erstaunlich guter Bilder und Chatbots, die von menschlichen Gesprächspartnern kaum noch zu unterscheiden sind, zeigt die Technologie ihr großes, aber auch gefährliches Potenzial.

Und das weckt auch Ängste davor, dass die Maschinen sich eines Tages vielleicht zu den Herrschern über die Menschen aufschwingen könnten. Gerade diese auch in zahlreichen Sci-Fi-Filmen verarbeitete Furcht dürfte auch das große Interesse an der Berichterstattung über einen Google-Forscher erklären, der zur Ansicht gekommen war, dass die "Gesprächs-KI" des Konzerns, LaMDA, ein eigenes Bewusstsein entwickelt hatte. Sowohl Google selbst als auch verschiedene Experten aus der Forschung stellten aber klar, dass man technologisch noch weit davon entfernt sei, dass eine KI bewusstseinsähnliche Zustände erreichen könne.

Nun lässt Konkurrent Microsoft aufhorchen. Dort hat man sich entschlossen, eine KI aus eigener Entwicklung nicht mehr kommerziell zur Verfügung zu stellen, schreibt man in einem Blogpost. Im Rahmen des "Azure Cognitive Services"-Angebots hatte man eine Technologie entwickelt, die Gesichter auf Liveaufnahmen analysiert und versucht, Geschlecht, Alter sowie die aktuelle Stimmungslage einer Person zu erkennen.

Ein KI-Experte testet ein System auf Basis von Microsofts Cognitive Services.
Arun Kumar (@backpropguy)

Sorge vor Missbrauch

Das Unternehmen hat nun intern Leitlinien zum ethischen Umgang mit künstlicher Intelligenz erarbeitet. Eine der Regeln, die man dabei aufgestellt hat, ist, dass KI nur dann vertrauenswürdig sein kann, wenn sie ein angemessenes Werkzeug für das Problem ist, für dessen Lösung sie geschaffen wurde.

Im konkreten Fall hat man dabei einige Schwierigkeiten eingestanden. So seien einige wichtige Fragen nicht ausreichend beantwortet. Dabei geht es beispielsweise um Privatsphäre, den fehlenden Konsenses darüber, was "Emotionen" überhaupt sind, und auch den unsicheren Zusammenhang zwischen Gesichtsausdruck und Laune der nach individuellem Umstand, Region und demografischen Gegebenheiten unterschiedlich ausfällt.

Dem folgend, sieht man ein erhöhtes Missbrauchsrisiko, wenn derlei KI-Fähigkeiten ohne Restriktionen genutzt werden können. Dies könne zur Festigung von Klischees oder Diskriminierung führen oder zur Folge haben, dass Menschen der Zugang zu Diensten ungerechtfertigt verweigert wird.

Immer wieder in der Kritik

Gesichtserkennungstechnologie steht schon länger in der Kritik. In den USA wurden auf regionaler Ebene bereits Verschärfungen beschlossen, was ihren Einsatz angeht. In der EU wird ebenfalls über Regulierungsmaßnahmen, insbesondere hinsichtlich eines Verbots massenhafter biometrischer Echtzeitidentifizierung im öffentlichen Raum, debattiert. Datenschützer und Bürgerrechtsaktivisten bringen auch weitere Kritikpunkte auf: So neigen solche Systeme immer wieder zu Fehlerkennungen bei bestimmten demografischen Gruppen, etwa Menschen dunklerer Hautfarbe.

Beim polizeilichen Einsatz ist es hier in der Vergangenheit zu Fehlerkennungen gekommen, die die Festnahme und temporäre Inhaftierung Unschuldiger zur Folge hatten. 2020 kündigten Microsoft und mehrere andere Tech-Konzerne an, in den USA Gesichtserkennung erst an Sicherheitsbehörden zu vermarkten, wenn es eine landesweite Regulierung dafür gibt.

Kritik gibt es auch am massenhaften Herunterladen öffentlich abrufbarer Fotos aus sozialen Medien und anderen Quellen als "Lernmaterial" für solche KI-Systeme, wofür es insbesondere in der EU keine Rechtsgrundlage gibt. Das in dem Bereich tätige Unternehmen Clearview hat für solche Praktiken bereits mehrfach Strafen in der EU und Großbritannien ausgefasst.

Limitierter Zugang

Gesichts-, Alters- und Emotionserkennung sowie eine Reihe anderer Fertigkeiten stehen Microsofts Kunden künftig nicht mehr bereit. Wer sie nutzen möchte, muss einen begründeten Antrag stellen. Bestehenden Kunden wird eine einjährige Frist dafür eingeräumt.

Weiter zum Einsatz kommen sollen diese Erkennungsfähigkeiten aber für das Projekt "Seeing AI". Dabei handelt es sich um ein System, das blinden Menschen oder Personen mit eingeschränkter Sehfähigkeit Beschreibungen der Umgebung liefern kann. (gpi, 22.6.2022)