Für diese indischen Schülerinnen ist künstliche Intelligenz bereits Alltag. Ihre Hilfslehrerin ist mit einer Alexa-Software ausgestattet.

Foto: APA / AFP / Indranil Mukjerjee

Mit dem Datenvolumen, das wegen künstlicher Intelligenz (KI) derzeit unterwegs ist, könnte man 10.000 Jahre lang den ganzen Tag Netflix-Filme streamen, sagt der Leiter des österreichischen Instituts für Menschenrechte, Reinhard Klaushofer. Er spricht vor rund 200 Schülerinnen und Schülern in Rahmen der Salzburger Schüleruni und bemüht sich um anschauliche Vergleiche.

Siri, Cortana oder Alexa – künstliche Intelligenz ist bereits in das Leben seiner jungen Zuhörerschaft eingebunden. Nicht nur die Sprachassistenten beruhen auf dem Konzept, auch Online-Navigationssysteme, Übersetzer, oder Einparkassistenten nutzen KI und machen damit den Alltag auch einfacher. Konkrete Anwendungen bestimmen bereits den Alltag vieler User – ob über Google-Suchergebnisse, Bilderkennungssoftware oder Playlist-Vorschläge. Dem Nutzer ist nicht immer bewusst, dass er es mit KI zu tun hat und durch sein Verhalten auch Daten zur selbstständigen Weiterentwicklung des Systems liefert.

Schätzungen gehen davon aus, dass mit künstlicher Intelligenz bis 2025 ein Umsatz von mehr als 100 Milliarden Dollar gemacht wird. Die KI biete also viele wirtschaftliche und gesellschaftliche Chancen, so Klaushofer. "Sie führt aber auch zu neuen Bedrohungen und zusehends zur Frage, was den Menschen überhaupt ausmacht", sagt Klaushofer. Ein Problem von KI sei, dass es ab einem gewissen Grad eine künstliche Autonomie gebe. "Das heißt, die Techniker wissen nicht mehr, was berechnet wird. Entscheidungen sind nicht mehr nachvollziehbar", erläutert der Menschenrechtsexperte. Denn das System lernt selbst und entwickelt sich weiter.

Grundsatzdiskurs nötig

Die neuen Formen der Digitalisierung und die Entwicklungen im Bereich der KI würden nun auch einen Grundsatzdiskurs über die Risiken und Chancen für die Menschenrechte erfordern. "Die Antwort ist gesellschaftliche Stärke durch Bildung und Wissen. Wir müssen mitbestimmen, wie wir damit umgehen wollen", betont der Rechtsprofessor. Es brauche Designvorgaben, Zulassungs- und Zertifizierungssysteme, Vernetzungsschranken und eine menschliche Überprüfung automatischer Entscheidungen.

Die Antwort ist gesellschaftliche Stärke durch Bildung. Wir müssen mitbestimmen, wie wir damit umgehen wollen, sagt der Rechtsprofessor Reinhard Klaushofer.

Die Technik sei so schnell, dass es relativ flott zu Grundsatzentscheidungen kommen müsse. "Es braucht äußerste Grenzen und Schutzzonen für das Menschliche", sagt Klaushofer, der auch die Prüfkommission der Volksanwaltschaft leitet. Er plädiert als ersten Schritt für eine Grundsatzdiskussion auf EU-Ebene. Bei der Datenschutzgrundverordnung sei Europa genauso vorgeprescht, und nun richte man sich weltweit danach.

"Ideal wäre natürlich eine Übereinkunft auf der Ebene der Uno – eine digitale Charta für Menschenrechte. Aber da gibt es noch viele Gegenstimmen." Auf politischer und wissenschaftlicher Ebene sei das Thema im Vorjahr behandelt worden, es fehlen freilich noch konkrete Vorschläge.

Gesichtserkennung verbieten

Die EU-Kommission hat damit zumindest begonnen. Es wurde eine High-Level-Expertengruppe eingesetzt, die letzten April die "Ethischen Leitlinien für vertrauenswürdige KI" präsentiert hatte. Demnach sollen etwa KI-Entwicklungen unter menschlicher Aufsicht kontrolliert und gestaltet werden sowie nachvollziehbar bleiben. Es müsse auf Datenschutzprinzipien, Sicherheit und Robustheit geachtet werden, und benachteiligte Gruppen dürften durch die Entwicklung nicht diskriminiert werden.

Kommissionspräsidentin Ursula von der Leyen will in den ersten 100 Tagen ihrer Amtszeit "Rechtsvorschriften" mit einem Konzept für die "menschlichen und ethischen Aspekte der künstlichen Intelligenz" vorschlagen, schreibt sie in ihren politischen Leitlinien. Auch Regeln für Haftungsfragen und Transparenz für KI-Anwendungen sollen geschaffen und bestehende EU-Gesetze zielgerichtet geändert werden. Die neuen Regeln sollen umso strenger sein, je größer der potenzielle Schaden ist, den Anwendungen anrichten können. Es gibt sogar Pläne, die Gesichtserkennung im öffentlichen Raum für drei bis fünf Jahre zu verbieten. Währenddessen soll die mögliche Wirkung der risikoträchtigen Technologie untersucht werden.

KI-Systeme in der Justiz diskriminieren

Die Menschenrechtskommissarin des Europarats, Dunja Mijatovic, hat letzten Mai davor gewarnt, dass der Einsatz künstlicher Intelligenz in der Strafverfolgung zu Diskriminierung führen könne. So hätten Studien gezeigt, dass Menschen mit dunklerer Hautfarbe von Überwachungssoftware fälschlicherweise häufiger als Sicherheitsrisiko eingeschätzt wurden. Eine weitere Herausforderung sei die Wahrung der Privatsphäre, ebenfalls ein grundlegendes Menschenrecht, so Mijatovic. Die Justiz müsse sicherstellen, dass die Menschenrechte bei der Verwendung von Daten in der Strafverfolgung gewahrt würden.

Auch in der Justiz werde bereits KI in der Verwaltung eingesetzt. "Es gibt sogar Systeme, die herauszufinden versuchen, wie ein Urteil ausfällt oder wie hoch die Rückfallquote ist", sagt Reinhard Klaushofer. Hier hätten erste Tests in den USA gezeigt, dass es ebenso unglaublich diskriminierend gegenüber Minderheiten sei. Dabei werde auf Grundlage einer Korrelation anstatt einer Kausalität entschieden. Das Programm berechne, dass etwas so sein könnte. Damit sei die Entscheidung auf Vermutungen aufgebaut, führt der Rechtswissenschafter aus.

Die Entwicklung von KI zu stoppen sei vom Konsumverhalten her und realpolitisch unrealistisch, sagt Klaushofer auf die Frage einer Schülerin. "Wir müssen schauen, dass es kontrolliert passiert." Das Risiko sei, dass vieles als Erfolg verkauft werde, aber es auch negative Seiten habe. "Da muss man wachsam bleiben." (Stefanie Ruep, 3.2.2020)