Zwei Schatten bewegen sich an einem hell leuchtenden Bildschirm vorbei.
Rechtsprofessorin Christiane Wendehorst ortet bei künstlicher Intelligenz Haftungslücken, die der Gesetzgeber schließen könnte.
IMAGO/ZUMA Wire

Ein autonom fahrendes Fahrzeug kommt von der Straße ab und verletzt eine Passantin. Eine Software schätzt einen Bankkunden fälschlicherweise als kreditunwürdig ein. Ein Bewerbungsprogramm diskriminiert eine Person mit Migrationshintergrund. In all diesen Fällen stellt sich für Betroffene dieselbe Frage: Wer haftet für den Schaden, den die künstliche Intelligenz (KI) verursacht hat? Der, der sie einsetzt und davon profitiert? Der, der sie programmiert hat? Oder schlicht gar niemand?

KI ist längst keine Fiktion mehr, sondern im Alltag jedes Menschen angekommen. Und dort, wo Alltag ist, entstehen auch Haftungsfragen. Viele Rechtsprobleme, die die neue Technologie aufwirft, lassen sich mit herkömmlichen Regeln lösen. Es gebe mitunter aber Haftungslücken, betonte Christiane Wendehorst, Professorin für Zivilrecht, vergangene Woche bei einer Veranstaltung von Jus Alumni, des Absolventinnenvereins des Wiener Juridicums, in Kooperation mit dem STANDARD.

Auf europäischer Ebene wird derzeit über eine neue Verordnung für KI und über eine neue Richtlinie für damit verbundene Haftungsfragen verhandelt. Die zentrale Regelung, der sogenannte AI Act, folgt dabei einem risikobasierten Ansatz, erklärt Wendehorst, die den Gesetzwerdungsprozess als Expertin hautnah mitverfolgt.

Lücken bei der Haftung

In bestimmten Bereichen – etwa Übersetzungsprogrammen – soll KI laut der Verordnung frei einsetzbar sein. Bei Hochrisikoanwendungen in der Polizei oder der Justiz sieht der Entwurf dagegen strenge Auflagen vor. In verpönten Bereichen wie dem "Social Scoring", wie es in China zur Bewertung der eigenen Bevölkerung üblich ist, soll der Einsatz von KI gänzlich verboten werden.

Erfüllen Unternehmen oder staatliche Institutionen all diese Vorgaben und verursacht die KI dennoch einen Schaden, kann ihnen dieser meistens nicht vorgeworfen werden. Eine klassische Haftung aus Verschulden scheidet somit in vielen Fällen aus. Betroffene müssten daher auf Haftungsmodelle zurückgreifen, die kein Verschulden voraussetzen.

Derartige Gefährdungshaftungen decken jedoch nur bestimmte Bereiche wie etwa den Autoverkehr ab (EKHG). Eine verschuldensunabhängige Haftung sieht auch das Produkthaftungsgesetz vor, das Hersteller in die Pflicht nimmt, wenn ihre Produkte fehlerhaft sind und dadurch Schäden verursachen.

Allerdings hat auch das Produkthaftungsgesetz Grenzen. Zwar soll es künftig auch für Software gelten, Hersteller haften jedoch dann nicht, wenn sie nach dem aktuellen Stand von Wissenschaft und Technik produziert haben. Haftungslücken gibt es zudem bei Schäden jenseits von Tod, Körperverletzung oder Sachschäden, wenn eine KI zum Beispiel eine Person fälschlicherweise als kreditunwürdig einstuft oder sie bei der Jobsuche diskriminiert.

Christiane Wendehorst steht auf einem Rednerpult gestikuliert mit ihren Händen.
Wendehorst ist als Expertin in die aktuellen Verhandlungen auf EU-Ebene eingebunden.
APA/TOBIAS STEINMAURER

KI als Handwerkerin

Auf EU-Ebene wird derzeit über eine Richtlinie verhandelt, die Haftungsprobleme lösen soll. Wendehorst sieht das Vorhaben aber kritisch. Der Entwurf bestehe im Wesentlichen nur aus zwei Bestimmungen, in denen es um Beweisfragen gehe. "Das hätten wir nicht unbedingt gebraucht", sagt die Expertin. "Was es gebraucht hätte, wäre eine Zurechnungsnorm wie die Gehilfenhaftung, um Haftungslücken auszuschließen."

In der österreichischen Wissenschaft wird deshalb darüber diskutiert, ob man diese Gehilfenhaftung (Paragraf 1313a ABGB) auf KI-Anwendung übertragen soll.

Die Gesetzesstelle kommt etwa dann zur Anwendung, wenn eine Handwerkerin eine Waschmaschine installiert und dabei den Fußboden beschädigt. In einem solchen Fall haftet auch das Unternehmen, das die Handwerkerin beschäftigt. Das Argument: Wer von der Arbeit der Handwerkerin profitiert, soll auch mit seinem eigenen Vermögen für deren Fehler haften.

Die herkömmliche Gehilfenhaftung auf KI zu übertragen sei zumindest "methodisch möglich", sagt Juristin Wendehorst und meint damit, dass die Gerichte das aktuelle Gesetz weit interpretieren bzw. analog auf KI anwenden könnten. Da dabei aber schwierige Abgrenzungsfragen entstehen würden, wäre es besser, wenn der Gesetzgeber Klarheit schaffe. (Jakob Pflügl, 26.6.2023)