Sarah Spiekermann
Foto: Der Standard
Die Technik, die pflegebedürftige Menschen "überwachen" soll, wirft aber auch einige Fragen auf. Wie können Betroffene Vertrauen gewinnen? Sabina Auckenthaler fragte die deutsche Expertin Sarah Spiekermann.

******

DER STANDARD: Sie haben sich in Ihrer Forschungstätigkeit viel mit den Auswirkungen der "Computerisierung" auf den Alltag beschäftigt. Wie schätzen Sie die Entwicklung des "ambient assisted living" ein?
Spiekermann: Natürlich ist es positiv, wenn bei einem Unfall in der Wohnung sofort jemand benachrichtigt wird. Und vermutlich fühlen sich viele Menschen dadurch sicherer. Wir müssen aber noch über viele ethische und rechtliche Fragen diskutieren: Inwieweit wollen wir es einer Maschine überlassen festzustellen, ob ein Mensch hinfällt? Welche Mitbestimmung sollten alte Leute oder Kinder bei ihrer Überwachung haben? Wer übernimmt die Verantwortung, wenn das System einen Unfall nicht erkennt? Wem glaubt der Arzt, wenn ein System, das die Körperfunktionen eines Menschen überwacht, Handlungsbedarf ortet, der Mensch aber angibt, dass er sich wohlfühlt?

DER STANDARD: Wie also sollte Ihrer Ansicht nach ein vernünftiger Umgang mit intelligenten Umgebungen aussehen?
Spiekermann: Hier ist sowohl die Forschung als auch die Politik gefordert, Verantwortung zu übernehmen. Das Wichtigste ist, dass die Technik so flexibel gestaltet wird, dass der Einzelne wenn möglich immer Verfügungsgewalt hat, zu entscheiden, ob er überwacht werden möchte. Das System sollte sich möglichst einfach - z. B. über einen Knopf - ausschalten lassen. Und es darf in Heimen für einen Bewohner nicht zu Zusatzkosten führen, wenn er sich gegen eine Überwachung entscheidet.

DER STANDARD: Aber wenn ein System erst einmal installiert ist: Wie können die betroffenen Menschen vertrauen, dass sie nicht gegen ihren Willen überwacht werden?
Spiekermann: Für das Vertrauen in ein System ist es wichtig, dass Menschen sozusagen ein Feedback zu ihren jeweiligen Aktionen bekommen. Beim Ausschalten der Kamera könnte zum Beispiel die Linse eingefahren und das Gehäuse durch eine Klappe geschlossen werden. Das ist technisch nicht wirklich notwendig, signalisiert aber den Menschen sehr deutlich, dass der Überwachungsvorgang unterbrochen wurde.

DER STANDARD: Anderseits wird oft propagiert, Sensorensysteme müssten sich so weit im Hintergrund halten, dass uns nur die Vorteile bewusst werden, nicht aber ihre Existenz.
Spiekermann: Das sehe ich anders. Viele Untersuchungen der letzten 20 Jahre zeigen, dass Funktionen, die allzu sehr im Hintergrund ablaufen, nicht akzeptiert werden. Man spricht hier von mangelnder "situation awareness". Wenn alles automatisch passiert und die Menschen gar nicht mehr wissen, warum, fühlen sie sich unwohl.

Zur Person: Sarah Spiekermann habilitiert an der Berliner Humboldt-Uni und ist Herausgeberin der Studie "Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung" des deutschen Forschungsministeriums. (DER STANDARD, Printausgabe 31.01.2007)