Telekom, Sharenting
Das Video der Deutschen Telekom rüttelt auf, zeigt aber leider auch eine nicht zu ferne Zukunft in Bezug auf Identitätsdiebstahl.
Telekom

"Lisa, lächeln!" Es ist wirklich nicht einfach, ein gutes Foto vom eigenen Kind zu machen. Ständig dieses Rumzappeln, Grimassen-Ziehen und Weglaufen. Aber dann ist es endlich so weit. Ein richtig süßes Foto ist es geworden, das es verdient hat, auf Social Media zu landen. Noch einen schicken Filter dazu und raus damit – auf Instagram, Facebook und natürlich in die diversen Familiengruppen auf Whatsapp.

Sharenting nennt sich dieses übereifrige Teilen von digitaler Privatsphäre, wie der Leiter des Instituts für Cyberkriminologie in Brandenburg, Thomas-Gabriel Rüdiger, dem STANDARD erzählt. Dieses Kofferwort aus "share" und "parenting" soll bedeuten, dass Eltern ihre Kinder öffentlich im Internet zur Schau stellen, im Prinzip also auch das Elternsein mit anderen teilen. Den Begriff findet Rüdiger in Bezug auf die Risiken aber nicht ganz passend. "Die Risiken ergeben sich durch jede Person oder Institution, die Kinderbilder öffentlich postet, also auch durch Verwandte, Freunde, Großeltern, aber auch beispielsweise Schulen oder Sportvereine."

Eltern, die zu viel teilen

75 Prozent der Eltern, die das Internet nutzen, veröffentlichten laut einer Studie von 2018 Fotos oder Videos von ihren Kindern im Netz. Im Jahr 2021 gab eine Internetsicherheitsfirma bekannt, dass knapp 40 Prozent der befragten Internetnutzer Fotos ihrer Kinder in sozialen Netzwerken gepostet haben. Laut derselben Studie machten dies knapp 22 Prozent, ohne das Gesicht des Kindes in irgendeiner Form zu verdecken. "Hier sollte man beachten, dass KI mittlerweile so gut ist, dass Verpixelungen auch keinen sicheren Schutz mehr bieten", erklärt Rüdiger.

Cybercrime-Experte Rüdiger versucht auch auf seinem Instagram-Kanal über das Thema aufzuklären.

Generell scheint es noch immer vielen Menschen nicht bewusst zu sein, wie viele Informationen aus Aktivitäten auf Social Media allgemein, aber dann eben auch im Zusammenhang mit Kindern herausgelesen werden können. "Je mehr und unreflektierter gepostet wird, umso mehr Informationen kann man gewinnen." Besonders heikel seien vollständige Namen der Kinder, Geburtstage, Namen der Haustiere, Verwandten, Bekannten oder auch biometrische Daten. All diese Informationen können auch für Profil-Erstellungen und dadurch auch für "Formen des Identitätsdiebstahls" genutzt werden.

Manche Eltern realisieren erst dann die Auswirkungen dieser Postings, wenn beispielsweise die Bilder der eigenen Kinder in sozialen Medien "sexualisiert kommentiert" werden oder sogar auf "problematischen Internetseiten" zu finden sind. Es kann sogar passieren, dass man auf der Straße von Fremden auf die eigenen Kinder angesprochen wird und völlig überrascht ist, wenn solche Menschen dann etwa wissen, wo das Kind zur Schule oder in den Kindergarten geht.

Ein besonders drastisches Beispiel hat die Deutsche Telekom Anfang Juli als Video veröffentlicht.

Nachricht von Ella | Without Consent
Bilder - ob von Urlauben, Feiern und privaten Momenten - teilen wir gerne unmittelbar miteinander. Das ist schön und verbindet uns. Einmal ins Netz gestellt, sind diese persönlichen Daten jedoch weltweit und unbegrenzt verfügbar. Und das kann ungeahnte Folgen
Deutsche Telekom

Aufwühlende Bilder

In dem Video wird gezeigt, wie Eltern ohne Vorahnung in einen Kinosaal gehen, unwissend, was da auf sie zukommt. Dann taucht eine Frau namens Ella auf, offenbar die Tochter eines im Raum sitzenden Elternpaars. Die Eltern erstarren, als sie bemerken, dass ihre eigentlich erst Neunjährige als Erwachsene mit ihrer eigenen Stimme zu ihnen spricht. "Hallo Mama, hallo Papa", begrüßt der Teenager seine Eltern und erklärt, wie es möglich sein kann, dass dank unüberlegter Social-Media-Postings und moderner KI massiver Missbrauch geschieht.

"Was ihr im Internet von mir veröffentlicht, kann mich mein ganzes Leben verfolgen", sagt die virtuelle Person. Ein falscher Pass mit dem Foto des Teenagers wird gezeigt, eine erstellte Sprachnachricht, in der die Eltern nach Geld gefragt werden, und ein verpixeltes Foto von einem nackten Kind. Auch die Möglichkeit, die im Netz veröffentlichten Fotos als bösartiges Meme im Netz zu finden, wird in Aussicht gestellt.

Für viele mag diese Kampagne, die sehr plakativ darauf hinweisen will, dass Kinderfotos im Internet eigentlich nichts verloren haben, nach Science-Fiction klingen. Ist es aber nicht, wie der KI-Forscher Alex Pfeiffer von der Universität Krems bestätigt. "Noch vor wenigen Monaten hätte ich geantwortet, dass man für gut gemachte Deepfakes sehr gutes Computerequipment und Skills benötigt", sagt Pfeiffer. Mittlerweile habe sich hier allerdings viel geändert. Bei Fotos sei Bildmanipulation ohnehin sehr einfach. Midjourney sei hier federführend. "Für zehn Euro im Monat kann man das Tool nutzen und mit verschiedenen Add-ons beispielsweise auf einem privaten Discord-Server auch Gesichter tauschen."

Für Videos gebe es ebenfalls bereits die ersten Tools, die auch Amateure benutzen können. "Für wirklich gute Resultate braucht es aber noch immer gute Software und eine gewisse Begabung, mit diesen Tools umzugehen." Auch für die "AI-Nachahmung" der Sprache gibt es mittlerweile genug Tools, die absolut leistbar sind. Mit ein wenig Zeit und Geld sei das Beispiel im Video "definitiv keine Hexerei mehr".

Midjourney 5.2, InsightFaceSwap / privater Discord Server
Innerhalb von fünf Minuten erstellt KI-Forscher Alex Pfeiffer mit zwei Tools und einem Foto des erwachsenen Redakteurs ein Bild, wie dieser als Teenager am Strand sitzt. Bei der Qualität ist Luft nach oben, aber in 30 Minuten und mit der nötigen kriminellen Energie wäre sicher mehr möglich.
Alex Pfeiffer

KI als Verstärker

Was an Basismaterial für solche Identitätsdiebstähle nötig ist, hängt laut Pfeiffer von der anvisierten Qualität des Resultats ab. Alle kommerziellen Tools würden meist zehn bis 20 Fotos verlangen, um akzeptable Ergebnisse erzielen zu können. Passende Software, wie Photoshop oder After Effects, gebe es aber ohnehin schon seit vielen Jahren – neu sei vor allem der KI-Aspekt, der alles "viel rascher und leichter zugänglich macht". Das lässt nicht nur qualitativ, sondern auch quantitativ die Gefahr nach oben schnalzen.

Was die Gefahren betrifft, seien die Erstellung gefälschter Ausweise oder Pässe, wie im Video gezeigt wird, nur ein Aspekt. Deepfakes sind aber auch dann gefährlich, wenn Personen in kompromittierenden Situationen dargestellt werden oder Desinformation auf diese Art verbreitet werden. In Bezug auf Sprache können Deepfakes dazu genutzt werden, gefälschte Sprachnachrichten zu erstellen, die dann beispielsweise für Betrugsversuche verwendet werden können. In den letzten Jahren wurden viele Eltern und Großeltern um tausende Euro gebracht, weil sie nur auf textliche Geldforderungen des vermeintlichen Nachwuchses reagiert haben.

Mit einer glaubwürdigen Audiospur würde dieses Phänomen wohl noch weit größere Verbreitung und vor allem Erfolg haben. Pfeiffer: "Identitätsdiebstahl war schon vor der Einführung von KI ein sehr großes und wichtiges Thema. Mit den neuen KI-Tools geht alles jedoch viel schneller, besser und glaubwürdiger."

Es gibt noch nicht so viele persönliche Audio-Files im Internet? Spätestens mit iOS17 wird sich das drastisch ändern. Das neue Feature stellte der Youtuber Marques Brownlee kürzlich eindrucksvoll vor.

Wie ich mich und meine Kinder schütze

Pfeiffer schickt dem STANDARD natürlich auch KI-generierte Antworten auf die Frage, wie man sich gegen diesen Diebstahl am besten schützt. An dieser Stelle sollen aber ausschließlich Zitate eines Menschen abgebildet werden, speziell in diesem Zusammenhang. Der Wissenschafter verlangt, wie viele schon vor ihm, Bildung und Weiterbildung in Sachen Medienkompetenz vermehrt anzubieten und auch durchzuführen. "Wir müssen verstehen, was die neuen Tools alles können – und vor allem, wie wir ihre Verwendung aufdecken können." Das Thema digitale Identität würde immer wichtiger werden. "Wir beginnen immer mehr, diese sensiblen Daten zu nutzen, etwa künftig mit der E-ID, die wir als Bürgerinnen und Bürger als schützenswert erachten." Dazu müsse man aber auch den Mainstream grundlegend informieren, welche Risiken und Möglichkeiten es gibt, die mit der digitalen Identität und den diversen KI-Tools verbunden sind.

Wichtig sei, dass man sich bewusst macht, dass es oftmals wenig Unterschied macht, ob man Fotos auf Facebook stellt oder in private Whatsapp-Gruppen. Jeder könne auch in "privaten Gruppen" Fotos speichern. Mit diesen können dann Leute "Fantasien wahr werden lassen". Pfeiffer weiter: "Die eigene Chefin im sexy Outfit wäre dann wahrscheinlich noch das Harmloseste, was mir als Missbrauch einfällt." Relevant sei deshalb vor allem der sensible Umgang mit Kinderfotos. "Stellen Sie niemals Kinderfotos ins Netz!", lautet der Appell des Wissenschafters. 

Dem stimmt auch der Cyberkriminologe Rüdiger zu. "Kaum jemand, den ich kenne und der sich fachlich mit solchen Themen auseinandersetzt, würde auf den Gedanken kommen, seine Kinder öffentlich zu posten. Das sollte vielleicht auch zu denken geben." In der Verantwortung sieht Rüdiger aber nicht nur die Eltern. "Dieselben Risiken entstehen auch, wenn Schulen, Sportvereine, Großeltern oder Freunde und Bekannte die Kinderbilder öffentlich posten. Hier braucht es eine generelle gesellschaftliche Sensibilität, welche Risiken dadurch entstehen."

Wohl auch deshalb sind Warnungen, wie die im gezeigten Video zum Thema Sharenting, so wichtig. Warnungen, wie sie das virtuelle Abbild von Ella am Ende noch einmal ausspricht: "Mama, Papa, bitte, beschützt meine virtuelle Privatsphäre!" (Alexander Amon, 15.7.2023)