Neben Deepfakes, täuschend echt wirkenden Videos, gibt es mittlerweile auch Fälschungen in Audio und eben auch in Textform

Foto: getty

"Wie weiß ein Computer, ob er ein Computer ist oder ein Mensch?", fragt ein Nutzer auf Reddit. Ein Computer könne nicht wissen, ob er ein Mensch ist oder ein Computer, antwortet ein anderer. Eher könne er nur dazu programmiert werden, Fragen zu beantwortet. Er wisse aber nicht, wie genau er das tut.

Künstlich generiert

Eine von vielen belanglosen Konversationen auf der textbasierten Social-Media-Plattform, könnte man zunächst meinen – nur, dass es sich bei dem gesamten Subreddit, jenem Forum, in dem zu einem bestimmten Thema Einträge erstellt werden können, um keine Menschen handelt, die miteinander sprechen. Sämtliche Konversationen sind gänzlich künstlich generiert, bei den Konten handelt es sich um mittels Maschinenlernen – namentlich, dem Tool GPT-2 – trainierte Bots.

Sprachmodellierung

Neben Deepfakes, täuschend echt wirkenden Videos, gibt es mittlerweile auch Fälschungen in Audio und eben auch in Textform. Wie Jack Clark von der Forschungs-NGO OpenAI zum "Guardian" sagt, könnte Fake Text verwendet werden, um massenhaft Fake News zu produzieren oder Propaganda über soziale Medien zu verbreiten.

GPT-2 eignet sich sehr gut dafür. Dabei wird sogenannte Sprachmodellierung genutzt, bei der Vorhersagen darüber getroffen werden, welches Wort als nächstes am ehesten in einem Satz genutzt werden kann. Während bei älteren Modellen dadurch eher ein Kauderwelsch als ein tatsächlich sinnvoller Satz entstand, sind GPT-2-Sätze sehr authentisch. Der Grund: Es wurde mithilfe von rund acht Millionen Berichten online trainiert. (red, 4.7.2019)