Sicherheitsbedrohungen und -angriffe nehmen durch den technologischen Fortschritt im Bereich künstlicher Intelligenz rasant zu.
Foto: APA/AFP/THOMAS SAMSON

Manipulierte Bilder, gefälschte Videos und Fake News. Im vergangenen Jahr beherrschten vor allem Deepfake-Videos und anderes manipuliertes Bewegtmaterial die öffentliche Debatte. Das angeblich ausgeklügelte Täuschungsmanöver von Wiens Bürgermeister Michael Ludwig, der auf ein manipuliertes Videogespräch mit Kiews Bürgermeister Witali Klitschko hereingefallen war, entpuppte sich technologisch zwar als äußerst simpel gestrickt. Die Diskussion darüber, wie manipuliertes Bild-, Video- und Textmaterial zuverlässig entlarvt werden kann, blieb allerdings.

Seit der Verfügbarkeit der Software Chat GPT ist die Diskussion über potenzielle Risiken durch künstliche Intelligenz neu entfacht. Wie können vom Chatbot erstellte Texte erkannt werden? Nicht nur an Schulen und Unis, wo Hausaufgaben und wissenschaftliche Arbeiten mithilfe des Werkzeugs erstellt werden könnten, sorgt Chat GPT für geteilte Meinungen. Auch für die schnelle Produktion von gut gemachten Falschinformationen könnte die Text-KI künftig eingesetzt werden, lautet die Befürchtung.

Sicherheitsprojekte gesucht

Um gegen derartige Manipulationen, aber auch andere neue Sicherheitsgefahren besser aufgestellt zu sein, stockt Österreich sein Forschungsbudget in diesem Bereich auf. Wie das Finanzministerium am Montag bekanntgab, wächst das Fördervolumen für das Jahr 2023 von 14 auf 19 Millionen Euro. Im Rahmen der beiden Forschungsprogramme Kiras, in dem es um zivile Sicherheitsforschung geht, und Forte, das auf militärische Sicherheit ausgelegt ist, gibt es erstmals einen dezidierten Cybersicherheitsschwerpunkt. Bis zum 17. März besteht über das Kiras-Programm die Möglichkeit, Projektanträge einzureichen. Die Dotierung beläuft sich auf fünf Millionen Euro, teilte Staatssekretär Florian Tursky mit.

Ein Projekt, das im Rahmen von Kiras bereits im Jahr 2020 startete und in den darauffolgenden Jahren mit 900.000 Euro über Finanzministerium und die Österreichische Forschungsförderungsgesellschaft (FFG) gestützt wurde, ist die Software Defalsif-Ai. Das unter der Leitung des Austrian Institute of Technology entwickelte Werkzeug, das selber auch auf künstliche Intelligenz setzt, schlägt Alarm, wenn ein Text, Foto oder Video Hinweise auf eine Manipulation oder andere Auffälligkeiten wie Hassrede liefert.

Bei einer Photoshop-Challenge auf Reddit entstand dieses Bild. Eine der drei Personen war nicht vor Ort.
Foto: AFP/MICHAEL KAPPELER/Paramount/Reddit/grenthdascalon

Hinweise auf Fälschungen können in der Datei gespeicherte Metadaten sein, aber auch bearbeitete Pixelbereiche. Auch das Datum und der Ort der gemachten Aufnahme können von der Software geprüft werden. Über eine Kontextanalyse lässt sich sogar herausfinden, ob die auf einem Bild oder Video befindliche Landschaft tatsächlich zu dem suggerierten Ort passt. Selbst Wetterdaten werden abgeglichen, um herauszufinden, ob die Aufnahmen tatsächlich zu einem bestimmten Zeitpunkt gemacht werden konnten.

Künstliche Intelligenz und Quantencomputer

Laut Tursky, der sich eigenen Angaben zufolge schon eine Rede von Chat GPT schreiben ließ, sind künstliche Intelligenz und Quantencomputing die beiden Bereiche, die in den kommenden Jahren für das größte Bedrohungspotenzial in der Cyber-Sicherheit sorgen. Angesichts 75 Milliarden internetfähiger Geräte, die bis 2025 erwartet werden, brauche es neben der Bewusstseinsbildung in der Bevölkerung, bei Unternehmen und in der öffentlichen Verwaltung auch entsprechende Forschungsmittel, um neue Schutzstrategien und -technologien zu entwickeln. Neben KI geht es auch um Anwendungen im Bereich Internet der Dinge (IoT), digitale Forensik und den Schutz kritischer Infrastruktur.

Dass derartige Strategien wenig bringen, wenn sie auf die nationale Ebene beschränkt sind, liegt auf der Hand. Werkzeuge wie Defalsif-Ai und andere hierzulande entwickelte Projekte würden auf europäischer Ebene bereits positiv wahrgenommen und auch die Rolle Österreichs in diesem Bereich stärken, bekräftigt Projektleiter Martin Boyer vom AIT. So gelang es etwa, zwei weitere EU-geförderte Nachfolgeprojekte an Land zu ziehen. Die Software, die bereits vom ORF und der APA getestet wurde, soll kontinuierlich verbessert werden, versicherte Boyer auf STANDARD-Nachfrage. Ziel sei es, das Programm in Zukunft allen Interessierten zugänglich zu machen.

Diskussion um Chat GPT

Den gehypten Chatbot bewertet Boyer übrigens hauptsächlich positiv: "Chat GPT wird sicher unseren Alltag verändern und uns unterstützen, etwa was das Übersetzen von Text zwischen Sprachen, aber auch die Zusammenfassung von langen Texten betrifft." Neben technologischen Fragen müsse man – gerade auch in der Sicherheitsforschung – interdisziplinär denken und auch den geistes- und kulturwissenschaftlichen Aspekt berücksichtigen.

Um heikle rechtliche und ethische Fragen – etwa bei der Einstufung von Hassrede und Fake News – von Anfang an mitzubedenken und wissenschaftlich zu objektivieren, habe man zum Beispiel beim Projekt Defalsif-Ai mit der Donau Universität Krems und dem Research Institute – Digital Human Rights Center zusammengearbeitet. Auch Tursky wies darauf hin, dass derartige Projekte etwa datenschutzrechtlich auf soliden Beinen stehen müssten. (Martin Stepanek, 30.1.2023)