Bild nicht mehr verfügbar.

Google setzt auf Maschinenlernen.

Foto: ANDREW KELLY / REUTERS

Es gibt nur wenige Firmen, die so stark auf das Thema der künstlichen Intelligenz setzen, wie Google. Seit Jahren kommt kaum eine Produktankündigung des Softwareherstellers ohne Hinweis auf durch Maschinenlernen möglich gewordene Verbesserungen aus. Das gilt selbst für die Suchmaschine, rund um die Google nun eine Reihe von Verbesserungen ankündigt – und zwar mit dem Schwerpunkt auf dem Schutz der Nutzer.

Krise

Die Nutzung eines neuen Maschinenlernmodells namens MUM (Multitask Unified Model) soll dabei garantieren, dass die Suchmaschine Nutzer in einer Krisensituation besser versteht und ihnen hilfreich zur Seite steht. Dabei geht es etwa um Opfer von Gewalt oder Personen, die darüber nachdenken, Suizid zu begehen.

In solchen Situationen sei es besonders wichtig, mit hilfreichen Informationen zur Seite stehen, also etwa zuverlässig Details zur Suizidprävention zu liefern, anstatt irgendwelche Links aus dem Web anzuzeigen. MUM soll dabei die Zuverlässigkeit dieser Erkennung signifikant steigern, zum Einsatz soll es bereits in den nächsten Monaten kommen.

Vorstellung MUM

An dieser Stelle etwas Hintergrund: MUM soll um ein Vielfaches mächtiger als frühere Maschinenlernmodelle von Google sein. So kann es gelerntes Wissen auf unterschiedliche Modalitäten – also Bilder, Texte, Videos – übertragen – woher auch der Name rührt. Ebenso unterstützt MUM von Haus aus bis zu 75 Sprachen und kann generell Zusammenhänge zwischen unterschiedlichen Konzepten und Themen identifizieren. Klassische Maschinenlernmodelle funktionieren hingegen hochspezialisiert.

Spam

Apropos: Ein weiteres wichtiges Thema aus dem großen Bereich "Schutz" ist das Thema Spam. Auch zu dessen Ausfilterung kommen bei Google seit Jahren Maschinenlernmodelle zum Einsatz. Üblicherweise funktioniert das aber auf Englisch am besten, danach folgen dann andere weit verbreitete Sprachen, während es bei weniger verbreiteten deutlich schlechter aussieht.

MUM soll mit seinen multimodalen Fähigkeiten künftig dabei helfen, gefährliche und irreführende Seiten auch in solchen Sprachen zuverlässiger auszufiltern. Diese Neuerung soll nach und nach in den kommenden Monaten eingeführt werden.

Ausblenden

Doch auch Googles früheres Maschinenlernmodell BERT hat noch seinen Platz, und zwar zum Schutz vor dem was Google "unerwartet schockierende Inhalten" nennt. Dabei geht es darum, dass die Nutzer bei eigentlich harmlosen Suchen nicht mit Bildern oder Inhalten konfrontiert werden, auf die sie nicht vorbereitet waren. Etwa wenn ihnen bei Suchen zu Fragen der sexuellen Orientierung pornografische Inhalte präsentiert werden. Doch auch bei Suchen nach der Herkunft bestehe sonst die Gefahr, dass Vorurteile verstärkt werden – was man eben verhindern wolle, wie Google im Vorfeld der Präsentation in einem Pressegespräche betonte.

Ist sich die Suchmaschine sicher, dass die Nutzer nach expliziten Inhalten suchen, sollen diese natürlich weiterhin angezeigt werden. Es gehe schlicht darum, die Intention der Suchenden besser zu verstehen, unterstreicht Google. Bei all dem handle es sich um laufende Verbesserungen, die man aber zumindest quantifizieren kann: Die Chance, solch "unerwartet schockierenden Inhalte" zu sehen, habe sich im vergangenen Jahr um rund 30 Prozent reduziert. (apo, 30.3.2022)