Google setzt seit Jahren stark auf KI – und jetzt noch mehr.

Foto: IMAGO/Jonathan Raa/NurPhoto

Jahrelang war das, was landläufig als künstliche Intelligenz bezeichnet wird, ein Thema, das in der weiteren Öffentlichkeit nur wenig Beachtung fand. Und das, obwohl Maschinenlernen längst omnipräsent ist. Ob große Webanwendungen oder aktuelle Smartphones, zahlreiche Features wären ohne solche Tricks undenkbar. Auch die Grundlagenforschung läuft seit Jahren offen – und übrigens weitgehend amikal zwischen den jeweiligen Unternehmen.

Ein bizarres Schauspiel

Vor diesem Hintergrund darf es durchaus verwundern, was sich in den vergangenen Tagen abspielt. Im raschen Schlagabtausch überbieten sich große Softwarehersteller mit Ankündigungen in diesem Bereich. Nach Google am Montag und Microsoft am Dienstag ist am Mittwoch nun wieder Google an der Reihe – auch wenn das Unternehmen zumindest die Ausrede hat, dass das entsprechende Event bereits seit Monaten geplant wurde, durch den aktuellen Hype aber nun für – offensichtlich nicht ganz erwartetes – großes Interesse gesorgt hat.

Eine Erinnerung

Insofern darf es eigentlich nicht überraschen, dass der Fokus vor allem auf bereits bekannten Initiativen lag. Google nutzte den Anlass also, um herauszustreichen, in welchen Bereichen man schon jetzt künstliche Intelligenz einsetzt. Und das ist durchaus eine Menge. So wird etwa Maschinenlernen verwendet, um Suchanfragen besser zu verstehen oder bei Youtube automatisch Kapitel zu erstellen oder Live-Übersetzungen am Smartphone zu erstellen.

Multisearch

So weit, so bekannt. Ein paar kleinere Neuankündigungen sind sich dann doch ausgegangen. Das Multisearch genannte Feature, bei dem über ein Bild initiierte Anfragen via Texteingabe verfeinert werden können, gibt es ab sofort auch außerhalb der USA – und zwar sowohl unter Android als auch bei iOS. Das muss man sich in etwa so vorstellen, dass ein Teppich fotografiert wird, um dann einen Sessel mit einem ähnlichen Muster zu suchen.

Generell betont Google übrigens, dass Suchanfragen immer öfter bildlich gestellt werden – also über Google Lens. Mehr als zehn Milliarden solcher Anfragen würden mittlerweile jedes Monat gestellt.

In Kürze soll passend zu dieser Erkenntnis auch ein altbekanntes Android-Feature zurückkehren: Mithilfe des Google Assistant soll es – wieder – möglich werden, den Inhalt des Bildschirms zu durchsuchen, um etwa weitere Informationen zu geschickten Bildern aufzuspüren.

Live View

Ebenfalls ausgeweitet wird die Indoor Live View, bei der mithilfe der Smartphone-Kamera durch Flughäfen oder Einkaufszentren navigiert werden kann – also eine Augmented-Reality-Ansicht, wie so etwas genannt wird. All das soll in den kommenden Monaten auf mehr als 1.000 neue Orte ausgedehnt werden.

Apropos Live View: Diese gibt es generell ja bereits länger, über sie kann durch Städte in einer Live-Ansicht navigiert werden. Relativ neu ist dabei die Möglichkeit, in diesem Modus auch Suchen durchzuführen, womit dann passende Ergebnisse – also etwa Restaurants – direkt in eben dieser Live-Ansicht angezeigt werden. Das geht bisher erst in einigen wenigen Städten – darunter Paris und Tokio – aber auch hier sollen in den kommenden Monaten viele neue hinzukommen.

Immersive View

Bereits vor einiger Zeit wurde die Immersive View für Städte demonstriert, die eine besonders detaillierte 3D-Ansicht von ausgewählten Orten bietet und dabei etwa auch das Wetter einfließen lässt. Diese ist ab sofort tatsächlich verfügbar, und zwar in London, Los Angeles, New York, San Francisco und Tokio. In den kommenden Monaten sollen dann weitere Städte wie Amsterdam oder Venedig folgen.

Ganz neu sind Google-Maps-Funktionen für Elektroautos: Ebenfalls "in den kommenden Monaten" sollen etwa Ladestopps bei der Routenplanung einbezogen werden können. Auch das Auffinden von Ultraschnellladestationen soll vereinfacht werden.

Translate

Ein großes Update soll es für Google Translate geben. So soll diese nicht nur ein neues Design erhalten, sondern auch die Übersetzung generell verbessert werden – etwa über kontextbezogene Übersetzungsoptionen oder zusätzlichen Beschreibungen. Auch konkrete Beispiele in der jeweiligen Zielsprache sollen künftig angeboten werden. Diese Verbesserungen sollen bereits in den kommenden Wochen kommen – darunter neben Englisch auch für Deutsch, Französisch oder auch Japanisch und Spanisch.

Besserer Support für Elektroautos in Google Maps kommt bald.
Foto: Google

Bard

Was viele aber wohl mehr interessieren dürfte: Zumindest in Spurenelementen gab es auch Neues zu Googles gerade erst angekündigtem ChatGPT-Konkurrenten Bard zu hören – und zwar konkrete Anwendungsszenarien. So soll die KI etwa genutzt werden können, um konkrete Reiserouten zu planen und über Feedback diese dann individuell anzupassen, etwa Sehenswürdigkeiten einfließen zu lassen oder auch zu entscheiden, ob man die "Scenic Route" statt der schnellsten nehmen will. Auch die Recherche für den Kauf eines Autos nennt Google als Beispiel – klingt alles sehr ähnlich zu den Dingen, die Microsoft gerade rund um die eigene ChatGPT-Integration vorgeführt hat.

Bereits am Montag hatte Google angekündigt, dass hinter Bard ein schlankeres Sprachmodell stehen soll, eine Art "LaMDA Light" – LaMDA ist Googles Pendant zu GPT, das hinter ChatGPT steht. Das wirft natürlich die Frage auf, ob Bard in seiner Funktionalität beschränkt sein wird. Das verneint Google-Search-Vizepräsidentin Liz Reid auf Nachfrage des STANDARD. Bard soll wirklich eine allgemeine Text-KI sein, also auch eine breite Palette an Aufgaben übernehmen können. Schlanker heiße in dem Fall vor allem moderner, weil man damit auch weniger Ressourcen verbrauche.

Ein Beispiel für eine Interaktion mit Bard, bei der nach Vor- und Nachteilen zu Elektroautos gefragt wurde.
Foto: Google

Ausblick

Nicht festlegen will man sich aber auf einen konkreten Termin, also ab wann Bard für die breite Öffentlichkeit verfügbar ist. Hier ist weiter von den "kommenden Wochen" die Rede. Nur ausgewählte Tester können die KI schon vorher einsetzen. (Andreas Proschofsky, 8.2.2023)