Die Smartphonewelt hat ihr neues Lieblingsthema gefunden: Waren die Vorstellungen neuer Hardwaregenerationen in den vergangenen Jahren ein aufs andere Mal von Details zur Kamera dominiert, spielte dieses Thema bei der Präsentation des Galaxy S24 im kalifornischen San José im besten Fall eine Nebenrolle. Stattdessen dominierte ein Thema, das ein paar Monate vorher auch schon bei Google exakt so zu vernehmen war: künstliche Intelligenz (KI).

"Galaxy AI"

Die "Galaxy AI" soll es sein, die eine neue Ära des Smartphones einläutet, zeigte sich Samsung bei dem Event überzeugt. Tatsächlich kann das Unternehmen für das S24 mit einer ganzen Wagenladung an KI-basierten Features aufwarten. DER STANDARD hatte am Rande der Veranstaltung die Möglichkeit, Samsung Research America und damit dem nur wenige Meter von Google entfernten Forschungsstützpunkt des Unternehmens im Silicon Valley einen Besuch abzustatten, um weitere Details zu Samsungs KI-Strategie, aber auch zur aktuellen Umsetzung in Erfahrung zu bringen.

Setzen ganz auf die "Galaxy AI": Samsungs neue Top-Smartphones aus der S24-Reihe.
AP

Eine Vision

Eines machte YJ Kim, der als Executive Vice President Samsungs AI-Team für mobile Geräte leitet, dabei schnell deutlich: All das, was nun vorgestellt wurde, soll nur ein Anfang sein. Für die Zukunft hat das Unternehmen noch wesentlich ambitioniertere Ziele. Samsung-Smartphones sollen künftig mit einem personalisierten KI-Assistenten ausgestattet sein, der direkt auf dem Gerät läuft und somit nicht zuletzt die Privatsphäre der User wahrt, da alle Daten lokal bleiben, also nicht ins Internet wandern. Dem Unternehmen schwebt dabei eine Galaxy App vor, rund um die dann das Galaxy-AI-Ökosystem entstehen soll.

Auf einen Zeitrahmen will sich der Smartphonehersteller dabei nicht festlegen, nur so viel: All das könnte schneller gehen, als viele erwarten, betont Kim. Gerade das letzte Jahr habe gezeigt, wie rasant die Entwicklung in diesem Bereich sei. Samsung ist allerdings nicht der einzige Hersteller, der mit solchen Ideen spielt. So war vor einigen Wochen zu hören, dass Google bereits mit der nächsten Generation seiner Pixel-Smartphones einen personalisierten Assistenten namens Pixie integrieren will.

Nachbohren bei offenen Fragen

Die Verwendung eines recht vagen Marketingbegriffs wie Galaxy AI hatte dazu geführt, dass zunächst nicht ganz klar war, welche Technologien eigentlich jetzt hinter welchem neuen Feature stehen. Ein mehrjähriger Deal mit Google rund um dessen großes Sprachmodell (LLM) Gemini verdeutlichte zwar, dass viel davon vom Android-Partner zugeliefert wird, gleichzeitig betonte Samsung immer wieder, dass auch eigene Entwicklungen genutzt würden.

Im Rahmen des Pressegesprächs ging Kim nun weiter ins Detail. All jene Dinge, die mit Sprache und Übersetzung zu tun hätten, seien Eigenentwicklungen. "Samsung Language Core" ist dafür der Überbegriff, der etwa hinter der Liveübersetzung in der Telefonie-App oder auch der Spracherkennung im Voice-Recorder steckt.

Ausgehend von einem großen Modell in der Cloud habe man dieses System so geschrumpft, dass die aktuelle Lösung vollständig lokal auf dem Gerät läuft und damit auch offline funktioniert. Zum Start werden 13 Sprachen – darunter auch Deutsch – unterstützt, intern teste man aber schon mehr, wird versichert. Allerdings wolle man bei der Ausweitung behutsam vorgehen, gerade bei gesprochener Sprache müsse sehr viel Finetuning erfolgen, um gute Ergebnisse liefern zu können.

Wie definiert sich ein LLM?

Als Basis für all das nutzt Samsung laut Kim das eigene Large Language Modell (LLM) Gauss, wenn auch natürlich eine stark abgespeckte Variante für Smartphones. Eine Feststellung, die für etwas Verwunderung sorgt, wäre es doch sehr ungewöhnlich für vergleichsweise simple Aufgaben wie Spracherkennung und Übersetzung ein richtiges LLM zu verwenden. So etwas lässt sich üblicherweise über einfachere Maschinenlernlösungen – und zwar erheblich effizienter – abwickeln, wie andere Hersteller in der Vergangenheit bereits gezeigt haben.

YJ Kim / Executive Vice President von Samsung
Samsungs YJ Kim sieht die Stärke der Galaxy AI in der Kombination verschiedener Technologien – sowohl eigener als auch jener von Google.
Samsung

Auf Nachfrage des STANDARD bestätigt YJ Kim denn auch, dass dahinter kein großes Sprachmodell steckt, wie man es von Tools wie ChatGPT oder Bard kennt – oder auch Googles Gemini Nano. Den Begriff verwende man lediglich, weil für den Samsung Language Core die Transformer-Technologie von Google verwendet wird, die eben auch eine wichtige Grundlage für LLMs darstellt.

Zu viele Nachteile

Dass man nicht zu einem echten LLM greift, ist in dem Fall aber wohl ohnehin besser: Solche großen Modelle hätten für diesen Aufgabenbereich noch viel zu viele Nachteile. Neben dem hohen Ressourcenverbrauch sei das die Tendenz zu halluzinieren, also Inhalte zu erfinden. Das könne man bei einer Übersetzung natürlich nicht brauchen.

Praktisch alle anderen Dinge – etwa smarte Zusammenfassungen oder auch die generative Bild-KI – nutzen hingegen Google-Modelle. In dem Fall ist damit fast immer das in der Cloud laufende Gemini Pro gemeint. Zwar ist auf den Smartphones der S24-Reihe auch das lokal laufende LLM Gemini Nano installiert, derzeit wird es aber gerade einmal für ein einziges Feature in Google Messages genutzt. (Andreas Proschofsky aus San José, 20.1.2024)