Es ist eine ziemlich starke Ansage, mit der Michael Specht im Gespräch mit dem STANDARD den Status quo der Smartphone-Fotografie beschreibt: "Es wird immer schwerer, Smartphone-Fotos von mit einer 10.000-Euro-Kamera aufgenommenen Bildern zu unterscheiden", ist der bekennende Fotografieliebhaber überzeugt.

Die Pixel-Perspektive

Ein sicherlich nicht ganz unumstrittenes Verdikt, das sich zu einem Teil aus Spechts Perspektive erklären lässt: Als Produktmanager ist er seit Jahren direkt in die Entwicklung der Pixel-Kamera für Googles eigene Smartphones involviert, das vor allem mit einem Fokus auf die Bildqualität.

Pixel 8 Pro Kamera
Googles bisher beste Smartphone-Kamera ist jene im Pixel 8 Pro.
Proschofsky / STANDARD

Dass diese über die Jahre so viel besser geworden ist, schreibt er neben stärkerer Hardware vor allem einem Begriff zu, und zwar einem, bei dem sein Arbeitgeber besonders stark involviert war: Computational Photography.

Eine Vorgeschichte

Unter diesem Begriff versteht man allerlei Softwaretricks, dank derer Smartphone-Kameras Fotos in einer Qualität machen können, die mit Blick auf die physischen Beschränkungen für Sensor oder Optik eigentlich nicht möglich sein sollten. Die ersten Schritte in diese Richtung hat Google mit dem HDR+-Modus zunächst bei Google Glass und dann im Nexus 5 bereits 2013 vorgenommen. All das übrigens unter Federführung von Marc Levoy, der als Erfinder der Computational Photography gilt.

Die Idee hinter HDR+ ist einfach erklärt: Statt einer einzelnen Aufnahme werden dabei eine Reihe von Bildern in schneller Abfolge getätigt und in Echtzeit kombiniert. Da sich jedes Einzelbild immer leicht von den anderen unterscheidet, kann man auf diesem Weg wesentlich mehr Details erfassen und gleichzeitig Fehler minimieren. Ein Trick, der über die Jahre auch dank stärkerer Hardware immer weiter verbessert wurde und mittlerweile bei Smartphones längst zum Standard geworden ist.

KI wird immer wichtiger

Doch das ist längst nur mehr ein Trick unter vielen, der bei aktuellen Smartphones zur Verbesserung der Bildqualität zum Einsatz kommt. Und dabei spielt das Thema künstliche Intelligenz beziehungsweise Maschinenlernen bereits seit einigen Jahren eine zentrale Rolle. KI wird etwa bei der Pixel-Kamera schon einige Jahre für den automatischen Weißabgleich genutzt, auch der Tendenz von Kamerasensoren, dunkle Hauttöne schlechter darzustellen, arbeitet man mit einem KI-Feature namens Real Tone entgegen.

"AI Led Photography" nennt Specht diesen Ansatz und betont, dass man dabei noch lange nicht am Ende angekommen sei. Google investiere quer durchs ganze Unternehmen viel in diesen Bereich, wovon auch die Pixel-Kamera profitiere. Neben der Verbesserungen der Bildqualität geht es dabei nicht zuletzt auch darum, dass auch Nichtprofis gute Bilder machen können – und zwar in jedem Szenario.

Michael Specht / Google
Michael Specht ist Produktmanager für die Pixel-Kamera. Den Weg in seinen Job hat er nach eigenen Angaben über die Liebe zur Fotografie und das Bestreben, die dahinterstehende Technik zu verstehen, um bessere Fotos machen zu können, gefunden.
Google

Universalität als wichtiges Gut

"Es gibt oft diesen Fokus auf Extreme – also sehr schwaches oder sehr starkes Licht", betont der Produktmanager. Google sei es aber wichtig, alle Szenarien so gut wie möglich abzudecken. Also auch dann optimale Bilder zu liefern, wenn bei schlechtem, künstlichem Licht in Innenräumen oder bei Gegenlicht fotografiert wird.

"Es geht nicht nur um dieses eine Bild in dieser einen Einstellung." "Wir müssen die besten Bilder produzieren, unabhängig von den Bedingungen, unabhängig davon, wer Sie sind, wie Sie aussehen, was die Sonne heute macht, wie das Wetter ist, all diese Dinge." Konsistenz und Zuverlässigkeit seien überhaupt zwei sehr wichtige Werte für die Kameras der Pixel-Smartphones.

Kein Look, eine Annäherung

Hatte der mittlerweile in Richtung Adobe abgewanderte Marc Levoy vor einigen Jahren noch den Look der Pixel-Fotos als eine bewusste Entscheidung mit Blick auf italienische Meister wie Caravaggio mit ihren starken Kontrasten bezeichnet, legt Specht eine andere Perspektive an. Eigentlich gehe es immer um Authentizität, also so nah wie möglich an die Realität heranzukommen – und dann den Nutzerinnen und Nutzern die Wahl zu lassen, wie sie es anpassen wollen.

Eine echte Herausforderung sei dabei der Wechsel von einem Kamerasensor zum anderen. Die Optimierung der Bildqualität sei ein komplexes Zusammenspiel aus vielen Faktoren. Ändert man einen davon, muss alles neu getunt werden. Eine Aussage, die erklärt, warum Google über viele Jahre hinweg beim gleichen Kamerasensor geblieben ist und beim Wechsel auf einen Nachfolger im Pixel 6 zunächst sichtbare Probleme hatte, diesen ebenso gut auszureizen.

KI ist die Zukunft

Bei Fragen nach der Zukunft gibt sich der Google-Manager wenig überraschend zurückhaltend. Klar ist aber, dass Maschinenlernen auch in dieser eine große Rolle spielen wird, und zwar sowohl direkt am Gerät als auch in der Cloud.

Ein gutes Beispiel dafür ist das am Pixel 8 Pro seit ein paar Monaten verfügbare "Video Boost": Die Kombination aus im Gerät verbauter Hardware und der sehr viel höheren Rechenkraft Google-Cloud erlaube Videos in einer Qualität, wie sie sonst mit einem Smartphone nicht möglich wären. Als ersten Schritt in die Computational Videography hatte das Unternehmen dieses Feature bei der Vorstellung vor einigen Monaten bezeichnet.

Auch wenn Specht betont, dass langfristig das Ziel sei, so etwas wie Video Boost direkt am Gerät und ganz ohne Cloud-Anbindung laufen zu lassen, allzu große Hoffnung, dass das bald passiert, sollte man sich lieber nicht machen. Die dabei verarbeiteten Daten seien massiv, der Rechenaufwand der für Video Boost genutzten, riesigen KI-Modelle ebenfalls. "Ich denke, wir werden weiter sowohl auf die Verarbeitung sowohl am Gerät als auch extern setzen", lässt sich Specht zu einer kleinen Prognose hinreißen.

Was davon ist noch okay?

Beim Thema KI stellen sich schnell auch allerlei philosophische Fragen: Was ist da eigentlich noch ein echtes Foto? Wo ist der automatische Einsatz von KI in Ordnung, wo nicht? Specht hat dazu eine sehr klare Meinung: "Beim Einsatz von KI in unserer Bildverarbeitungs-Pipeline geht es immer um die Verbesserung von Pixeln, die bereits da sind." Authentizität sei das zentrale Prinzip, dem man sich verschrieben habe. Alles andere halte man bewusst extern, also als Features, die die Nutzerinnen und Nutzer optional verwenden können.

Wenn etwa der Magic Editor Objekte verschieben kann, dann ist das etwas, das fraglos ein nützliches Tool für viele ist, aber eben nichts, dass automatisch in der Kernkamera passieren sollte. So etwas wie Samsung, wo bei Fotos automatisch der Mond mithilfe von KI optimiert wird, würde man also eher nicht machen. Als optionales Feature zur Nachbearbeitung sei sowas hingegen sehr wohl vorstellbar, denkt der Google-Manager laut nach.

Das beste Foto

Generell will Specht die Nützlichkeit von solchen KI-Tools nicht auf bloße Spielereien reduziert sehen. Im Endeffekt gehe es immer um das beste Bild, und da können so Tools durchaus eine wichtige Rolle spielen. Wenn etwa die "Best Take"-Funktion aktueller Pixel-Smartphones mehrere Gruppenaufnahmen kombinieren und so dafür sorgen kann, dass alle im resultierenden Bild gleichzeitig in die Kamera schauen, dann sei das Resultat schlicht ein besseres Foto. Und das sei das für die Menschen, die diese Geräte nutzen, das eigentlich Entscheidende. (Andreas Proschofsky, 17.3.2024)