Das Google-Unternehmen Deep Mind hat eine neue Version von Alpha Go entwickelt – Alpha Go Zero erlernte das chinesische Spiel ohne menschliche Hilfe.

Foto: APA/AFP/ED JONES

Das Aufsehen war groß als die Google-Software Alpha Go 2016 den Spitzenspieler Lee Sedol im Brettspiel Go besiegte. Forscher, darunter ein österreichischer Informatiker, haben die Software nun unter dem Titel Alpha Go Zero entscheidend weiterentwickelt. Das System lernte das Spiel ohne menschliches Zutun und besiegte auch seine Vorgängerversionen, berichten die Forscher im Fachjournal "Nature".

Sieg gegen besten Spieler

Alpha Go hat sich heuer auch mit einem glatten 3:0-Sieg gegen den vermutlich weltbesten Go-Spieler Ke Jie durchgesetzt. An diesen Erfolgen wurde ersichtlich, wie weit die Entwicklung künstlicher Intelligenz bereits fortgeschritten ist. Das System stammt von der britischen Firma Deep Mind, die vor mehr als drei Jahren vom US-Konzern Google übernommen wurde.

Besonders überraschend waren die Fähigkeiten von Alpha Go, weil das rund 3.000 Jahre alte asiatisch Spiel spezielle Anforderungen stellt, die bisher eher dem menschlichen Geist exklusiv zugebilligt wurden. Angesichts nahezu unbegrenzter Möglichkeiten für Züge, ist nämlich viel Intuition, kreatives Denken und Lernfähigkeit gefragt.

NPG Press

Neue Generation lernt alleine

Während Alpha Go seinen virtuellen Geist noch am Studium von Millionen Zügen von menschlichen Top-Spielern über Monate hinweg gestärkt hatte, gingen die Wissenschafter um David Silver von Deep Mind in London nun andere Wege: Im Zentrum der neuen Generation stand demnach der Gedanke, ein System zu bauen, welches das Spiel ohne Anschauungsmaterial von der Pike auf selbst erlernt und auf sich alleine gestellt weiterentwickelt – also "komplett ohne menschliche Intervention funktioniert", erklärte Silver.

Die Fähigkeit ein System dazu zu bringen, etwas annähernd von null auf zu erlernen, sei vor allem dann wichtig, wenn es darum geht, eine Form von KI zu entwickeln, die sich selbstständig auf für sie neue Aufgaben jeglicher Art einstellt. Am Ende strebe man die Entwicklung eines Algorithmus an, der potenziell auf jedes Problem angesetzt werden kann, so der Forscher, in dessen Team der 25-jährige Niederösterreicher Julian Schrittwieser mitgearbeitet hat. Der Softwareentwickler ist seit 2012 bei Google. Sein Engagement entwickelte sich direkt aus einem Praktikum, das er noch im Rahmen seines Studiums an der Technischen Universität Wien absolviert hat, wie er gegenüber der APA erklärte.

Nach der Übernahme von Deep Mind durch Google wurde Schrittwieser durch einen Vortrag von Ko-Firmengründer Demis Hassabis auf Alpha Go aufmerksam. "Das hat mich dann so interessiert, dass ich zu Deep Mind gewechselt bin", sagte Schrittwieser. Seine Expertise sowohl im Soft- und Hardware-Bereich als auch beim maschinellen Lernen habe auch zu der aktuellen Arbeit beigetragen, bei der Schrittwieser als einer der Hauptautoren fungiert.

NPG Press

Nur minimale Informationen zu Beginn

Das von ihm mitentwickelte neue System begann mit nur minimaler Startinformation über die Regeln und Beschaffenheit des Spiels gegen sich selbst zu spielen. Grundlage von Alpha Go Zero ist ein künstliches neuronales Netzwerk, das darauf abzielt, die Auswahl der nächsten Züge des Programms und den Gewinner der jeweils gespielten Partien vorherzusagen. Für gewonnene Spiele wurde es durch ein Punktesystem belohnt. Dadurch "lernte" Alpha Go Zero mit jedem Spiel dazu.

Nach wenigen Tagen – allerdings immerhin nach fast fünf Millionen Partien gegen sich selbst – schlug das Programm alle seine Vorgänger. Jenes System, das mit den Siegen gegen die Spitzenspieler aufhorchen ließ, ging mit einem klaren 100:0 unter. Dafür brauchte es weit weniger Rechenressourcen als Alpha Go, heißt es seitens Deep Mind.

Neue Herangehensweise entwickelt

Nicht nur habe der Algorithmus sozusagen all das in kurzer Zeit herausgefunden, was Menschen in tausenden Jahren über das Spiel gelernt haben, er habe auch völlig neue Herangehensweisen entwickelt. "Ich denke, ich kann für das Team sprechen, dass wir alle angenehm überrascht darüber sind, wie weit sich das System entwickelt hat", sagte Silver. Für Schrittwieser sind die neuen Erkenntnisse ein Schritt in Richtung des Verständnisses des großen Mysteriums der menschlichen Intelligenz, von deren Verständnis man natürlich noch weit entfernt sei.

Gegenüber dem Science Media Center (SMC) brachten Experten zwar einerseits ihre Anerkennung für die Arbeit des Deep-Mind-Teams zu Ausdruck, stiegen aber andererseits auf die Euphoriebremse: So hätten die Wissenschafter in der Arbeit "selbst ja keine fundamentalen algorithmischen Neuerungen vorstellt, sondern hauptsächlich existierende Verfahren clever kombiniert", erklärte Marcus Liwicki von der Technische Universität Kaiserslautern. Die Anwendbarkeit des Ansatzes in anderen Bereichen wäre außerdem eher eingeschränkt, da das System eben Millionen von Spielen durchführen muss, bei denen Erfolg eindeutig definiert ist, um derart gut zu werden. "Das ist in vielen praktischen Problemen jedoch nicht der Fall", so Liwicki. (APA, 18.10.2017)