Zugegeben, GPT-3 klingt weniger aufregend und furchteinflößend als Deep Blue, Watson oder Palantir. Hinter der technisch klingenden Buchstaben-Zahlen-Kombination soll aber nicht weniger als ein großer Schritt in Richtung "Artificial General Intelligence" stehen. Eine allgemeine künstliche Intelligenz soll nicht nur wenige, spezialisierte Aufgaben erledigen, sondern wie ein Mensch "denken".

Der "Generative Pretrained Transformer" (GPT) Nummer drei soll dieser Idee ein Stück näher kommen. Er wurde schon in einem im Mai veröffentlichten Paper beschrieben und ist kürzlich in die Closed-Beta-Phase gegangen. Bisher haben nur wenige Entwickler Zugriff auf GPT-3, aber diese scheinen von der neuen Software ziemlich begeistert zu sein.

Programmiercode auf Zuruf

In einem Anwendungsbeispiel wird GPT-3 etwa zum Webdesigner: Statt Programmiercode einzugeben muss der Software nur diktiert werden, was auf der Website zu sehen sein soll. In einem Demo-Video befiehlt der Entwickler Sharif Shameem dem Programm, einen "Button, der wie eine Wassermelone aussieht", zu erstellen, der HTML- und CSS-Code taucht wenige Sekunden später auf dem Bildschirm auf. Auch eine "Tabelle mit den reichsten Ländern der Welt mit Namen und BIP als Spalten" wird von GPT-3 nicht nur als Code generiert, sondern auch gleich mit Daten befüllt.

GPT-3 kann aber nicht nur Websites gestalten, sondern auch einfache Apps nach Anweisungen programmieren. In einem weiteren Video beschreibt Shameem eine To-do-App in drei Zeilen Alltagsenglisch, die kurz darauf am Bildschirm erscheint.

Bluff mit Blogpost

Nicht nur Computerprogramme, sondern auch Texte kann GPT-3 generieren. Für Menschen sei schwierig zu erkennen, dass diese von einem Computerprogramm stammen. Der Informatiker Manuel Araoz, der bereits Zugriff auf GPT-3 hat, schreibt in einem Blogeintrag über seine Experimente mit dem neuen Algorithmus.

Er habe GPT-3 auf das Forum bitcointalk.org losgelassen, wo die von der Software generierten Posts auf Anklang gestoßen seien. Es sei nur eine Frage der Zeit, bis sich talentierte Amateure daranmachen, ähnliche Modelle zu trainieren und für Fake-News, Werbung, Politik oder Propaganda einsetzen. Erst am Ende des Blogeintrags kommt der Plot-Twist: Der gesamte Erfahrungsbericht stamme von GPT-3 selbst, stellt Araoz klar. Der Software habe er nur seine eigene Biografie, den Titel des Blogeintrags, drei Stichwörter und eine kurze Zusammenfassung in zwei Sätzen gegeben, den Rest habe GPT-3 selbst generiert.

Gesetze, Kunstkritiken, Parodien

GPT-3 kann aber nicht nur Blogposts, sondern auch Kurzgeschichten, Märchen, Zeitungsartikel, Parodien, Gesetze und Kunstkritiken schreiben und Wortwitze erklären. Auch einen Generator für nachdenkliche Tweets gibt es inzwischen.

Einen konkreten Einsatzzweck für GPT-3 hat der Entwickler Nick Walton gefunden. Er betreibt schon seit längerem das Online-Text-Adventure-Game "AI Dungeon" nach der Art des (analogen) Pen-and-Paper-Spiels "Dungeons und Dragons", bei dem eine KI die Rolle des Spielleiters übernimmt. Für jedes Spiel wird eine komplett neue Geschichte generiert, die kaum als Maschinentext zu entlarven ist.

Hinter GPT-3 steckt die Non-Profit-Organisation Open AI, die sich zum Ziel gemacht hat, "freundliche" KI zu schaffen, die der Allgemeinheit dienen soll. Finanziert wird die Organisation vom Who-is-Who der US-amerikansichen Technologieszene. Elon Musk, der das Projekt mitgründete und bis 2018 leitete, spendet immer noch Geld, ebenso Microsoft, Paypal-Gründer Peter Thiel und Salesforce-Chef Marc Benioff.

Quellcode wird nicht veröffentlicht

Der Quellcode für GPT-3 soll jedenfalls nicht öffentlich zur Verfügung gestellt werden. Stattdessen will die Organisation eine kostenpflichtige Programmierschnittstelle anbieten. Das soll einerseits die Finanzierung einer "General AI" sicherstellen. Die Modelle hinter GPT-3 seien zudem äußerst groß und benötigen viel Rechenleistung – den Betrieb könnten sich so nur größere Unternehmen leisten.

Außerdem will Open AI damit dem Missbrauch der Technologie zuvorkommen. Das Bedenken kommt nicht von irgendwoher: Der Vorgänger GPT-2, der ebenfalls Sätze vervollständigen konnte, reproduzierte Stereotype, die wohl in den Ausgangstexten, mit denen das Modell trainiert wurde, vorkamen. Einem weißen Mann wies der Algorithmus etwa den Job als Richter oder Polizist zu, eine homosexuelle Person könne "zwar gut tanzen, nimmt aber auch Drogen".

Laut Open-AI-Chairman Greg Brockman seien bereits zehntausende Anfragen zur Nutzung von GPT-3 eingetroffen. (pp, 31.7.2020)