Bei Microsoft entwickelt man neue KI-System, die manche begeistern – andere hingegen weniger.

Foto: APA/AFP/GETTY IMAGES/Drew Angere

Wer schon einmal selbst programmiert hat, der wird das kennen. Selbst mit all den Hilfen, die aktuelle Programmierumgebungen bilden, ist das Schreiben von Code oft ein mühsamer Akt, bei dem sich vieles wiederholt – was auch die Fehleranfälligkeit erhöht. Genau dem will nun ein neues Projekt von Microsoft entgegenarbeiten, das umgehend gleichermaßen auf Begeisterung wie Kritik stößt.

KI-Programmierer

Unter dem Namen "Copilot" hat Github ein Tool veröffentlicht, das den Nutzern automatisch gesamte Codeblöcke vorschlagen kann. Eine KI analysiert dabei die gesamte Zeit den bisher geschriebenen Code, und schlägt dann vor, was der eigenen Meinung nach als nächstes an der betreffenden Stelle folgen sollte – samt der passenden Referenzen auf zuvor verwendete Funktionen und Variablen. Das Ganze erinnert insofern etwas an Googles Smart Compose für Gmail, wo Texte beim Schreiben vorgeschlagen werden – nur eben für Code.

Copilot im Einsatz: Es werden zum Teil ganze Codeblöcke vorgeschlagen
Grafik: Microsoft

In einem Blogposting streicht Github-Chef Nat Friedman die Möglichkeiten dieses Systems heraus. Damit ließen sich viel genutzte Codestellen in Windeseile schreiben, und das nicht nur in mehreren Programmiersprachen sondern auch unter Unterstützung zahlreicher bekannter Frameworks. Die besten Ergebnisse soll es dabei derzeit mit Python, Javascript, Typescript, Ruby und Go geben.

Reaktion

Die Ankündigung sowie erste Tests des Systems führten zunächst zu begeisterten Stimmen von Programmierern, die hierin die Zukunft der Softwareentwicklung sehen. Doch bald danach folgten kritische Stimmen, und das liegt daran, wie das System umgesetzt ist. Als Basis kommt ein neues KI-System von OpenAI namens OpenAI Codex zum Einsatz. Dabei handelt es sich um einen Nachfolger von GPT-3, das in der Vergangenheit für seine Fähigkeiten zum Verfassen von eigenständigen Texten für Furore gesorgt hat. Doch wie jedes Maschinenlernmodell braucht es natürlich Trainingsmaterial, mit dem es gefüttert werden muss, um die eigenen Fähigkeiten zu erlernen.

Quellcode

In diesem Fall hat Github einfach den Quellcode aus den Projekten der eigenen Nutzer als Ausgangsbasis verwendet. Und genau das wirft sowohl rechtliche als auch moralische Fragen auf. Immerhin basiert die Fähigkeit von Copilot damit auf der Arbeit anderer, werden nun aber Teil eines Projekts mit einem kommerziellen Hintergrund. Umgekehrt ist natürlich klar, dass auch menschliche Programmierer oft vom Code anderer lernen und diesen in ihre Projekte übernehmen. Solange Copilot also Codestellen nicht in erheblichem Ausmaß 1:1 übernimmt, könnte dies also rechtlich unproblematisch sein, wie der auf Lizenzrecht spezialisierte Anwalt Luis Villa in einer ersten Beurteilung schreibt. Allerdings betont Villa, der früher unter anderem bei der Wikipedia und beim GNOME-Projekt gearbeitet hat, dass all das noch recht neues und vor Gericht wenig getestetes Recht sei. (Andreas Proschofsky, 4.7.2021)