Ein von Midjourney generiertes Bild, das eine
Für den Fall, dass ein KI-System außer Kontrolle gerät, sollte man ganz einfach den "Stecker ziehen" können.
Midjourney/bbr

Wie bei jeder potenziell mächtigen Technologie, birgt auch künstliche Intelligenz (KI) die Gefahr des Missbrauchs oder unbeabsichtigter und schwerwiegender Konsequenzen. Um diesen Bedenken effektiv begegnen zu können, haben Wissenschafter der Universität Cambridge nun einen neuen Ansatz vorgeschlagen: Die Hardware, die ein KI-System antreibt, soll von der Produktion weg überwacht und mit sogenannten Notausschaltern versehen werden.

Diese Idee, inspiriert von den Sicherheitsvorkehrungen bei der Kontrolle von Nuklearwaffen, zielt darauf ab, eine Art Notbremse für KI-Systeme zu schaffen, um ihre Aktivität im Falle eines Risikos schnell und effektiv lahmzulegen. Dieser Vorschlag, unterstützt durch Erkenntnisse von Experten verschiedener akademischer Institutionen sowie im Übrigen auch von Mitarbeitern der ChatGPT-Entwicklers OpenAI, wirft also mit alten Mitteln ein neueres Licht auf die Möglichkeiten der Regulierung und Kontrolle von KI.

Der Kern der Arbeit liegt in der Behauptung, dass besonders die Hardware, die solche Systeme betreibt, einen geeigneten Hebel für regulatorische Eingriffe darstellt. Die Wissenschafter argumentieren, dass die Hardware, die zum Trainieren umfangreicher KI-Modelle benötigt wird - Modelle, die potenziell Billionen von Parametern enthalten könnten - nicht nur real eine enorme Größe aufweist, sondern aufgrund dieser Ausmaße und des beträchtlichen Energieverbrauchs leicht zu identifizieren ist.

Ein Register für KI-Chips

Auch der Umstand, dass der Weg in der Herstellung solcher Kapazitäten zwangsläufig mit einem ausgewählten Kreis bekannter Chiphersteller wie Nvidia, AMD oder Intel verbunden ist, lässt laut wissenschaftlichem Paper die Schlussfolgerung zu, dass politische Maßnahmen auf diese neuralgischen Punkte abzielen könnten, um die Risiken im Zusammenhang mit dem Entgleisen von KI-Systemen zu mindern. Implikationen, die sich auf nationaler Ebene bereits zeigen.

So zielen beispielsweise die jüngsten Initiativen der US-Regierung darauf ab, die Transparenz der KI-Entwicklung zu erhöhen und die Verbreitung fortschrittlicher Technologien an Unternehmen oder Länder, die diese missbrauchen könnten, einzudämmen. Das sind Schritte, die aber nur auf wirtschaftlicher Ebene ein Wettrüsten bei den KI-Fähigkeiten verhindern wollen. Eine Gewährleistung der globalen Sicherheit ist dadurch freilich noch lange nicht gegeben. Das Paper schlägt daher ein globales Register für den Verkauf von KI-Chips vor, das den Lebenszyklus dieser kritischen Komponenten verfolgt und damit auch einen illegalen Handel eindämmen könnte.

Killswitch für den Notfall

Einen Schritt weiter geht der Vorschlag, sogenannte Killswitches in die KI-Chips selbst einzubauen, die es Regulierungsbehörden oder autorisierten Stellen ermöglichen, die Hardware im Falle eines Missbrauchs aus der Ferne zu deaktivieren oder zu drosseln. Dieses Konzept ist zwar theoretisch vielversprechend, wirft jedoch auch erhebliche Bedenken hinsichtlich des Missbrauchspotenzials durch böswillige Akteure auf.

Um die Risiken einseitiger Aktionen zu mindern, schlagen die Forscher einen Mechanismus vor, der vergleichbar ist mit den für Atomwaffenarsenale vereinbarten Befehlsketten. Dieses System würde mehrere Genehmigungen für bestimmte KI-Aufgaben erfordern, die als riskant eingestuft werden, und könnte so einen konsensorientierten Ansatz für KI-Einsätze mit hohem Risiko gewährleisten. Dies wirft gleichzeitig aber die Frage auf, ob dadurch auch legitime KI-Fortschritte unterdrückt werden könnten.

Die Arbeit erkennt jedenfalls die inhärenten Grenzen an, lediglich die Hardware regulieren zu wollen. Die anderen Komponenten von KI-Systemen - Daten, Algorithmen und Modelle - sind aber nicht greifbar. Das erschwert die Bemühungen, ihre Verbreitung und Manipulation einzudämmen, sobald sie einmal frei verfügbar sind. Das Papier veranschaulicht diese Herausforderung anhand von Beispielen wie Metas Llama 2, bei dem die Versuche, die Fähigkeit des Modells zur Erzeugung schädlicher Inhalte einzuschränken, leicht umgangen werden konnten.

Der Vorschlag hardwarebasierter Killswitches und zuvor erwogener Regulierungsmaßnahmen können zwar einen neuen Weg zur Kontrolle der KI-Entwicklung darstellen, sie sind aber auch nicht ohne Tücken. Das Paper unterstreicht daher die Notwendigkeit eines vielschichtigen Regulierungsrahmens, der die unzähligen Dimensionen der KI, von ihrer physischen Infrastruktur bis zu ihren digitalen Ergebnissen, berücksichtigt. Bemerkenswert ist nicht zuletzt die Beteiligung von OpenAI-Mitarbeitern an der Arbeit und deutet darauf hin, dass der Gedanke dieser Notwendigkeit offenbar auch längst in der betroffenen Branche angekommen ist. (bbr, 18.2.2024)