Fusionsreaktoren wie der International Thermonuclear Experimental Reactor (ITER) gelten als Hoffnung für nachhaltige Energiegewinnung, so alle Stolpersteine überwunden werden.

Foto: AP / Daniel Cole

Die Kernfusion leuchtet als strahlende Hoffnung zur nachhaltigen Lösung der Energiekrise am Horizont. Bisher scheiterte dieser Traum vor allem an einem technischen Problem: Fusionsreaktoren des Typs Tokamak konnten 100 Millionen Grad heißes Plasma zwar erzeugen, aber nur kurz in Schwebe halten. Der chaotisch brodelnde Wasserstoff touchierte nach wenigen Sekunden die Reaktorwand, der Fusionsprozess endete, bevor er richtig begann.

Forscher des Unternehmens Deepmind scheinen nun eine Lösung gefunden zu haben. Die von Google Alphabet um 500 Millionen Dollar gekaufte KI-Schmiede entwickelte auf Basis einer Linzer Technologie einen lernfähigen Algorithmus, mit dem Plasmaverhalten vorhergesagt und ausbalanciert werden kann.

Im Forschungsreaktor am Schweizer Plasmacenter der technischen Hochschule in Lausanne erbrachten die Forscher den "proof of concept": Die Elektromagneten des Tokamak konnten durch ein künstliches neuronales Netzwerk so angesteuert werden, dass das superheiße Plasma in elektrischen Feldern "eingehegt" und in verschiedenen Querschnittsformen in Schwebe ausbalanciert werden konnte. Aus Sorge vor Überhitzung wurde das Experiment frühzeitig beendet, schrieben die Forscher im Fachblatt "Nature".

Neuronale Netzwerke

Um das Problem der Plasmaschwebe zu lösen, griffen die Deepmind-Forscher tief in die Trickkiste der KI-Forschung. Sie schalteten alle für die Plasmaschwebe verantwortlichen Sensoren und Elektromagnete in der Steuerung zu einem riesigen neuronalen Netzwerk zusammen und trainierten die so entstandene künstliche Intelligenz im Simulationsmodus mit Methoden des Linzer Informatikers Sepp Hochreiter.

Der KI-Pionier lehrt seit 2006 an der Universität Linz und entwickelte schon früh Konzepte für maschinelles Lernen. Berühmt wurde etwa seine Methode des Long short-term memory (LSTM), mit der künstliche neuronale Netze eine Art Kurzzeitgedächtnis entwickeln können. In Kombination mit anderen von ihm entwickelten Methoden wie den Exponential Linear Units (ELU) können neuronale Netzwerke schneller aus Fehlern lernen.

"Als ich in dem "Nature"-Artikel las, dass man sowohl LSTM als auch ELU eingesetzt hat, habe ich mich schon sehr gefreut", sagt Hochreiter. "International wird man ja oft mehr wahrgenommen als vor der Haustüre." Seit man mit Big Data große Datenmengen verarbeiten kann, boomen Hochreiters KI-Methoden. Tech-Giganten wie Google, Apple oder Amazon greifen darauf zurück. Google Translate basiert ebenso darauf wie die Spracherkennung von Apples Siri oder Amazons Alexa. Kein Wunder, dass sich der Einsatz von Hochreiters Methoden auch für das schwierige Steuerungsproblem im Fusionsreaktor anbot.

Optimieren und vergessen

Die Steuerung muss bei der Plasmaschwebe zu jedem Zeitpunkt den Zustand eines geradezu chaotischen Gesamtsystem voraussehen. Das sei schwierig, aber nicht aussichtslos, vor allem wenn die KI in Simulationen mit ausreichenden Mengen an gutem Datenmaterial trainiert werden kann. In der Explorationsphase kann das System mit der Linzer Methode auch experimentell ausprobieren, in welcher Querschnittsform das Plasma am besten ausbalanciert werden kann.

Jede Millisekunde, die das Plasma länger schwebt, wird vom neuronalen Netzwerk als Datenpunkt für die Optimierung gespeichert. Jede Einstellung, die das Plasmaleben verkürzt, wird von der KI bewusst vergessen. Diese Methode, "reinforcement learning" genannt, wird um so besser, je robuster und vorausblickender die KI zu agieren lernt. Mit der prinzipiellen Lösung der Plasmaschwebe scheint der nächste Schritt hin zu Energie aus Kernfusion wahrscheinlicher zu werden.

2025 soll der Experimentalreaktor ITER im südfranzösischen Cadarache in Betrieb gehen. Bei ihm soll eine Plasmaschwebe nicht nur über Sekunden, sondern über 50 Minuten aufrechterhalten werden. Wird dieses Ziel erreicht, kämen Kraftwerke auf Basis von Kernfusion in Sichtweite. "Noch sind die neuronalen Netzwerke wahrscheinlich nicht robust genug", sagt Hochreiter, der nicht an dem Deepmind-Projekt beteiligt war. "Prinzipiell lassen sie sich aber genau in diese Richtung weiterentwickeln." (Norbert Regitnig-Tillian, 29.3.2022)