Der neue Mobilfunkstandard 5G erfordert verteiltes Rechnen nahe am User. Dabei stellt sich aber die Frage, wie die Rechenaufgaben effizient verteilt werden können.

Foto: Getty Images / iStock / metamorworks

Der kommende 5G-Mobilfunkstandard verspricht technische Höchstleistungen – ultrahohe Bandbreiten, extrem geringe Reaktionszeiten und die Koordination von Milliarden kommunizierender Maschinen. Das Streaming von Virtual-Reality-Umgebungen soll mit der neuen Technologie möglich werden, genauso wie autonome Drohnenschwärme, die bei ihrer Navigation auf die Rechenkraft zentraler Computersysteme zugreifen.

Doch um die Vorteile der schnellen 5G-Übertragungstechnik auch tatsächlich nutzbar zu machen, muss sich auch die technische Infrastruktur verändern, die auf die Anfragen von all den Smartphones, Drohnen oder Virtual-Reality-Brillen antwortet. Denn: Rechnet man all diese Dinge zentral in weit entfernten Rechenzentren, dauert es zu lange. "Echtzeit-Interaktionen zwischen Anwendungen und Rechenzentren sollen möglich werden", sagt Radu Prodan vom Institut für Informationstechnologie der Universität Klagenfurt.

"Deshalb dürfen die Rechenzentren nicht mehr so weit von den 5G-Geräten, die die Anfragen schicken, entfernt sein. Sonst geht der Vorteil des schnellen ÜbertragungsStandards verloren." Der Trend geht also von großen zentralen Anlagen zu kleineren dezentralen Rechenzentren, die näher an den Benutzern liegen. Aus dem zentralen Cloud-Computing wird ein stärker verteiltes, sogenanntes Fog-Computing.

Virtual Reality und Robotik

Prodan arbeitet an einer Forschungsinfrastruktur für den 5G-Standard, die diese neue Form des verteilten Rechnens nahe am User umsetzt. Der "Kärntner Fog", so der Name des Projekts, soll im Testlabor des 5G Playground Carinthia die Voraussetzungen für Fallstudien schaffen, die im Bereich Virtual Reality, Smart City, Robotik und Drohnentechnik angesiedelt sind.

Bei dem Projekt, das zum Teil auf Erkenntnissen eines Vorprojekts zu einer "Tiroler Cloud" basiert, kooperieren Prodan und Team von der Uni Klagenfurt mit der FH Kärnten und dem Unternehmen Siplan. Die Förderagentur FFG unterstützt die Forschungsarbeit mit Mitteln des Klimaministeriums, das neben dem Land Kärnten, dem Mobilfunkanbieter A1 und der Kärntner Betriebsansiedlungsagentur Babeg auch zu den Partnern hinter dem 5G Playground gehören.

Eine Brücke bauen

Die grundsätzliche Frage hinter dem Projekt ist, wie man Rechenleistung aufteilt, erklärt Prodan. "Wir entwickeln Software, die sich der Verteilung und Verwaltung von Ressourcen widmet." In dem 5G-Netzwerk sind unterschiedliche Geräte vorhanden. Auf ihnen sind verschiedene Betriebssysteme und unterschiedliche aktuelle Anwendungen installiert.

Sie alle müssen aber jeweils Teile ihrer Aufgaben auf die nahegelegene Fog-Infrastruktur auslagern können, sei es nun die Berechnung von Virtual-Reality-Inhalten oder die Auswertung von Sensorinformation in Drohnen. "Das verteilte Rechnen muss auf den verschiedensten Geräten funktionieren – vom Handy bis zum Supercomputer", sagt Prodan. "Die Frage ist, wie man eine Brücke über all diese involvierten Computer hinweg baut."

Dazu kommen besondere Herausforderungen – etwa die Frage, wie man mit einer plötzlich auftretenden Häufung von Anfragen umgeht. Diese könnte etwa entstehen, wenn viele Besucher eines Events oder einer Sportveranstaltung dieses oder diese gleichzeitig live streamen. "Die Entstehung derartiger Häufungen kann sehr schnell gehen. Die Infrastruktur muss dann schnell reagieren und gegebenenfalls zusätzliche Fog-Rechner zuschalten können", erklärt der Computerwissenschafter.

Gemischtes System

Eine Netzwerkarchitektur, die ein verteiltes Rechnen dieser Art leistet, kann nicht vollständig zentral organisiert sein. Eine zentrale Koordinationsstelle, die alle Berechnungsaufgaben verteilt, wäre schnell überfordert.

Auf der anderen Seite wäre auch ein völlig dezentrales Peer-to-Peer-Netzwerk, in dem alle Computer gleichberechtigt und ohne zentrale Instanz kommunizieren, schon aus Sicherheitsgründen keine adäquate Lösung. "Letzten Endes ist eine Mischung dieser beiden Prinzipien der sinnvollste Weg", sagt Prodan. "Man schafft kleinere Communitys, in denen ein ,Super-Peer‘ die Kommunikation und Aufgabenverteilung organisiert."

Zuletzt bleibt die Frage, wie diese Art der Ressourcenverwaltung getestet werden kann. "Einerseits braucht es eine Simulationsumgebung, um das verteilte Rechnen erproben zu können", sagt Prodan. "Andererseits muss das System auch in einer ,echten‘ experimentellen Umgebung mit unterschiedlichen Benutzern überprüft werden." Lässt sich schließlich diese Art der Netzwerkkommunikation auch auf große Nutzerzahlen hochskalieren, steht der Echtzeitberechnung im Nebel nichts mehr im Weg. (Alois Pumhösel, 21.3.2022)