Resilienzforscher Victor Galaz von der Universität Stockholm.

Foto: Azote images / Marie Sparréus

Manchmal haben die Ergebnisse, die Artificial Intelligence hervorbringt, ein wenig Schlagseite. Untersuchungen konnten in vielen Fällen zeigen, dass die automatische Bilderkennung Frauen oder Menschen mit dunkler Hautfarbe weniger treffsicher identifizieren kann als weiße Männer – die mutmaßlich auch in den Entwicklerteams die Mehrheit bilden.

Zu trauriger Berühmtheit gelangte eine Gerichtssoftware, die schwarze Menschen mit doppelt hoher Wahrscheinlichkeit als potenzielle Rückfalltäter klassifizierte. Die Systeme unterliegen einem sogenannten Bias, weil ihnen etwa unausgewogenes Datenmaterial zugrunde liegt, das vielleicht nur einen Teil der Wirklichkeit widerspiegelt.

Was bedeutet dies nun, wenn derartige Systeme im Kontext von Umwelt und Klimawandel eingesetzt werden? Wohin kann hier ein möglicher Bias führen? Künstliche Intelligenz bezeichnet heute vor allem Systeme des maschinellen Lernens: Neuronale Netze werden trainiert, um bestimmte Muster in den Daten zu erkennen. Ihr Potenzial zur Analyse von Natur, technischen Systemen oder menschlichem Verhalten ist enorm.

"Wie viele andere Technologien hält Artificial Intelligence in Bezug auf den Klimawandel eine Mischung aus Chancen und Risiken bereit", sagt Victor Galaz, der am Resilience Center der Universität Stockholm und am Beijer Institute of Ecological Economics der Königlich-Schwedischen Akademie der Wissenschaften an den Beziehungen von Klimawandel und neuen Technologien forscht, zum STANDARD.

Auf Einladung der Komplexitätsforscher des Complexity Science Hub Vienna (CSH) sprach Galaz vor kurzem bei einer Veranstaltung in Wien zum Thema "Planetary Responsible AI".

Ethische Perspektive

Die Tests, die einen Bias der Systeme offensichtlich machten, haben früh den Bedarf für verantwortlich gestaltete künstliche Intelligenzen klargemacht. Im Design und im Einsatz der Systeme muss immer auch eine ethische Perspektive miteinbezogen sein – sei es nun, um sie nach Grundsätzen der Inklusion und Diversität zu gestalten oder um über die Dilemmasituationen selbstfahrender Autos nachzudenken, die vielleicht über Leben und Tod menschlicher Verkehrsteilnehmer zu entscheiden haben.

Die Chancen der AI in Bezug auf den Klimawandel liegen auf der Hand: In den größer werdenden Datenbergen, die aus der Überwachung unserer Umwelt stammen, können automatisiert relevante Muster, Veränderungen oder Zusammenhänge extrahiert werden.

Als großen Vorteil hebt Galaz die Vorhersagekraft künstlicher Intelligenzen hervor: Mit verbesserter Datenlage wird ein "predictive modeling" von Klimadaten die Entwicklung immer genauer und lokaler abschätzbar machen. Gleichzeitig spielt AI in der Optimierung bestehender Systeme – etwa in der effizienteren Nutzung von erneuerbaren Energien eine Rolle.

Verantwortungsvoller Einsatz

Ein hoher Nutzen setzt aber auch hier den verantwortungsvollen Einsatz der Systeme voraus. "Wie stellen wir sicher, dass AI Umweltzerstörung, Missinformation und soziale Ungleichheit nicht intensiviert?", so Galaz’ zentrale Frage.

Künstliche Intelligenz kommt etwa bereits jetzt weltweit in vielen Varianten im Bereich Smart Farming zum Einsatz, die beispielsweise aufgrund von Satellitendaten die Bewässerung, den Pestizideinsatz und Erntezeitpunkt optimieren. Für Galaz ist offen, welche ökologischen Auswirkungen eine derartige digitale Land-, Wald- und Wasserwirtschaft haben wird.

Auch eine soziale Frage schließt hier an. Galaz: "Werden die Vorteile, die aus der Automation entstehen, gleich verteilt sein oder beispielsweise einen negativen Einfluss auf kleine Bauern in afrikanischen oder asiatischen Ländern haben?"

Nachhaltige Algorithmen

Auch der Einsatz von AI im Bereich der Information und Kommunikation ist in Bezug auf den Klimawandel relevant. Nutzt man die Technologie, um menschliches Verhalten zu beeinflussen, stellt sich erneut die ethische Frage, was vertretbar ist und was nicht – in der Verhaltensökonomie hat sich der Begriff des "Nudging" für Maßnahmen, die zu erwünschten Entscheidungen anstoßen sollen, etabliert.

In den sozialen Medien der Zukunft könnten smarte, künstliche Gesprächspartner, Bots, helfen, Debatten konstruktiv zu halten – oder sie unmöglich machen.

Um der Gefahr zu entsprechen, dass "die maschinelle Intelligenz nur dazu genutzt wird, die Nutzung der natürlichen Ressourcen zu beschleunigen und gleichzeitig Risiken und Vorteile dadurch in ungerechter Weise neu zu verteilen", haben Galaz und Kollegen im Zuge einer Veranstaltung in Stockholm den sogenannten "Biosphere Code" geschaffen.

"Wir brachten eine heterogene, kreative, technisch versierte Gruppe aus Philosophen, Professoren, Hackern und weiteren Experten zusammen, um Prinzipien zu schaffen, die die Entwicklung von ‚nachhaltigen Algorithmen‘ begleiten sollten", schildert Galaz.

Die Gestaltung von AI, die dem Erdsystem nicht schadet, solle demnach etwa flexibel und adaptiv sein, das "Unerwartete erwarten" – und damit dem Gesichtspunkt der Resilienz entsprechen – und der Menschheit und der Biosphäre insgesamt dienlich sein. (Alois Pumhösel, 22.2.2020)