KI-Chatbots verursachen einen hohen CO2-Ausstoß.
ChatGPT zu betreiben ist teuer. Sowohl für OpenAI als auch für die Umwelt.
APA/AFP/OLIVIER MORIN

Mit der Veröffentlichung von Chatbots wie Bard, Bing und ChatGPT hat künstliche Intelligenz die Welt im Sturm erobert. Es gibt kaum ein nennenswertes Unternehmen, das sich im Laufe der letzten Monate nicht am KI-Hype bedient hat, um eigene Anwendungen für die Technologie zu verkünden.

Diese Entwicklung hat aber mehrere Schattenseiten. Zum Beispiel die Tatsache, dass sich der ChatGPT-Hersteller OpenAI auf kenianische Billiglohnkräfte stützt, um seinem Chatbot rassistische und sexistische Antworten auszutreiben. Aber nicht nur das: Im öffentlichen Diskurs wird gerne vergessen, wie viel Rechenleistung der Betrieb eines großen Sprachmodells (LLM) beansprucht und wie hoch die eigentlichen Kosten für die Nutzung von KI-Chatbots wirklich sind.

Mangelnde Transparenz

Gemeint ist damit nicht ausschließlich die monetäre Belastung für Unternehmen wie OpenAI, Google und Microsoft. Die steigende Nachfrage nach Servern zieht nämlich einen massiven Anstieg des Stromverbrauchs – und damit der Umweltbelastung – nach sich. Laut einem Bloomberg-Bericht benötigt das Training eines einzelnen Sprachmodells mehr Strom als 100 US-Haushalte in einem ganzen Jahr. Das ist auch deshalb problematisch, weil die Branche einen Boom erlebt. Aufgrund der fehlenden Transparenz könne niemand mit Sicherheit sagen, wie hoch der CO2-Ausstoß in Wirklichkeit ist.

Laut einer von den Berichterstattern zitierten Studie von 2021 wurden allein für das Training von GPT-3 1.287 Gigawattstunden benötigt – was dem Verbrauch von 120 Haushalten entspreche. Die Sprachmodelle werden allerdings immer größer, was im Umkehrschluss bedeutet, dass die Nutzung immer teurer und energieintensiver wird.

Nachhaltigkeit gefordert

Das hat inzwischen auch die US-Regierung auf den Plan gerufen. In einem aktuellen Bericht hat sie die Energiekosten generativer KI-Systeme als nationales Anliegen bezeichnet, schreibt die "Washington Post". Der "Rechenaufwand und die damit verbundenen Auswirkungen auf die Umwelt" würden sich demnach "dramatisch erhöhen". Es sei deshalb unumgänglich, nachhaltigere Systeme zu entwickeln.

Dass es sich bei den Chatbots bisher noch um Experimente handelt, zeigt sich auch bei einem Blick auf die monetären Kosten für die Betreiber. Eine einzelne Unterhaltung mit ChatGPT soll bis zu 1.000-mal so teuer sein wie eine Google-Suche, schätzt beispielsweise der Chefanalyst von Semi Analysis Dylan Patel. Wie viel eine einzelne Anfrage wirklich kostet, ist allerdings unbekannt.

Beschränkungen

Die hohen Kosten dürften laut der "Washington Post" allerdings ein Mitgrund dafür sein, dass die kostenlose Version von ChatGPT weiterhin auf GPT-3.5 setzt – und Google mit einer vollwertigen Bard-Integration in die Suche zögert. Zahlende ChatGPT-User können zwar auf das aktuelle Sprachmodell GPT-4 zugreifen, allerdings mit einer Einschränkung von 25 Nachrichten innerhalb dreier Stunden.

Auch deshalb arbeiten Firmen wie OpenAI laut Bloomberg daran, ihre KI-Modelle effizienter zu gestalten. Hinzu komme das Problem, dass große Tech-Konzerne wie Google und Microsoft versprochen haben, in den kommenden Jahren klimaneutral zu sein. Letzterer Konzern hat Milliarden in den ChatGPT-Hersteller investiert und stellt seine Serverinfrastruktur für den Betrieb bereit. Die eigenen Versprechen sollen dank Investitionen in erneuerbare Energien trotz allem eingehalten werden. (red, 7.6.2023)