Öko-Label für KI: Kann eine simple Kennzeichnung den Energiehunger der Branche bändigen?

Dass KI nicht nur Probleme löst, sondern auch handfeste Auswirkungen in der analogen, realen Welt hat, wird immer mehr Menschen bewusst. „Will A.I. Ruin the Planet or Save the Planet?“, fragt beispielsweise die New York Times, während die Analyst:innen von Goldman Sachs mit leichter Nervosität darauf hinweisen, dass der Energiebedarf für KI-Datenzentren bis 2030 voraussichtlich um satte 160 Prozent steigen wird.
Energieverbrauch von KI-Modellen sichtbar machen
Eine Gruppe von KI-Expert:innen – unter anderem von Meta und Hugging Face – hat jetzt in Nature einen Vorschlag gemacht, der das Problem zumindest kleiner machen könnte: Das „AI Energy Star“-Projekt soll den Energieverbrauch von KI-Modelle transparent und für alle User:innen sichtbar machen.
Die Bezeichnung des Projekts leitet sich ab von den Energy-Star-Bewertungen der US-amerikanischen Umweltschutzbehörde – vergleichbar mit den Energieffizienklassen für Haushaltsgeräte in Europa. Analog dazu will die Initiative den Energieverbrauch von KI-Modellen ermitteln und dann die Modelle je nach ihrer Position in diesem Bereich bewerten, wobei diejenigen, die am wenigsten Energie verbrauchen, die höchste Bewertung erhalten. „Dieses einfache System kann Anwender:innen helfen, schnell die für ihren Anwendungsfall am besten geeigneten Modelle auszuwählen“, schreiben sie. Entscheiden sich die User:innen für sparsame Modelle, übt das Druck auf die Modellbetreiber aus, ihre KIs sparsamer zu machen.
Wie misst man den Energieverbrauch von KIs?
Um erste Zahlen zu erheben, testete die Initiative eine Reihe von Open-Source-Modellen auf Hugging Face. Die Initiatoren hoffen, „dass Privatunternehmen sich an der Bewertung ihrer proprietären Modelle beteiligen werden, da das Interesse der Verbraucher an diesem Thema wächst.“ Bei der Messung muss allerdings berücksichtigt werden, dass KI-Modelle für eine Vielzahl von Aufgaben eingesetzt werden können – von der Zusammenfassung von Text bis zur Spracherkennung.
Daher definierten sie zehn verschiedene Aufgaben für die KIs, von der Beantwortung von Chatbot-Fragen bis zur Bilderzeugung. Für jede Aufgabe – zum Beispiel die Objekterkennung – stellten sie zudem einen Evaluierungsdatensatz zur Verfügung und starteten dann jeweils 1.000 zufällig gewählte Anfragen aus dem aufgabenspezifischen Datensatz. Anschließend berechneten sie mit dem Open-Source-Paket CodeCarbon die dafür erforderliche Energie.
KI-Bildgenerierung führt zu höheren CO2-Emissionen
Die Resultate sind wenig überraschend: „Unsere ersten Ergebnisse zeigen, dass Aufgaben, die die Klassifizierung und Generierung von Bildern beinhalten, in der Regel zu tausendfach höheren CO2-Emissionen führen als Aufgaben, die nur Text beinhalten“, schreiben die Autoren. Das effizienteste Modell verbrauchte zur Beantwortung von Fragen etwa 0,1 Wattstunden (etwa die Energie, die benötigt wird, um eine 25-W-Glühbirne 5 Minuten lang zu betreiben), um 1.000 Fragen zu bearbeiten. Das am wenigsten effiziente Bilderzeugungsmodell hingegen benötigte bis zu 1.600 Wh, um 1.000 hochauflösende Bilder zu erzeugen. Darüber hinaus stellen sie fest, dass Zusammenfassungs- und Textklassifizierungsaufgaben relativ wenig Energie verbrauchen, ,,allerdings immer noch rund zehnmal so viel Energie wie die Verarbeitung einer Websuchanfrage“.
Welche Modelle konkret am sparsamsten beziehungsweise am energiehungrigsten waren, schreiben die Autoren leider nicht. Als durchaus repräsentativ könnte aber ein vergleichsweise kleines LLM wie OLMo-7B gelten, das vom Allen Institute in Seattle, Washington, entwickelt wurde. Das verbraucht laut dem Artikel 43 Wh für 1.000 Textantworten, während Googles Gemma-7B und ein Modell namens Yi-6B LLM des in Peking ansässigen Unternehmens 01.AI 53 Wh bzw. 147 Wh verbrauchten.
KI-Nutzer:innen könnten Marktsignal senden
„KI-Nutzer:innen stehen an vorderster Front und interagieren mit KI-Produkten in verschiedenen Anwendungen. Eine Präferenz für energieeffiziente Lösungen könnte ein starkes Marktsignal senden und Entwickler und Unternehmen dazu ermutigen, Nachhaltigkeit zu priorisieren“, schreibt die Initiative. Es ist allerdings damit zu rechnen, dass die kommerziellen Betreiber großer KI-Modelle, wenn sie sich überhaupt auf diese Diskussion einlassen, zunächst über viele technische Details streiten werden.
So ist beispielsweise der CO2-Fußabdruck eines KI-Modells schlicht sehr stark davon abhängig, wie der Strom produziert wird, mit dem die Datenzentren betrieben werden. Laut einer Studie von Jesse Dodge vom Allen Institute und Kollegen von 2023 betrugen die CO2-Emission für das Training eines großen Sprachmodells mit sechs Milliarden Parametern 22–28 Kilogramm Emission in Deutschland, Zentral-Amerika und Australien, während es in Frankreich, Norwegen oder in Großbritannien nur zwischen 10 und 15 Kilogramm waren.