ChatGPT und die Umwelt: Forscher warnen vor hohem Energiebedarf von KI

KI-Chatbots wie ChatGPT oder Bard sind seit Monaten in aller Munde. Ein Aspekt, der in der Diskussion allerdings noch nicht sehr präsent ist, sind die Umweltauswirkungen, die die künstlichen Intelligenzen mit sich bringen. Im Fokus steht dabei der gewaltige Energieverbrauch.
KI-Branche könnte bald 3,5 Prozent des weltweiten Stroms verbrauchen
Analyst:innen gehen davon aus, dass der CO2-Fußabdruck von KI mindestens genauso schlimm sein könnte wie der von Bitcoin-Mining. Der wird medial sehr kritisch gesehen – und erzeugt mehr Treibhausgase als ganze Länder. Für die Kühlung der KI-Server werden laut Forscher:innen Unmengen von Wasser benötigt.
Laut der Wissenschaftsseite Science Alert ist die gesamte IT-Branche für rund zwei Prozent der weltweiten CO2-Emissionen verantwortlich. Wenn KI ihren bisher eingeschlagenen Weg fortsetzt, wird sie bis 2030 3,5 Prozent des weltweiten Stroms verbrauchen, prognostiziert das Beratungsunternehmen Gartner.
Genaue Zahlen sind schwer zu berechnen, da sich Großkonzerne bedeckt halten
„Wenn man den Planeten mit KI retten will, muss man grundsätzlich auch den ökologischen Fußabdruck berücksichtigen“, sagt Sasha Luccioni, Ethikforscherin bei der Open-Source-Plattform für maschinelles Lernen Hugging Face, gegenüber dem Guardian. „Es macht keinen Sinn, einen Wald niederzubrennen und dann KI zu nutzen, um die Abholzung zu verfolgen.“
Wie das Kryptowährungs-Mining ist auch die KI-Branche auf leistungsstarke Prozessoren angewiesen, um ihre riesigen Datenmengen zu verarbeiten. ChatGPT wird von riesigen Rechenzentren betrieben, die Zehntausende dieser energiezehrenden Computerchips verwenden. Allein OpenAI gibt für seine Rechenkosten so schätzungsweise 700.000 US-Dollar pro Tag aus, um seinen Chatbot-Dienst mehr als 100 Millionen Benutzer:innen weltweit bereitzustellen.
Wie groß die Auswirkungen auf die Umwelt sind, ist schwer zu berechnen, da die großen Konzerne „nicht offenlegen, wie viel Kohlenstoff ihre Modelle ausstoßen“, erklärt Roy Schwartz von der Universität Jerusalem gegenüber Bloomberg.
Beeindruckender Energieverbrauch beim Training von GPT-3
Forscher:innen schätzen, dass das Training von GPT-3 1.287 Megawattstunden Strom und 10.000 Computerchips erfordert hat. Damit könnten in den USA ein Jahr lang etwa 121 Haushalte mit Strom versorgt werden. Die 550 Tonnen Kohlendioxid, die dabei entstanden, entsprechen 33 Flügen von Australien nach Großbritannien.
GPT-4 wurde mit 570-mal mehr Parametern trainiert als GPT-3. Das deutet darauf hin, dass es noch mehr Energie verbraucht als sein Vorgänger. Das Thema Energieeffizienz wird in Zukunft also auch rund um die KI-Branche noch relevanter werden.