Künstliche Intelligenz: Wie viel Strom verbraucht ChatGPT wirklich für eine Antwort?

ChatGPT könnte doch nicht so viel Energie verbrauchen, wie bisher angenommen. Zu diesem Ergebnis kommt eine Studie von Epoch AI, einem auf Künstliche Intelligenz spezialisierten Forschungsinstitut.
Drei Wattstunden pro Anfrage übertrieben?
Oft zitiert wurde im letzten Jahr eine Analyse von Bestbrokers, nach der eine Suchanfrage bei ChatGPT drei Wattstunden Strom benötigt. 2,9 Wattstunden, um genau zu sein. Zum Vergleich: Eine Suche bei Google braucht nur eine Energiemenge von 0,3 Wattstunden. Allerdings wurde in der Studie, die sich auf das Suchvolumen vom November 2023 bezogen hat, noch nicht berücksichtigt, dass Google seine Suchmaschine mittlerweile ebenfalls mit Künstlicher Intelligenz aufgemotzt hat.
Hochgerechnet auf das Jahr würden laut der alten Studie für ChatGPT 227 Millionen Kilowattstunden anfallen. Die Kosten dafür entsprächen 30 Millionen US-Dollar. Damit könnte man Zwergstaaten wie Gibraltar ein Jahr mit Strom versorgen, rechnete Bestbrokers damals vor.
Zehnmal weniger Stromverbrauch als in alter Studie
Die neue Studie von Epoch AI nimmt Bezug auf die Zahlen von 2023 und stellt sie in Relation zu aktuellen Schätzungen. Das Ergebnis: Eine Suchanfrage mit der ChatGPT verbrauche nur 0,3 Wattstunden. Also das Zehnfache weniger als in der alten Studie angenommen. 0,3 Wattstunden entspreche der fünfminütigen Nutzung eines handelsüblichen Laptops.
Epoch AI verwendete für sein Experiment das gängigste Modell GPT-4o, räumte aber ein, dass andere Versionen wie o1 oder o3-mini energiehungriger sein können. Sie sind aber weniger verbreitet.
Die deutliche Differenz komme durch effizientere Modelle und Hardware zustande, schreibt Epoch AI. Zudem seien frühere Berechnungen zu pessimistisch bei der Schätzung benötigter Token gewesen. Also den Datenportionen, in die Large Language Models ihre Informationen aufteilen und übermitteln.
Stromverbrauch hängt von Nutzung ab
Der Energieverbrauch hängt natürlich auch davon ab, wie man ChatGPT einsetzt. Die von Epoch AI berechneten 0,3 Wattstunden beziehen sich auf die typische Nutzung des Chatbots von OpenAI. Anfragen mit größerem Input könnten schon mal 2,5 Wattstunden aufbrauchen.
Googles neue KI-Suche geht nach hinten los
Als Maximum einer Anfrage nimmt das Forschungsinstitut Energiekosten von 40 Kilowattstunden an. Damit würden ChatGPT-Nutzer:innen den einminütigen Stromverbrauch eines normalen US-amerikanischen Haushalts verdoppeln.
> Als Maximum einer Anfrage nimmt das Forschungsinstitut Energiekosten von 40 Kilowattstunden an.
Eher 40 Wattstunden, oder?
„0,3 Wattstunden entspreche der fünfminütigen Nutzung eines handelsüblichen Laptops.“
Da kann etwas nicht stimmen. Das wären 3,6 Watt. Welches „handelsübliche Laptop“ verbraucht denn bitte 3,6 Watt?Da ist wohl das Komma verrutscht. Das Zehnfache dürfte als Durchschnitt durchgehen.