
KI-Chatbot: Kühlung in Rechenzentren oft mit Trinkwasser. (Foto: Pongmoji/Shutterstock)
Das Training und der Betrieb von KI-Chatbots in Rechenzentren verbrauchen Unmengen an Energie und Wasser. Die Tech-Konzerne wie Google, Microsoft oder OpenAI lassen sich dabei nicht gern in die Karten schauen.
Vor einigen Wochen kam eine unabhängige Analyse zu dem Schluss, dass allein das Training von GPT-3, der Basis von ChatGPT, knapp 1.300 Megawattstunden an Strom verbraucht haben soll. Das entspricht dem Jahresverbrauch von fast 200 Menschen.
Vier Forscher der Universitäten von Colorado Riverside und Texas Arlington haben jetzt speziell den Wasserverbrauch beim Training von künstlicher Intelligenz unter die Lupe genommen.
Für die Kühlung der Rechenzentren werde meist Trinkwasser verwendet, so die Kritik. Dadurch soll Korrosion und Bakterien in den Anlagen vorgebeugt werden.
Den Berechnungen der Forscher zufolge habe allein das GPT-3-Training 700.000 Liter Wasser verbraucht. Das entspricht ungefähr dem täglichen Trinkwasserverbrauch von über 5.000 Menschen.
Wie beim Stromverbrauch mussten die Forscher ihre Berechnungen allerdings auf Schätzungen stützen. Denn OpenAI hat bisher nicht verraten, wie lange GPT-3 trainiert wurde.
Microsoft wiederum hat angegeben, dass der für die KI-Entwicklung eingesetzte neue Supercomputer des Konzerns aus 10.000 Grafikkarten und 285.000 Prozessorkernen bestehe, wie die Futurezone schreibt.
Laut den Forschern entspreche das einem Wasserverbrauch, wie er bei der Herstellung von 370 BMW oder 320 Teslas benötigt würde.
Mit dem Ende des Trainings ist es aber mit dem hohen Wasserverbrauch für die Kühlung der Rechenzentren nicht getan. Auch der Betrieb von ChatGPT verschlingt viele Ressourcen. Laut den Forschern benötigt eine Konversation mit 25 bis 50 einzelnen Fragen rund 500 Milliliter Wasser.
Darüber hinaus, so die Vermutung, habe das Training von GPT-4, dem neuesten ChatGPT-Basismodell noch mehr Wasser benötigt. Die globale Erwärmung setzt den Rechenzentren zusätzlich zu – und erhöht den Wasserbedarf zusätzlich.
Und: Googles Chatbot Bard und das dahinterstehende Modell Lamda könnten noch deutlich mehr Wasser verbraucht haben, da einige der Google-Rechenzentren in heißen Gebieten wie Texas stehen. Hier gehen die Forscher von mehreren Millionen Litern Wasser aus.
Die Forscher haben übrigens nicht das Wasser berechnet, das nach dem Kühlvorgang wieder zurück in Flüsse oder Seen geleitet wird. Vielmehr handelt es sich bei den Berechnungen um Trinkwasser, das in Kühltürmen verdampft.
„Der Wasser-Fußabdruck von KI-Modellen darf nicht länger ignoriert werden“, so die Forderung der Forscher. „Der Wasserverbrauch muss als Teil der gemeinsamen Bemühungen zur Bekämpfung globaler Wasserprobleme als Priorität angegangen werden.“
Ein erster Schritt sei, dass die Tech-Konzerne den Wasserverbrauch ihrer KI-Systeme angeben. Außerdem sollten die für das KI-Training notwendigen Rechenzentren vorrangig in Gegenden betrieben werden, in denen es nicht so heiß sei.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Würde ich meinen vorgesetzten technischen Entwickler 50 Fragen stellen und er müsste die alle beantworten, dann würde der mehr als 1 Liter trinken.
Das Wasser wurde nicht „verbraucht“, sondern schwimmt meist entweder in geschlossenen Kreisläufen, oder verdampft und kommt als Wolke wieder auf den Boden.
Es ist also nicht für immer weg.
unfassbar wie irrelevant diese news ist…1 Liter…und 50 fragen sind doch extrem viel. wenn man sich die gleichen infos die chat gpt einem zusammensucht einzeln raussucht mit google suchen kommt man aufs gleiche hinaus, wenn nicht sogar deutlich mehr.
1kg weniger fleisch im jahr essen würde rein theoretisch schon das zehntausendfache von einer chat gpt frage ausgleichen
Ich würde mir wünschen, dass ihr als Redaktion diese Zahlen in den richtigen Kontext setzt und diskutiert, anstatt es einfach nur runterzuschreiben.
„Den Berechnungen der Forscher zufolge habe allein das GPT-3-Training 700.000 Liter Wasser verbraucht. Das entspricht ungefähr dem täglichen Trinkwasserverbrauch von über 5.000 Menschen.“
Das trainierte Modell wurde von über 100 Mio. Menschen genutzt, davon nutzen es 13 Mio. Menschen täglich. Ich bin keine Redakteurin aber da scheint der Wasserverbrauch in Relation nichtig zu sein.