Wie Rechenzentren mit einer minimalen Code-Anpassung 30 Prozent Strom sparen sollen
Im Herbst 2024 haben Forscher:innen mit Perseus ein Open-Source-Tool vorgestellt, das den Stromverbrauch beim Training von großen Sprachmodellen wie OpenAIs GPT um bis zu 30 Prozent senken können soll. Einfach, indem die Auslastung der für das KI-Training genutzten GPUs per Software effizienter gestaltet wird.
Verarbeitung von Netzwerkpaketen optimieren
Jetzt haben kanadische Informatiker:innen eine weitere einfache Möglichkeit gefunden, den Energiebedarf von Rechenzentren deutlich zu mindern. Dabei geht es um eine Optimierung der Verarbeitung von Netzwerkpaketen, wie die Univeristy of Waterloo mitteilt.
Die Art und Weise, wie Netzwerkpakete derzeit in Rechenzentren verarbeitet würden, sei ziemlich ineffizient, so die Wissenschaftler:innen. Eine kleine Änderung der Reihenfolge, in der die Aufgaben abgearbeitet werden, soll eine Reduzierung des Stromverbrauchs von bis zu 30 Prozent bringen.
Das Ganze sei vergleichbar mit der Optimierung eines Produktionsablaufs, um unnötige Bewegungen zu vermeiden, so Martin Karsten, Professor für Informatik an der Universität Waterloo. Durch eine Umstrukturierung des Prozesses der Netzwerkpaket-Verarbeitung konnten Karsten und sein Team die Nutzung des CPU-Caches erheblich verbessern.
Änderung von 30 Zeilen Linux-Code reicht
Dazu müssen lediglich etwa 30 Zeilen Linux-Code geändert werden. Linux wird in den Rechenzentren aller großen Tech-Konzerne eingesetzt. Amazon, Google oder Meta seien aber sehr vorsichtig, was Änderungen angehe.
Immerhin ist es den Wissenschaftler:innen schon gelungen, dass ihre Anpassung in den neuesten Linux-Kernel (6.13) aufgenommen wurde. Die Tech-Konzerne müssten jetzt lediglich den Schalter umlegen, so Karsten, damit weltweit Energie im Umfang von mehreren Gigawattstunden gespart werden könnte.
Energiehunger von Datenzentren senken
Letztlich könnte fast jeder Internetdienst damit den Energiehunger einzelner Anfragen, etwa Google-Suchen oder ChatGPT-Prompts, deutlich reduzieren. Und der Energiehunger der Serverfarmen soll vor allem durch KI in den kommenden Jahren noch weiter steigen.
Einer Prognose von Goldman Sachs vom Mai 2024 zufolge soll die „KI-Revolution“ den Stromverbrauch in Datenzentren bis 2030 um 160 Prozent nach oben treiben. Dann sollen Datenzentren weltweit statt aktuell rund 400 Terawattstunden pro Jahr über 1.000 Terawattstunden an Energie benötigen.