Studie: Dank Cloud steigt der Stromverbrauch von Rechenzentren kaum noch an

Eine am vergangenen Freitag im Science-Magazin veröffentlichte Studie zeigt eine unerwartete Entwicklung. Sie zeigt nämlich, dass der Energieverbrauch moderner Data-Center trotz stetiger massiver Leistungssteigerung weit weniger stark wächst als bislang vermutet.
Steigende Rechenleistung kostet proportional mehr Strom?
Das ist eine bedeutsame Erkenntnis. Denn die weltweiten Rechenzentren stehen für ein Prozent des globalen Energiebedarfs. Das entspricht in etwa dem Stromverbrauch von 17 Millionen Haushalten. Bislang war stets vorhergesagt worden, dass sich dieser Bedarf in Rechenzentren über die nächste Dekade vermehrfachen werde. Im Worst Case wurde eine Vervierfachung angenommen.
Das hätte die weltweite Stromversorgung perspektivisch stark unter Druck gesetzt. Auch von politischer Seite war daraufhin der vermeintlich massiv steigende Energiebedarf moderner Rechenzentren thematisiert worden. Dabei wurde stets die einfache Gleichung aufgemacht, dass die doppelte Rechenleistung auch die doppelte Energie kosten müsste.
Einfache Rechnung erweist sich als falsch
Diese Gleichung erweist sich allerdings immer deutlicher als falsch. Im Rahmen der Studie „Recalibrating global data center energy-use estimates“, also „Neuberechnung der Verbrauchsschätzung globaler Rechenzentren“, haben Forscher der Northwestern University, der University of California, dem Lawrence Berkeley National Laboratory und der Firma Koomey Analytics gemeinsam nachgerechnet.
Dabei fanden sie heraus, dass der Zuwachs an Rechenleistung zwischen 2010 und 2018 um den Faktor 6 lag, während der Mehrbedarf an Energie in der gleichen Zeit nur um sechs Prozent gestiegen war. Treiber dieser Entwicklung ist nach den Erkenntnissen der Studien-Autoren der Aufstieg der Cloud.
Konzentration der Datenverarbeitung auf die Cloud wirkt sich günstig aus
Die Cloud habe nämlich die Entwicklung hin zu immer größeren Rechenzentren begünstigt. Waren in den Nuller Jahren rund 79 Prozent der weltweiten Rechenzentren in der Hand kleiner und mittlerer Player, decken heutzutage die großen Tech-Firmen wie Amazon, Microsoft oder Google 89 Prozent des Bedarfs an Rechenzentrumsleistung ab.
Und diese riesigen Rechenzentren sind nicht nur auf Leistung ausgerichtet. Schon im eigenen Interesse würden die Betreiber laut Studien-Autor Eric Masanet von der Northwestern University das letzte Quäntchen Energieeffizienz aus den verwendeten Bauteilen und deren Prozessumgebung pressen. So warnt Masanet gegenüber der New York Times davor, die großen Cloud-Rechenzentren als „Bad Guys“ zu verurteilen. Im Gegenteil seien sie die energieeffizientesten Computerfarmen weltweit.
Einfache Rechnung nicht aus der Luft gegriffen
Dabei ist die landläufige Meinung, mehr Computerleistung bedeute gleichzeitig höheren Energiebedarf, nicht völlig aus der Luft gegriffen. Tatsächlich hatte sich der Stromverbrauch in Rechenzentren im Zeitraum von 2000 bis 2005 verdoppelt.
Die amerikanische Umweltschutzbehörde war in ihrer Prognose im Jahr 2007 davon ausgegangen, dass sich im Zeitraum 2005 bis 2010 eine neuerliche Verdopplung zeigen würde. Schon diese Prognose hatte sich in der Nachschau im Jahr 2011 als falsch erwiesen. Immerhin war der Mehrverbrauch mit letztlich 56 Prozent aber immer noch deutlich.
Was passiert in drei bis vier Jahren?
Die neuen Berechnungen machen Hoffnung. Allerdings weisen die Studienautoren darauf hin, dass sich die Prognose in drei bis vier Jahren verschlechtern könnte. In den nächsten paar Jahren müsse sich zeigen, wie der Weg in eine CO2-neutrale, energieeffiziente Zukunft gelingen könne.
Passend dazu: Dezentrale Cloud: Dell bringt Edge-Server und „Mini-Rechenzentrum“