ChatGPT in Suchmaschinen wird gigantischen ökologischen Fußabdruck erzeugen
Microsoft hat den flächendeckenden Einsatz von ChatGPT in seiner Suchmaschine Bing und seinem Browser angekündigt. Bei Google wird die KI Bard heißen. Es dürfte nicht mehr lange dauern, bis KI allgegenwärtig im Internet-Alltag aller sein wird.
Umweltaspekte kommen zu kurz
Nun werden die verschiedensten Aspekte dieses Einsatzes diskutiert, nur ein Gesichtspunkt wurde bislang kaum betrachtet – die Auswirkungen des KI-Gebrauchs auf die Umwelt. Das hat nun das Magazin Wired geändert und verschiedene Fachleute zu Wort kommen lassen.
„Die Indexierung und das Durchsuchen von Internetinhalten erfordert ohnehin bereits enorme Ressourcen, aber die Einbeziehung von KI erfordert eine andere Art von Feuerkraft“, so Alan Woodward, Experte für Cybersicherheit an der University of Surrey im Vereinigten Königreich, gegenüber dem Magazin.
„Sie erfordert sowohl Rechenleistung als auch Speicherplatz und eine effiziente Suche. Jedes Mal, wenn sich die Online-Verarbeitung weiterentwickelt, steigt der Energie- und Kühlungsbedarf großer Rechenzentren erheblich an“, erläutert er.
Auch der Informatiker Carlos Gómez-Rodríguez von der spanischen Universität Coruña erklärte gegenüber Wired, dass das Training der großen Sprachmodelle (LLMs), auf denen ChatGPT läuft, so ressourcenintensiv ist, dass eigentlich „nur die großen Tech-Unternehmen sie trainieren können.“
Skalierung schwierig, weil sehr kostenintensiv
Über diese Ressourcen möchten indes weder Microsoft noch Google besonders ausführlich sprechen. So gibt es bislang keine offiziellen Informationen zur benötigten Rechenleistung.
Laut einer unabhängigen Analyse soll allein das Training des GPT-3-Modells von OpenAI – die Basis von ChatGPT – 1.287 Megawattstunden verbraucht haben. Das soll in etwa das Äquivalent dessen sein, was „eine einzelne Person für 550 Hin- und Rückflüge zwischen New York und San Francisco benötigt“.
Das mag auf den ersten Blick nicht so schlimm erscheinen. Gómez-Rodríguez gibt aber zu bedenken, „dass Sie es nicht nur trainieren, sondern es auch ausführen und Millionen von Nutzern bedienen müssen“. Wird die KI flächendeckend eingesetzt, dürfte es indes eher um Milliarden von Nutzenden gehen.
Bedarf an Rechenleistung steigt drastisch
Bezogen auf die einzelne Suche lässt sich das ebenfalls plakativ formulieren. „Mindestens vier- oder fünfmal mehr Rechenleistung pro Suche“, schätzt Qscale-Chef Martin Bouchard. Qscale betreibt nachhaltige Rechenzentren.
Dabei müsse bedacht werden, so Bouchard, dass der Leistungshunger weiter steigen wird. Denn im laufenden Betrieb müsste die KI auf aktuellen Daten und nicht nur auf Datensätzen aus einer Momentaufnahme trainiert werden. Der Rechenzentrumsbetreiber ist sich sicher, dass das „die derzeitigen Rechenzentren und die vorhandene Infrastruktur nicht bewältigen können“.
ChatGPT läuft auf dem 5. größten Rechner der Welt, mit 180.000 CPU’s und 10tausenden GPU’s.
Die Daten liegen in Microsofts Azure Cloud…
Den enormen Strombedarf muss man jedoch in Relation der zu vernichtenden Jobs setzen. Millionen von wegfallenden Arbeitsplätzen sparen Energie ;-)
„1.287 Megawattstunden“, also 1,3 GWh, also etwa 1/50 von dem was die größte Offshore Windkraftanlage im Jahr bringt, oder etwa 1/10 was die größte Onshore Windkraftanlage im Jahr bringt.
Klingt für mich nicht nach sonderlich viel für das was es leistet. Kryptomining bringt halt nix und verbraucht deutlich mehr.
Einfach die Rechenzentren mit Wärmeerzeugung kombinieren und EE betreiben, schon hat man hier Synergien geschaffen was den Stromverbrauch relativiert.
ChatGPT in wird gigantischen einsparpotential erzeugen