ChatGPT: So viel Geld muss OpenAI täglich in den Betrieb des Chatbots stecken
Wie The Information berichtet, verschlingt die schiere Aufrechterhaltung des Betriebs des KI-Tools ChatGPT gewaltige Summen. Nach Berechnungen des Marktforschungsunternehmens Semi-Analysis musste der Hersteller OpenAI schon bislang bis zu 700.000 Dollar pro Tag für den Betrieb der erforderlichen, leistungsfähigen Infrastruktur ausgeben.
Teure Server-Infrastruktur kostet OpenAI richtig Geld
Wie Semi-Analysis erläutert, sind „die meisten dieser Kosten“ auf die „teuren Server, die sie benötigen“, zurückzuführen. Chefanalyst Dylan Patel geht gegenüber dem Business Insider sogar davon aus, dass die Kosten aktuell noch höher sein sollten.
Denn die Berechnungen seines Unternehmens basierten auf GPT-3, der Vorgängerversion, die nun die ältere und jetzt kostenlose Version von ChatGPT antreibt. Das neueste Sprachmodell von OpenAI, GPT-4, würde laut Patel noch mehr kosten.
Das Problem ist typisch für alle Arten von KI-Anwendungen, weil sie von teuren Spezial-Chips angetrieben werden, die unglaublich viel Strom verbrauchen. Das ist der Hauptgrund, warum KI-Firmen wie Google und Amazon, aber auch das hinter OpenAI stehende Microsoft massiv in die Entwicklung eigener Chips investieren.
Hohe Stromkosten: KI-Unternehmen wollen eigene Chips
Während Google und Amazon ihre Chips schon im Produktiveinsatz verwenden, entwickelt Microsoft seit 2019 und immer noch an seinem intern als „Athena“ bezeichneten Chip. Inzwischen soll er laut The Information einigen wenigen Microsoft- und OpenAI-Mitarbeitern zur Verfügung stehen.
„Athena, wenn er wettbewerbsfähig ist, könnte die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, ist sich Patel sicher. Die bislang verwendeten Nvidia-Chips scheint Microsoft indes nicht vollständig ablösen zu wollen. Immerhin haben beide Unternehmen jüngst eine umfangreiche und auf mehrere Jahre angelegte KI-Partnerschaft vereinbart.
Generell galt bislang für KI-Modelle, dass ihre Leistungsfähigkeit direkt mit ihrer Größe korreliert. Die wiederum korreliert direkt mit den Betriebskosten.
Ende einer Ära: OpenAI-Chef glaubt nicht an noch größere Modelle
OpenAI-Chef Sam Altman glaubt indes, dass „wir am Ende der Ära“ der „riesigen KI-Modelle“ stehen. Große Sprachmodelle wie ChatGPT hätten aufgrund ihrer enormen Größe einen Punkt erreicht, an dem der Ertrag abnimmt.
Mit einer Größe von mehr als einer Billion Parametern könnte OpenAIs neuestes GPT-4-Modell bereits an der Grenze der praktischen Skalierbarkeit angelangt sein. Zu diesem Ergebnis kommt jedenfalls OpenAI in einer eigenen Analyse.
Dass die hohen Kosten des Betriebs OpenAI allerdings in finanzielle Schwierigkeiten bringen könnten, ist angesichts des riesigen Erfolgs von ChatGPT wohl auszuschließen.