ChatGPT: So viel Geld muss OpenAI täglich in den Betrieb des Chatbots stecken

Wie The Information berichtet, verschlingt die schiere Aufrechterhaltung des Betriebs des KI-Tools ChatGPT gewaltige Summen. Nach Berechnungen des Marktforschungsunternehmens Semi-Analysis musste der Hersteller OpenAI schon bislang bis zu 700.000 Dollar pro Tag für den Betrieb der erforderlichen, leistungsfähigen Infrastruktur ausgeben.
Wie Semi-Analysis erläutert, sind „die meisten dieser Kosten“ auf die „teuren Server, die sie benötigen“, zurückzuführen. Chefanalyst Dylan Patel geht gegenüber dem Business Insider sogar davon aus, dass die Kosten aktuell noch höher sein sollten.
Denn die Berechnungen seines Unternehmens basierten auf GPT-3, der Vorgängerversion, die nun die ältere und jetzt kostenlose Version von ChatGPT antreibt. Das neueste Sprachmodell von OpenAI, GPT-4, würde laut Patel noch mehr kosten.
Das Problem ist typisch für alle Arten von KI-Anwendungen, weil sie von teuren Spezial-Chips angetrieben werden, die unglaublich viel Strom verbrauchen. Das ist der Hauptgrund, warum KI-Firmen wie Google und Amazon, aber auch das hinter OpenAI stehende Microsoft massiv in die Entwicklung eigener Chips investieren.
Während Google und Amazon ihre Chips schon im Produktiveinsatz verwenden, entwickelt Microsoft seit 2019 und immer noch an seinem intern als „Athena“ bezeichneten Chip. Inzwischen soll er laut The Information einigen wenigen Microsoft- und OpenAI-Mitarbeitern zur Verfügung stehen.
„Athena, wenn er wettbewerbsfähig ist, könnte die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, ist sich Patel sicher. Die bislang verwendeten Nvidia-Chips scheint Microsoft indes nicht vollständig ablösen zu wollen. Immerhin haben beide Unternehmen jüngst eine umfangreiche und auf mehrere Jahre angelegte KI-Partnerschaft vereinbart.
Generell galt bislang für KI-Modelle, dass ihre Leistungsfähigkeit direkt mit ihrer Größe korreliert. Die wiederum korreliert direkt mit den Betriebskosten.
OpenAI-Chef Sam Altman glaubt indes, dass „wir am Ende der Ära“ der „riesigen KI-Modelle“ stehen. Große Sprachmodelle wie ChatGPT hätten aufgrund ihrer enormen Größe einen Punkt erreicht, an dem der Ertrag abnimmt.
Mit einer Größe von mehr als einer Billion Parametern könnte OpenAIs neuestes GPT-4-Modell bereits an der Grenze der praktischen Skalierbarkeit angelangt sein. Zu diesem Ergebnis kommt jedenfalls OpenAI in einer eigenen Analyse.
Dass die hohen Kosten des Betriebs OpenAI allerdings in finanzielle Schwierigkeiten bringen könnten, ist angesichts des riesigen Erfolgs von ChatGPT wohl auszuschließen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team