Anzeige
Anzeige
News

ChatGPT: So viel Geld muss OpenAI täglich in den Betrieb des Chatbots stecken

Das KI-Unternehmen OpenAI soll pro Tag mindestens 700.000 US-Dollar aufwenden müssen, nur um den Betrieb von ChatGPT aufrechtzuerhalten. Mit der neuen Version GPT-4 könnte es noch weit teurer werden.

2 Min.
Artikel merken
Anzeige
Anzeige
OpenAI entwickelt unter anderem ChatGPT. (Foto: Shutterstock-Ascannio)

Wie The Information berichtet, verschlingt die schiere Aufrechterhaltung des Betriebs des KI-Tools ChatGPT gewaltige Summen. Nach Berechnungen des Marktforschungsunternehmens Semi-Analysis musste der Hersteller OpenAI schon bislang bis zu 700.000 Dollar pro Tag für den Betrieb der erforderlichen, leistungsfähigen Infrastruktur ausgeben.

Anzeige
Anzeige

Teure Server-Infrastruktur kostet OpenAI richtig Geld

Wie Semi-Analysis erläutert, sind „die meisten dieser Kosten“ auf die „teuren Server, die sie benötigen“, zurückzuführen. Chefanalyst Dylan Patel geht gegenüber dem Business Insider sogar davon aus, dass die Kosten aktuell noch höher sein sollten.

Denn die Berechnungen seines Unternehmens basierten auf GPT-3, der Vorgängerversion, die nun die ältere und jetzt kostenlose Version von ChatGPT antreibt. Das neueste Sprachmodell von OpenAI, GPT-4, würde laut Patel noch mehr kosten.

Anzeige
Anzeige

Das Problem ist typisch für alle Arten von KI-Anwendungen, weil sie von teuren Spezial-Chips angetrieben werden, die unglaublich viel Strom verbrauchen. Das ist der Hauptgrund, warum KI-Firmen wie Google und Amazon, aber auch das hinter OpenAI stehende Microsoft massiv in die Entwicklung eigener Chips investieren.

Hohe Stromkosten: KI-Unternehmen wollen eigene Chips

Während Google und Amazon ihre Chips schon im Produktiveinsatz verwenden, entwickelt Microsoft seit 2019 und immer noch an seinem intern als „Athena“ bezeichneten Chip. Inzwischen soll er laut The Information einigen wenigen Microsoft- und OpenAI-Mitarbeitern zur Verfügung stehen.

Anzeige
Anzeige

„Athena, wenn er wettbewerbsfähig ist, könnte die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, ist sich Patel sicher. Die bislang verwendeten Nvidia-Chips scheint Microsoft indes nicht vollständig ablösen zu wollen. Immerhin haben beide Unternehmen jüngst eine umfangreiche und auf mehrere Jahre angelegte KI-Partnerschaft vereinbart.

Generell galt bislang für KI-Modelle, dass ihre Leistungsfähigkeit direkt mit ihrer Größe korreliert. Die wiederum korreliert direkt mit den Betriebskosten.

Anzeige
Anzeige

Ende einer Ära: OpenAI-Chef glaubt nicht an noch größere Modelle

OpenAI-Chef Sam Altman glaubt indes, dass „wir am Ende der Ära“ der „riesigen KI-Modelle“ stehen. Große Sprachmodelle wie ChatGPT hätten aufgrund ihrer enormen Größe einen Punkt erreicht, an dem der Ertrag abnimmt.

Mit einer Größe von mehr als einer Billion Parametern könnte OpenAIs neuestes GPT-4-Modell bereits an der Grenze der praktischen Skalierbarkeit angelangt sein. Zu diesem Ergebnis kommt jedenfalls OpenAI in einer eigenen Analyse.

Dass die hohen Kosten des Betriebs OpenAI allerdings in finanzielle Schwierigkeiten bringen könnten, ist angesichts des riesigen Erfolgs von ChatGPT wohl auszuschließen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige