Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

OpenAI-Chef Sam Altman zieht beunruhigenden Vergleich: Ist GPT-5 die Atombombe der KI-Welt?

Sam Altman, CEO und Mitgründer von OpenAI, hat die Entwicklung des neuen Modells GPT-5 mit dem Bau einer Atombombe verglichen – und schürt damit Erwartungen, aber auch große Zweifel am Einsatz von KI.

Von Noëlle Bölling
2 Min.
Artikel merken
Anzeige
Anzeige
Sam Altman äußert Angst vor dem eigenen KI-Modell. (Foto: jamesonwu1972/ Shutterstock)

GPT-5, das neue KI-Modell von OpenAI, steht offenbar kurz vor der Veröffentlichung. Wie Techradar berichtet, gab CEO Sam Altman kürzlich im Podcast This Past Weekend, der vom Comedian Theo Von moderiert wird, einige Einblicke. Seine Aussagen zu GPT-5 haben allerdings eher Besorgnis als Begeisterung entfacht.

Anzeige
Anzeige

OpenAI heizt den KI-Hype weiter an

OpenAI zählt zu den wichtigsten KI-Pionieren der Gegenwart. Obwohl das Unternehmen erst im Jahr 2015 gegründet wurde, beläuft sich die aktuelle Bewertung auf mehr als 300 Milliarden Dollar. Vor allem die Veröffentlichung des KI-Chatbots ChatGPT im November 2022 hat einen enormen Hype ausgelöst. Seitdem liefern sich einige der größten Tech-Konzerne der Welt einen Wettstreit um die KI-Vorherrschaft und bringen innerhalb kürzester Zeit immer neue Modelle und Produkte auf den Markt.

Über GPT-5, das neue KI-Modell von OpenAI, ist bislang noch wenig bekannt. Gerüchten zufolge soll es hinsichtlich Geschwindigkeit, Kontextverständnis und Multimodalität das Vorgängermodell GPT-4 deutlich übertreffen. Es ist auch denkbar, dass es besser darin wird, Aufgaben eigenständig auszuführen und sich langfristig an Nutzer:innen zu erinnern – ein Schritt in Richtung sogenannter „autonomer Agenten“, die im Alltag noch mehr Aufgaben übernehmen sollen. Konkrete Ankündigungen oder ein Veröffentlichungsdatum des neuen Modells gibt es aber noch nicht.

Anzeige
Anzeige

Zwischen Produktlaunch und Kontrollverlust

Im Gespräch mit Podcast-Host Theo Von hat OpenAI-Chef Sam Altman jetzt erstmals persönlich einige Einblicke in seine Erfahrungen mit GPT-5 geteilt. Dabei betonte er nicht nur die Leistungsfähigkeit des neuen KI-Modells, sondern äußerte sich auch besorgt über die fehlende Kontrolle im Bereich der KI-Entwicklung. Es gebe schlichtweg „keine Erwachsenen im Raum“, sagte er mit Blick auf den aktuellen Stand der Regulierung. Die Technologie entwickle sich schneller als die politischen und gesellschaftlichen Strukturen, die sie eigentlich begrenzen sollten.

Altman verglich die Arbeit am Modell sogar mit dem Manhattan-Projekt – also dem geheimen Bau einer Atombombe während des Zweiten Weltkriegs. Die Tatsache, dass ein führender Kopf der KI-Branche seine eigene Technologie mit einem der folgenreichsten wissenschaftlichen Meilensteine der Menschheitsgeschichte vergleicht, hat für Irritationen gesorgt. Denn während Altman zwar auf die Risiken von KI aufmerksam machen will, trägt er mit seinem Unternehmen gleichzeitig maßgeblich zu dieser Entwicklung bei.

Dystopie – oder clevere Marketing-Strategie?

Was genau ihn an GPT-5 so beunruhigt, lässt Altman offen. Konkrete technische Details oder Szenarien nennt er nicht. Stattdessen bleibt er bei vagen Andeutungen. Der KI-Vordenker ist für diesen ungewöhnlichen Kommunikationsstil schon bekannt: So äußerte er sich beispielsweise begeistert über poetische Texte, die eine KI verfasst hatte – während OpenAI sich aufgrund potenzieller Urheberrechtsverletzungen im Konflikt mit der Kreativbranche befindet. Ebenso prahlte Altman damit, dass AGI, also eine künstliche Intelligenz, die der menschlichen entspricht, schon 2025 erreicht werden könnte, nur um kurz darauf medienwirksam zurückzurudern.

Ob GPT-5 tatsächlich eine Zeitenwende einleitet oder einfach nur ein clever vermarktetes Upgrade ist, bleibt abzuwarten. Fest steht: Wer eine Technologie als potenziell gefährlich bezeichnet, gibt ihr automatisch Gewicht – und weckt Interesse. Gleichzeitig kann man sich so von der Verantwortung distanzieren, wenn die Erwartungen am Ende doch nicht erfüllt werden.

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren