Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Lügt Claude seltener als du? Anthropic-CEO behauptet, KI sei zuverlässiger als Menschen

Wird die Fehlerquote bei modernen KI-Modellen überschätzt? Ein führender KI-Chef stellt eine provokante These auf, die unsere Wahrnehmung von menschlicher und künstlicher Intelligenz infrage stellt.

2 Min.
Artikel merken
Anzeige
Anzeige
Wer halluziniert mehr – KI oder Mensch? (Bild: Midjourney / t3n)

Dario Amodei, Chef des KI-Unternehmens Anthropic aus San Francisco im US-Bundesstaat Kalifornien, behauptet, dass moderne KI-Modelle seltener halluzinieren als Menschen. Diese Aussage traf er unter anderem auf dem hauseigenen Entwickler-Event „Code with Claude“.

Anzeige
Anzeige

„Es kommt wirklich darauf an, wie man es misst, aber ich vermute, dass KI-Modelle wahrscheinlich weniger halluzinieren als Menschen, aber sie halluzinieren auf überraschendere Weise“, erklärte Amodei, wie Techcrunch berichtet. Auf der Vivatech-Konferenz im französischen Paris präzisierte er später, dass sich seine Behauptung primär auf faktenbasierte Aufgaben in kontrollierten Tests beziehe.

AGI in Reichweite, trotz Fehlern?

Für Amodei sind diese gelegentlichen Fehler kein Hindernis auf dem Weg zur Künstlichen Allgemeinen Intelligenz (AGI), die er bereits 2026 für möglich hält. Er vergleicht die Fehler der KI mit menschlichem Versagen, wie es auch bei Journalist:innen oder Politiker:innen vorkomme.

Anzeige
Anzeige

Diese optimistische Sichtweise steht im klaren Gegensatz zu anderen führenden Köpfen der Branche. Demis Hassabis, Chef von Googles KI-Firma Deepmind, äußerte sich kürzlich weitaus vorsichtiger. Er ist der Meinung, dass die aktuellen Modelle noch zu viele „Löcher“ hätten und ein grundlegendes Hindernis darstellten.

Die Gegenseite: Googles Zweifel und die Grenzen der Messbarkeit

Die Debatte wird durch die Schwierigkeit befeuert, Halluzinationen überhaupt verlässlich zu messen. Bisherige Benchmarks vergleichen meist nur verschiedene KI-Modelle untereinander, nicht aber die KI mit dem Menschen. Ein standardisierter Vergleich fehlt bislang.

Gleichzeitig ist die Datenlage zur Fehleranfälligkeit von KI-Modellen widersprüchlich. Während Studien von Anbietern wie Vectara zeigen, dass die Halluzinationsraten bei neueren Modellen wie GPT-4 auf bis zu drei Prozent gesunken sind, wie Visual Capitalist darstellt, warnen Forscher:innen an anderer Stelle. So sollen Modelle, die auf komplexes logisches Schließen trainiert sind, teilweise sogar wieder höhere Fehlerraten aufweisen.

Ein bekanntes Beispiel aus der Praxis unterstreicht die Bedenken: Ein Anwalt musste sich vor Gericht entschuldigen, nachdem er den Anthropic-Chatbot Claude für eine Klageschrift nutzte und dieser dabei Namen und Aktenzeichen frei erfand.

Anzeige
Anzeige

Amodei räumt ein, dass das größte Problem nicht der Fehler an sich sei, sondern das enorme Selbstbewusstsein, mit dem die KI falsche Informationen als Tatsachen präsentiert. Dies sei eine Herausforderung, die es zu lösen gelte. Ob eine KI, die halluziniert, überhaupt die Definition von AGI erfüllen kann, bleibt eine der spannendsten Fragen in der aktuellen KI-Debatte.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Matthias Richter

Das Problem ist nicht, dass es besser als bei Menschen ist, sondern dass man „KI“ Modelle geschaffen hat, die schlecht darin sind, worin Computer eigentlich gut sind: Korrekte Informationen bereitstellen. Aktuelle LLMs „raten“ nur die Antwort.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren