Anzeige
Anzeige
Fundstück
Verpasse keine News mehr!

Genialer Dummkopf? Warum ihr euch auf KI nicht verlassen dürft

Mal genial, mal total daneben: Die Leistung aktueller KI-Modelle wie o3 oder Gemini 2.5 Pro verblüfft – in beide Richtungen. Das ist kein Zufall, aber was steckt dahinter?

3 Min.
Artikel merken
Anzeige
Anzeige
Dummheit und Genie liegen bei KI eng beieinander. (Bild: Dall-.E / t3n)

Das Phänomen, das selbst brandaktuelle KI-Modelle betrifft, wird als „Jagged AI“ (übersetzt etwa „holprige“ oder „kantige“ KI) bezeichnet. Gemeint ist das ungleichmäßige Fähigkeitsprofil Künstlicher Intelligenz, die oft sehr komplexe Aufgaben meistern, aber im nächsten Moment an total simplen scheitern kann.

Anzeige
Anzeige

Der Begriff wurde maßgeblich durch den KI-Experten Ethan Mollick, Professor an der Wharton School der University of Pennsylvania im gleichnamigen US-Bundesstaat, geprägt. Er beschreibt das Phänomen ausführlich auf seinem Blog One Useful Thing.

Dabei sei diese Diskrepanz kein Fehler im System, sondern eine inhärente Eigenschaft aktueller Modelle wie o3 von OpenAI oder Gemini 2.5 Pro von Google.

Anzeige
Anzeige

Beeindruckende Höhen, überraschende Tiefen

Einerseits können Modelle wie o3 dank neuer „agentischer“ Fähigkeiten komplexe, mehrstufige Aufgaben lösen: Sie nutzen eigenständig Tools wie Websuche oder führen Programmcode aus – neuerdings denken sie sogar in Bildern.

Mollick beschreibt etwa, wie o3 aus einem einzigen, vagen Prompt einen ganzen Businessplan samt Website-Mockup für einen Online-Käse-Shop erstellte – eine Leistung, die weit über die Fähigkeiten früherer Modelle hinausgeht. Der Wirtschaftsprofessor Tyler Cowen geht noch weiter: In einem viel beachteten Blog‑Post erklärt er, das neue o3 erfülle bereits alle Merkmale einer Allgemeinen KI (AGI) – jedenfalls sehe er das so.

Anzeige
Anzeige

Auf der anderen Seite produzieren dieselben Modelle aber auch „Halluzinationen“, also faktisch falsche Aussagen, oder scheitern an einfacher Mathematik und logischen Schlussfolgerungen. Die Natur dieser „Jagged Frontier“, wie Mollick sie nennt, fasst er prägnant zusammen: „Bei manchen Aufgaben ist KI unzuverlässig. Bei anderen ist sie übermenschlich.“ Deshalb könne maximal von einer „Jagged AGI“ die Rede sein – antwortet er auf Cowens Behauptung.

Warum die KI-Leistung so schwankt

Einen Hauptgrund für die schwankenden Leistungen sieht der Experte in den riesigen Text- und Bilddaten, mit denen KIs trainiert werden. Sie lernen, Muster zu erkennen und statistisch wahrscheinliche Fortsetzungen zu generieren, entwickeln aber kein echtes Weltverständnis oder  „gesunden Menschenverstand“.

Anzeige
Anzeige

Aufgaben, die schlecht in den Trainingsdaten repräsentiert sind oder echte logische Schlussfolgerungen erfordern, fallen ihnen schwerer. Zudem sind die zugrundeliegenden Architekturen wie Transformer primär auf bestimmte Aufgaben wie Sprachverarbeitung optimiert.

Als Merksatz darf gelten: Die KI ist genial, wo ihr Trainings­atlas gestochen scharf ist – und ein Dummkopf, wo nur grobe Konturen vorliegen.

Mit anderen Worten: Je mehr Daten zu einem bestimmten Kontext vorliegen, desto besser ist die KI-Leistung. Wird die Datenbasis dünn, schwächelt die KI bis hin zum Versagen.

Die Schwierigkeit zuverlässiger Messung

Diese „Holprigkeit“ mache es auch extrem schwierig, die Intelligenz oder Kreativität der Systeme zu bewerten. Klassische Intelligenz-Tests stammen aus der Humanpsychologie und passen nicht.

Anzeige
Anzeige

Selbst der berühmte Turing‑Test wurde natürlich nicht für heutige Sprachmodelle konzipiert. Eine neue Studie (PDF) zeigt, dass ein KI‑System ihn zwar offiziell „bestehen“ kann – wir aber nicht mehr wissen, was dieser Erfolg bedeutet.

Auch Benchmarks für Kreativität oder Empathie können kippen, sobald sich die Prompt-Formulierung ändert, wie der Experte betont. Jede eindeutige Intelligenz‑Grenze sei derzeit als verschwommen zu bezeichnen.

Was das für Nutzer:innen bedeutet

Für Nutzer:innen bedeutet das vor allem: KI-Ergebnisse niemals blind übernehmen. Eine kritische Prüfung und menschliche Aufsicht bleiben unerlässlich.

Anzeige
Anzeige

Weil moderne KI zwar enorme Fortschritte mache, aber eben nicht durchgehend verlässlich sei, wird laut Mollick „menschliche Expertise benötigt, um herauszufinden, wo KI funktioniert und wo nicht“. Es gelte also, die Stärken gezielt zu nutzen und bei Aufgaben mit hohem Anspruch an Fakten oder Logik Vorsicht walten zu lassen.

Bisher benötigten bahnbrechende Technologien Jahre, um in Unternehmen und Gesellschaft Fuß zu fassen. Doch die neuen agentischen Fähigkeiten – selbstständige Zielzerlegung, Tool‑Nutzung, mehrschrittige Pläne – könnten die Einführung drastisch beschleunigen. Mollick hält beide Szenarien für möglich und rät daher dazu, die „holprige“ KI-Landschaft jetzt aktiv zu erkunden, um auf jede Entwicklung vorbereitet zu sein.

Auf jeden Fall sollten Nutzer:innen die neuen Modelle ausgiebig selbst testen. Gerade Gemini 2.5 Pro von Google sei kostenfrei zugänglich und erlaube eigene Experimente mit der „holprigen“ Leistungsfähigkeit.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige