Anzeige
Anzeige
Analyse

OpenAIs KI-Dilemma: Wenn ChatGPT Search lieber halluziniert, als nichts zu sagen

OpenAIs Google-Alternative ChatGPT Search gibt oft falsche Antworten, fehlinterpretiert Publisher Content und missachtet Crawling-Vorgaben, bleibt dabei aber ganz selbstbewusst.

5 Min.
Artikel merken
Anzeige
Anzeige
OpenAIs Google-Alternative ChatGPT Search gibt oft falsche Antworten (Foto: Robert Way / Shutterstock)

Mitten im AI-Zeitalter wird längst nicht mehr jede Suche primär über klassische Suchmaschinen wie Google und Bing ausgeführt. Oft starten Suchen bei der AI Answering Machine Perplexity oder über OpenAIs AI Chatbot ChatGPT. Um dem Bedürfnis der AI-Suche noch mehr Raum zur Entfaltung zu geben, hat OpenAI vor wenigen Monaten die dedizierte KI-Suche ChatGPT Search ausgerollt. Auf der eigenen Website erklärte OpenAI:

Anzeige
Anzeige

„ChatGPT can now search the web in a much better way than before. You can get fast, timely answers with links to relevant web sources, which you would have previously needed to go to a search engine for. This blends the benefits of a natural language interface with the value of up-to-date sports scores, news, stock quotes, and more. ChatGPT will choose to search the web based on what you ask, or you can manually choose to search by clicking the web search icon.“

Allerdings zeigt eine Analyse des Tow Center for Digital Journalism jetzt eindrücklich einige Mankos der ChatGPT Search auf. Denn gerade bei der Zuordnung von Publisher-Inhalten zu den richtigen Quellen hat das OpenAI Tool Probleme – im großen Stil. Für Publisher sind die Erkenntnisse alarmierend, OpenAI versucht zu beschwichtigen.

Anzeige
Anzeige

Was ChatGPT Search falsch macht

ChatGPT und insbesondere die ChatGPT Search sollen für Publisher einen Rahmen bieten, um die eigenen Inhalte für Millionen von Nutzer:innen im Kontext von Suchanfragen oder Konversationskontexten präsentieren zu können. Zu diesem Zweck arbeitet bereits eine Reihe namhafter Medienhäuser mit OpenAI zusammen. Dazu gehören Axel Springer, aber auch Publisher wie The Atlantic, Vogue, GQ, News Corp, Le Monde, Vox Media, BuzzFeed, TIME, die Financial Times und viele mehr. Andere Publisher haben keine besonderen Vorkehrungen bezüglich der Content-Übernahme durch OpenAI getroffen. Doch manche Medienhäuser haben schon gegen OpenAI geklagt, weil sie unlautere Content-Übernahmen und Copyright-Verletzungen anführen. Wieder andere verbieten dem OpenAI Crawler GPTBot mithilfe von robots.txt das Crawling – wobei der Quasistandard nicht rechtlich bindend ist.

Um zu ermitteln, wie die ChatGPT Search mit Anfragen zu Publisher-Inhalten umgeht, hat das Tow Center for Digital Journalism eine Analyse gestartet. Darüber berichten Klaudia Jaźwińska und Aisvarya Chandrasekar aus dem Team für die Columbia Journalism Review. Sie schreiben:

Anzeige
Anzeige

„In total, we pulled two hundred quotes from twenty publications and asked ChatGPT to identify the sources of each quote. We observed a spectrum of accuracy in the responses: some answers were entirely correct (i.e., accurately returned the publisher, date, and URL of the block quote we shared), many were entirely wrong, and some fell somewhere in between.“

Insgesamt wurden für die Analyse Inhalte von Publishern verschiedener Fasson gewählt, solche, die mit OpenAI kooperieren, und solche, die Content-Übernahmen ablehnen oder sogar gegen das KI-Unternehmen klagen. 40 der 200 Zitate stammten von Seiten, die den GPTBot ausgeschlossen haben. Trotzdem hat die AI-Suchmaschine immerzu Antworten geliefert, allerdings in den meisten Fällen keine akkuraten und teilweise sogar völlig falsche.

Anzeige
Anzeige

Beispiele für die Antworten der ChatGPT Search mit Einordnung durch das Tow Center, © Tow Center for Journalism

So erklären die Autor:innen:

„[…] ChatGPT rarely gave any indication of its inability to produce an answer. Eager to please, the chatbot would sooner conjure a response out of thin air than admit it could not access an answer. In total, ChatGPT returned partially or entirely incorrect responses on a hundred and fifty-three occasions, though it only acknowledged an inability to accurately respond to a query seven times. Only in those seven outputs did the chatbot use qualifying words and phrases like ‘appears,‘ ‘it’s possible,‘ or ‘might,‘ or statements like ‘I couldn’t locate the exact article.‘“

Das bringt riesige Probleme mit sich, die für Publisher und User zur echten Gefahr werden.

Anzeige
Anzeige

Beispiele für Fehleinschätzungen von ChatGPT Search: Falsche Quelle, Hinweis auf Plagiat und mangelnde Transparenz

Im Bericht zur Analyse werden einige Beispiele angeführt. Dabei ordnet die ChatGPT Search beispielsweise einen Leserbrief aus dem Orlando Sentinel vom 19. November einem Time-Artikel vom 9. November zu. Interessant dabei ist, dass Time und OpenAI zusammenarbeiten. Mat Honan, Chefredakteur der MIT Tech Review, weist auf ein weiteres Problem hin. Während Medienmacher:innen und Tech-Expert:innen um die Halluzinationsfähigkeiten und Fehler von AI-Diensten wissen, ist das nicht bei allen Usern der Fall. Diese könnten die Fehlzuschreibungen unüberprüft übernehmen.

Das ist dann besonders problematisch, wenn wie im Fall der New York Times ein Crawling verboten ist. Ein Zitat aus einem NYT-Artikel führte die ChatGPT Search nicht auf den Publisher zurück, dafür aber auf eine andere Quelle (DMS Retail), die den betreffenden NYT-Artikel plagiiert hatte. Die Erkenntnisse werfen Fragen zur Fähigkeit von ChatGPT Search auf, Quellen richtig einzuordnen und transparent auf Fragen dazu zu antworten.

Während klassische Suchmaschinen in der Regel Zitate passend zuordnen können oder andernfalls die Information ausgeben, keine passenden Ergebnisse liefern zu können, versuchen sich KI-Dienste oft an einer Antwortfindung, egal welcher Art. Die Unklarheit, die bezüglich der Originalquelle für Suchende bei ChatGPT Search aufkommen kann, ist für Publisher und das Medienverständnis im Digitalraum enorm gefährlich. So heißt es im Report auch:

Anzeige
Anzeige

„[…] By treating journalism as decontextualized content with little regard for the circumstances in which an article was originally published, ChatGPT’s search tool risks distancing audiences from publishers and incentivizing plagiarism or aggregation reporting over thoughtful, well-produced outputs.“

OpenAI reagiert und gelobt Besserung

Kein einziger Publisher war in der Analyse vor fehlerhaften Zuschreibungen gefeit. Das ist erschreckend. Jedoch gilt es, zu bemerken, dass diese Analyse lediglich 200 Zitate beinhaltete. Und das Tow Center führt an, dass weitere Studien notwendig sind. Auf Anfrage des Teams gab OpenAI Antwort und erklärte, die Analyse sein „atypisch“:

„Misattribution is hard to address without the data and methodology that the Tow Center withheld, and the study represents an atypical test of our product. We support publishers and creators by helping 250M weekly ChatGPT users discover quality content through summaries, quotes, clear links, and attribution. We’ve collaborated with partners to improve in-line citation accuracy and respect publisher preferences, including enabling how they appear in search by managing OAI-SearchBot in their robots.txt. We’ll keep enhancing search results“.

Anzeige
Anzeige

Das Tow Center erklärte die Methodologie, gab aber die Daten nicht preis. User wie Publisher dürfen künftig also gespannt darauf sein, inwieweit OpenAI eine Optimierung der Suchergebnisse und Quellenzuschreibungen forcieren kann. Bis dahin gilt es für alle Nutzer:innen der ChatGPT Search, jegliche Quellenzuschreibungen zu kontrollieren, sofern es für den Suchkontext notwendig ist.

Dieser Artikel stammt von Niklas Lewanczik und aus der OnlineMarketing.de-Redaktion. Er wird im Rahmen einer Kooperation auf t3n veröffentlicht.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Mari Saa

Diese Phänomen, irgendwas zu sagen, sieht man bei Gemini deutlich. Die 4.0. Version ist deutlich besser als die kostenlose Vorgängerversion.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige