Ausgerechnet KI soll Wikipedia zur glaubwürdigen Quelle von Informationen machen

Gerade KI soll für Glaubwürdigkeit sorgen. (Foto: monticello)
Eine KI, genannt Side, soll die Quellenangaben und Verweise von Wikipedia-Artikeln durchleuchten und jene entfernen, die wahrscheinlich die Behauptungen im Artikel nicht unterstützen. Zusätzlich ist geplant, dass sie im Netz nach besseren, verlässlicheren Quellen für den Artikel sucht.
Die Ironie der Situation ist auch den Forscher:innen nicht entgangen. Noah Giansiracusa, der KI an der Bentley University in Waltham, Massachusetts, erforscht, bemerkt: „Es mag ironisch erscheinen, KI zur Unterstützung bei Zitaten heranzuziehen, wenn man bedenkt, wie berüchtigt ChatGPT dafür ist, Zitate zu verpfuschen und zu halluzinieren. Aber es ist wichtig zu bedenken, dass KI-Sprachmodelle weit mehr sind als nur Chatbots.“
Die in einem Paper in Nature Machine Intelligence vorgestellte KI besteht aus einem Informationsabrufsystem und einem Sprachmodell, die zusammenarbeiten, um die Qualität und Zuverlässigkeit der Quellenangaben in Wikipedia-Artikeln zu verbessern.
Die Glaubwürdigkeit von Wikipedia-Artikeln hängt maßgeblich von guten Verweisen und Quellen ab. Allerdings sind in vielen Fällen kaputte Links hinterlegt oder die verlinkten Seiten enthalten andere Informationen als im Artikel angegeben.
Um dieses Problem zu adressieren, wurde Side von einem Unternehmen namens Samaya AI aus London entwickelt. Die KI wurde darauf trainiert, verlässliche Quellen zu finden, indem sie sich Wikipedia-Artikel angesehen hat, die von der Seite hervorgehoben werden.
Durch das Verifizierungssystem kann Side erkennen, ob ein Artikel mit schlechten Quellen bestückt ist und aktiv im Netz nach neuen Quellen suchen.
Um die Qualität der von Side gefundenen neuen Quellen zu testen, wurden diese einer Gruppe von Wikipedia-Nutzern vorgestellt, wie Nature berichtet. Die Rückmeldungen waren gemischt: 21 Prozent der Nutzer fanden die Quellen der KI besser, 39 Prozent hatten keine Präferenz und 10 Prozent bevorzugten die Originalquelle.
Aleksandra Urman, eine Wissenschaftlerin für computergestützte Kommunikation an der Universität Zürich, Schweiz, sieht Potenzial in dem System: „Das System könnte nützlich sein, um potenziell nicht passende Zitate zu markieren“, sagt sie.
Doch betont sie auch die Wichtigkeit der Akzeptanz innerhalb der Wikipedia-Gemeinschaft: „Aber letztendlich ist die Frage wirklich, was die Wikipedia-Gemeinschaft am nützlichsten finden würde.“
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team