Ausgerechnet KI soll Wikipedia zur glaubwürdigen Quelle von Informationen machen
Eine KI, genannt Side, soll die Quellenangaben und Verweise von Wikipedia-Artikeln durchleuchten und jene entfernen, die wahrscheinlich die Behauptungen im Artikel nicht unterstützen. Zusätzlich ist geplant, dass sie im Netz nach besseren, verlässlicheren Quellen für den Artikel sucht.
Die Ironie der Situation ist auch den Forscher:innen nicht entgangen. Noah Giansiracusa, der KI an der Bentley University in Waltham, Massachusetts, erforscht, bemerkt: „Es mag ironisch erscheinen, KI zur Unterstützung bei Zitaten heranzuziehen, wenn man bedenkt, wie berüchtigt ChatGPT dafür ist, Zitate zu verpfuschen und zu halluzinieren. Aber es ist wichtig zu bedenken, dass KI-Sprachmodelle weit mehr sind als nur Chatbots.“
Die in einem Paper in Nature Machine Intelligence vorgestellte KI besteht aus einem Informationsabrufsystem und einem Sprachmodell, die zusammenarbeiten, um die Qualität und Zuverlässigkeit der Quellenangaben in Wikipedia-Artikeln zu verbessern.
Verweise sind für Wikipedia entscheidend
Die Glaubwürdigkeit von Wikipedia-Artikeln hängt maßgeblich von guten Verweisen und Quellen ab. Allerdings sind in vielen Fällen kaputte Links hinterlegt oder die verlinkten Seiten enthalten andere Informationen als im Artikel angegeben.
Um dieses Problem zu adressieren, wurde Side von einem Unternehmen namens Samaya AI aus London entwickelt. Die KI wurde darauf trainiert, verlässliche Quellen zu finden, indem sie sich Wikipedia-Artikel angesehen hat, die von der Seite hervorgehoben werden.
Durch das Verifizierungssystem kann Side erkennen, ob ein Artikel mit schlechten Quellen bestückt ist und aktiv im Netz nach neuen Quellen suchen.
Erste Tests fallen positiv aus
Um die Qualität der von Side gefundenen neuen Quellen zu testen, wurden diese einer Gruppe von Wikipedia-Nutzern vorgestellt, wie Nature berichtet. Die Rückmeldungen waren gemischt: 21 Prozent der Nutzer fanden die Quellen der KI besser, 39 Prozent hatten keine Präferenz und 10 Prozent bevorzugten die Originalquelle.
Aleksandra Urman, eine Wissenschaftlerin für computergestützte Kommunikation an der Universität Zürich, Schweiz, sieht Potenzial in dem System: „Das System könnte nützlich sein, um potenziell nicht passende Zitate zu markieren“, sagt sie.
Doch betont sie auch die Wichtigkeit der Akzeptanz innerhalb der Wikipedia-Gemeinschaft: „Aber letztendlich ist die Frage wirklich, was die Wikipedia-Gemeinschaft am nützlichsten finden würde.“