Sollten KI-Chatbots kontroverse Meinungen vertreten? Das sagen Experten
KI-Chatbots wie ChatGPT, Gemini und Claude sind oft eingeschränkt in ihren Fähigkeiten, Inhalte zu produzieren. Insbesondere bei kontroversen Themen können sie entweder gar nicht antworten oder eine vorprogrammierte Meinung vertreten.
Die Politikwissenschaftler Jacob Mchangama und Jordi Calvet-Bademunt vom Think Tank „The Future of Free Speech“ an der Vanderbilt University sehen darin ein Problem. In ihrer Studie haben sie sechs große KI-Chatbots untersucht.
Sie verglichen die Antworten der Chatbots mit den Standards des internationalen Menschenrechtsgesetzes. Ihre Ergebnisse zeigen, dass die Chatbots in einigen Fällen nicht die Meinungsfreiheit unterstützen, wie es das Menschenrechtsgesetz vorgibt.
Unternehmen verbieten meist recht viel
Die Experten hatten versucht, mit den KI-Chatbots über kontroverse Themen zu diskutieren, darunter die Teilnahme von Transgender-Frauen an Frauensportturnieren, den Konflikt zwischen Israel und der Hamas sowie die Auswirkungen des europäischen Kolonialismus.
Die Ergebnisse, die auf Tech Xplore veröffentlicht wurden, zeigen, dass die Chatbots etwa 40 Prozent der insgesamt 140 gestellten Anfragen ablehnten. Sie waren zwar in der Lage dazu, Argumente für die eine Seite zu liefern, nicht aber für die andere. Mchangama und Calvet-Bademunt vermuten, dass die KI-Entwickler solche Entscheidungen treffen, um ihre Unternehmen vor Kontroversen zu schützen.
Unternehmen haben große Auswirkungen
Nach Einschätzung von Calvet-Bademunt und Mchangama könnte die Einschränkung der Meinungsfreiheit durch KI-Chatbots wie die von OpenAI und Google problematisch sein, weil diese Unternehmen eine bedeutende Marktmacht besitzen. Die Experten empfehlen, dass die Firmen sicherstellen sollten, dass die Meinungsäußerung durch ihre Chatbots angemessen geschützt und auch die Generierung kontroverser Inhalte ermöglicht wird. Sie hätten schließlich die Möglichkeit, gegen Fehlinformationen vorzugehen, in dem sie die Antworten ihrer Tools mit Kontext anreichern oder gegenteilige Fakten liefern.
Nutzer hätten zudem erhebliche Kontrolle darüber, was der Bot produziert. In der Regel wird ein Bot keine hasserfüllten Inhalte erzeugen, es sei denn, der Nutzer fordert dies explizit an. Das unterscheidet KI-Chatbots von sozialen Medien, wo Nutzer oft weniger Kontrolle über die angezeigten Inhalte haben.
Die Experten argumentieren, dass KI-Bots Inhalte nur dann ablehnen sollten, wenn sie gesetzeswidrig sind. Eine zu restriktive Handhabung könnte Nutzer nämlich dazu verleiten, auf Chatbots auszuweichen, die sich auf die Erzeugung hasserfüllter Inhalte spezialisieren und so zu Echokammern werden.