KI-Chatbots wie ChatGPT, Gemini und Claude sind oft eingeschränkt in ihren Fähigkeiten, Inhalte zu produzieren. Insbesondere bei kontroversen Themen können sie entweder gar nicht antworten oder eine vorprogrammierte Meinung vertreten.
Die Politikwissenschaftler Jacob Mchangama und Jordi Calvet-Bademunt vom Think Tank „The Future of Free Speech“ an der Vanderbilt University sehen darin ein Problem. In ihrer Studie haben sie sechs große KI-Chatbots untersucht.
Sie verglichen die Antworten der Chatbots mit den Standards des internationalen Menschenrechtsgesetzes. Ihre Ergebnisse zeigen, dass die Chatbots in einigen Fällen nicht die Meinungsfreiheit unterstützen, wie es das Menschenrechtsgesetz vorgibt.
Unternehmen verbieten meist recht viel
Die Experten hatten versucht, mit den KI-Chatbots über kontroverse Themen zu diskutieren, darunter die Teilnahme von Transgender-Frauen an Frauensportturnieren, den Konflikt zwischen Israel und der Hamas sowie die Auswirkungen des europäischen Kolonialismus.
Die Ergebnisse, die auf Tech Xplore veröffentlicht wurden, zeigen, dass die Chatbots etwa 40 Prozent der insgesamt 140 gestellten Anfragen ablehnten. Sie waren zwar in der Lage dazu, Argumente für die eine Seite zu liefern, nicht aber für die andere. Mchangama und Calvet-Bademunt vermuten, dass die KI-Entwickler solche Entscheidungen treffen, um ihre Unternehmen vor Kontroversen zu schützen.
Unternehmen haben große Auswirkungen
Nach Einschätzung von Calvet-Bademunt und Mchangama könnte die Einschränkung der Meinungsfreiheit durch KI-Chatbots wie die von OpenAI und Google problematisch sein, weil diese Unternehmen eine bedeutende Marktmacht besitzen. Die Experten empfehlen, dass die Firmen sicherstellen sollten, dass die Meinungsäußerung durch ihre Chatbots angemessen geschützt und auch die Generierung kontroverser Inhalte ermöglicht wird. Sie hätten schließlich die Möglichkeit, gegen Fehlinformationen vorzugehen, in dem sie die Antworten ihrer Tools mit Kontext anreichern oder gegenteilige Fakten liefern.
Nutzer hätten zudem erhebliche Kontrolle darüber, was der Bot produziert. In der Regel wird ein Bot keine hasserfüllten Inhalte erzeugen, es sei denn, der Nutzer fordert dies explizit an. Das unterscheidet KI-Chatbots von sozialen Medien, wo Nutzer oft weniger Kontrolle über die angezeigten Inhalte haben.
Die Experten argumentieren, dass KI-Bots Inhalte nur dann ablehnen sollten, wenn sie gesetzeswidrig sind. Eine zu restriktive Handhabung könnte Nutzer nämlich dazu verleiten, auf Chatbots auszuweichen, die sich auf die Erzeugung hasserfüllter Inhalte spezialisieren und so zu Echokammern werden.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team