News

Künstliche Intelligenz: Roboter „lernen“ Vorurteile von selbst

Vorurteile kann eine künstliche Intelligenz sich selbst beibringen. (Foto: Shutterstock / Jinning Li)

Eine künstliche Intelligenz kann die Vorurteile von Menschen übernehmen, etwa die ihrer Programmierer. Aber die Maschinen können auch allein Vorurteile entwickeln, wie eine Studie zeigt.

Im März 2016 hatte Microsoft ein Experiment mit einem Tay getauften Chatbot nach weniger als 24 Stunden abbrechen, weil dieser sich – wohl aufgrund gezielter Angriffe einzelner Twitter-Nutzer – zu einem rassistischen Verschwörungstheoretiker gewandelt hatte. Auch von der Softwareentwicklung ist bekannt, dass künstliche Intelligenzen die Vorurteile ihrer Programmierer oder Dateneingeber übernehmen könnten. Dass Maschinen aber auch ganz von allein Vorurteile „erlernen“ können, zeigt jetzt eine Untersuchung von Forschern der Universität Cardiff.

Künstliche Intelligenz mit Vorurteilen

Für die in der Fachzeitschrift Scientific Reports erschienene Studie ließen die Wissenschaftler um den Informatiker Roger M. Whitaker in Computersimulationen 100 intelligente Bots miteinander interagieren, wie das Handelsblatt schreibt. Dabei sollten die Bots entscheiden, ob sie einem Mitglied des eigenen oder eines anderen Teams eine Belohnung zulassen kommen wollen.

Im Verlauf einiger Tausend Versuche entwickelte sich laut den Forschern eine zunehmende Bevorzugung der eigenen Gruppe. Die Maschinen, so das Fazit, schienen also wie von selbst Vorbehalte gegenüber Fremden ausgeprägt zu haben. Whitaker zufolge hätten die Wissenschaftler aus der tausendfachen Wiederholung der Simulationen nachvollziehen, wie sich Vorurteile entwickeln und welche Verhältnisse diese Entwicklung begünstigten.

So hatten die Maschinen das Verhalten besonders erfolgreicher Gruppenmitglieder, also jene, die in kurzer Zeit viele Belohnungen erhielten, offenbar kopiert. Für Whitaker ein wichtiges Ergebnis des Experiments: Auch autonom agierende KI wie etwa in Autos oder im Smarthome seien anfällig für Vorurteile. Interessant ist, dass laut den Experimenten die entwickelten Vorurteile der künstlichen Intelligenzen in den Simulationen besonders groß waren, je weniger Gruppen vorhanden waren.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung