Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Künstliche Intelligenz: Roboter „lernen“ Vorurteile von selbst

Vorurteile kann eine künstliche Intelligenz sich selbst beibringen. (Foto: Shutterstock / Jinning Li)

Eine künstliche Intelligenz kann die Vorurteile von Menschen übernehmen, etwa die ihrer Programmierer. Aber die Maschinen können auch allein Vorurteile entwickeln, wie eine Studie zeigt.

Im März 2016 hatte Microsoft ein Experiment mit einem Tay getauften Chatbot nach weniger als 24 Stunden abbrechen, weil dieser sich – wohl aufgrund gezielter Angriffe einzelner Twitter-Nutzer – zu einem rassistischen Verschwörungstheoretiker gewandelt hatte. Auch von der Softwareentwicklung ist bekannt, dass künstliche Intelligenzen die Vorurteile ihrer Programmierer oder Dateneingeber übernehmen könnten. Dass Maschinen aber auch ganz von allein Vorurteile „erlernen“ können, zeigt jetzt eine Untersuchung von Forschern der Universität Cardiff.

Künstliche Intelligenz mit Vorurteilen

Für die in der Fachzeitschrift Scientific Reports erschienene Studie ließen die Wissenschaftler um den Informatiker Roger M. Whitaker in Computersimulationen 100 intelligente Bots miteinander interagieren, wie das Handelsblatt schreibt. Dabei sollten die Bots entscheiden, ob sie einem Mitglied des eigenen oder eines anderen Teams eine Belohnung zulassen kommen wollen.

Im Verlauf einiger Tausend Versuche entwickelte sich laut den Forschern eine zunehmende Bevorzugung der eigenen Gruppe. Die Maschinen, so das Fazit, schienen also wie von selbst Vorbehalte gegenüber Fremden ausgeprägt zu haben. Whitaker zufolge hätten die Wissenschaftler aus der tausendfachen Wiederholung der Simulationen nachvollziehen, wie sich Vorurteile entwickeln und welche Verhältnisse diese Entwicklung begünstigten.

So hatten die Maschinen das Verhalten besonders erfolgreicher Gruppenmitglieder, also jene, die in kurzer Zeit viele Belohnungen erhielten, offenbar kopiert. Für Whitaker ein wichtiges Ergebnis des Experiments: Auch autonom agierende KI wie etwa in Autos oder im Smarthome seien anfällig für Vorurteile. Interessant ist, dass laut den Experimenten die entwickelten Vorurteile der künstlichen Intelligenzen in den Simulationen besonders groß waren, je weniger Gruppen vorhanden waren.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.