„Es gibt zwar Chancen, aber die Risiken sind derzeit größer“ – so bewertet Stephen Bonner von der britischen Datenschutzbehörde ICO KI-Modelle, die die Emotionen von Personen auslesen sollen.
Emotionsanalyse durch KI: Entwicklungen bisher „unausgereift“
In einem offiziellen Statement hat das Information Commissioner’s Office, Großbritanniens oberste Datenschutzbehörde, vor der Verwendung von KI-Anwendungen zur Emotionsanalyse gewarnt. „Die Entwicklungen auf dem Markt für Biometrie und emotionale KI sind unausgereift“, heißt es in der Meldung, „bei der ICO sind wir besorgt, dass eine falsche Analyse von Daten zu Annahmen und Urteilen über eine Person führen könnte, die ungenau sind und zu Diskriminierung führen.“
Dieser Sorge folgend findet sich im Statement auch eine konkrete Warnung davor, leichtsinnig mit entsprechenden Technologien umzugehen: „Organisationen, die nicht verantwortungsbewusst handeln, Risiken für schutzbedürftige Personen darstellen oder die Erwartungen des ICO nicht erfüllen, werden untersucht.“
KI-Modelle zur Emotionsanalyse: „Pseudowissenschaftlich“ und „besorgniserregend“
Um die Emotionen eines Menschen auswerten zu können, greifen KI-Modelle derzeit auf verschiedene Anhaltspunkte zurück. Dazu zählen beispielsweise Blickrichtung, Mimik, Feuchtigkeit der Haut oder der Puls. Auch Daten zur Körperhaltung oder der Sprache einer Person werden gesammelt. Diese Informationen werden von KI-Anwendungen ausgewertet und schließlich einer Emotion zugeordnet, für die bestimmte Merkmale hinterlegt wurden.
Ein großer Kritikpunkt, den das ICO benennt: Die dabei gespeicherten und verarbeiteten Daten sind extrem personenbezogen und enthalten auch unbewusste Verhaltensweisen und emotionale Reaktionen. „Diese Art der Datennutzung ist weitaus riskanter als herkömmliche biometrische Technologien, die zur Überprüfung oder Identifizierung einer Person eingesetzt werden.“
Sind die Algorithmen, mit der eine entsprechende Analyse-KI arbeitet, nicht ausreichend entwickelt, bestehe „das Risiko von systematischer Verzerrung, Ungenauigkeit und sogar Diskriminierung“. Bisher gibt es aus Sicht des ICO noch keine KI-Technologie, „die den Anforderungen des Datenschutzes genügt“.
Gegenüber dem Guardian sagte Bonner außerdem, die bisherigen Modelle zur Emotionsanalyse seien „pseudowissenschaftlich“. „Das ist ziemlich besorgniserregend, denn wir wissen, dass sich einige Organisationen mit diesen Technologien befassen, um wichtige Entscheidungen zu treffen: um festzustellen, ob es sich bei Personen um Betrüger handeln könnte oder ob die Bewerber für eine Stelle geeignet sind.“
Biometrische Daten: Britische Datenschutzbehörde plant Leitfaden
Die Konsequenz aus dieser Unsicherheit: Im Frühjahr 2023 will die Datenschutzbehörde einen Leitfaden zur Erfassung, Verarbeitung und Speicherung biometrischer Daten herausgeben.
Zudem wolle man in Zusammenarbeit mit dem Ada Lovelace Institute und dem British Youth Council öffentliche Dialoge anregen. „Diese werden die öffentliche Wahrnehmung biometrischer Technologien erforschen und Meinungen darüber einholen, wie biometrische Daten verwendet werden“.