Anzeige
Anzeige
News

Britische Datenschutzbehörde warnt vor Emotionsanalyse durch KI

Die britische Datenschutzbehörde warnt Unternehmen vor der Verwendung von KI-Modellen zur Emotionsanalyse. Die seien bisher nicht ausgereift und würden zu viele Risiken bergen.

2 Min.
Artikel merken
Anzeige
Anzeige
Der Gesichtsausdruck einer Frau wird von einer KI-Anwendung ausgelesen und analysiert. (Foto: Shutterstock/Stock­busters)

„Es gibt zwar Chancen, aber die Risiken sind derzeit größer“ – so bewertet Stephen Bonner von der britischen Datenschutzbehörde ICO KI-Modelle, die die Emotionen von Personen auslesen sollen.

Anzeige
Anzeige

Emotionsanalyse durch KI: Entwicklungen bisher „unausgereift“

In einem offiziellen Statement hat das Information Commissioner’s Office, Großbritanniens oberste Datenschutzbehörde, vor der Verwendung von KI-Anwendungen zur Emotionsanalyse gewarnt. „Die Entwicklungen auf dem Markt für Biometrie und emotionale KI sind unausgereift“, heißt es in der Meldung, „bei der ICO sind wir besorgt, dass eine falsche Analyse von Daten zu Annahmen und Urteilen über eine Person führen könnte, die ungenau sind und zu Diskriminierung führen.“

Dieser Sorge folgend findet sich im Statement auch eine konkrete Warnung davor, leichtsinnig mit entsprechenden Technologien umzugehen: „Organisationen, die nicht verantwortungsbewusst handeln, Risiken für schutzbedürftige Personen darstellen oder die Erwartungen des ICO nicht erfüllen, werden untersucht.“

Anzeige
Anzeige

KI-Modelle zur Emotionsanalyse: „Pseudowissenschaftlich“ und „besorgniserregend“

Um die Emotionen eines Menschen auswerten zu können, greifen KI-Modelle derzeit auf verschiedene Anhaltspunkte zurück. Dazu zählen beispielsweise Blickrichtung, Mimik, Feuchtigkeit der Haut oder der Puls. Auch Daten zur Körperhaltung oder der Sprache einer Person werden gesammelt. Diese Informationen werden von KI-Anwendungen ausgewertet und schließlich einer Emotion zugeordnet, für die bestimmte Merkmale hinterlegt wurden.

Ein großer Kritikpunkt, den das ICO benennt: Die dabei gespeicherten und verarbeiteten Daten sind extrem personenbezogen und enthalten auch unbewusste Verhaltensweisen und emotionale Reaktionen. „Diese Art der Datennutzung ist weitaus riskanter als herkömmliche biometrische Technologien, die zur Überprüfung oder Identifizierung einer Person eingesetzt werden.“

Anzeige
Anzeige

Sind die Algorithmen, mit der eine entsprechende Analyse-KI arbeitet, nicht ausreichend entwickelt, bestehe „das Risiko von systematischer Verzerrung, Ungenauigkeit und sogar Diskriminierung“. Bisher gibt es aus Sicht des ICO noch keine KI-Technologie, „die den Anforderungen des Datenschutzes genügt“.

Gegenüber dem Guardian sagte Bonner außerdem, die bisherigen Modelle zur Emotionsanalyse seien „pseudowissenschaftlich“. „Das ist ziemlich besorgniserregend, denn wir wissen, dass sich einige Organisationen mit diesen Technologien befassen, um wichtige Entscheidungen zu treffen: um festzustellen, ob es sich bei Personen um Betrüger handeln könnte oder ob die Bewerber für eine Stelle geeignet sind.“

Anzeige
Anzeige

Biometrische Daten: Britische Datenschutzbehörde plant Leitfaden

Die Konsequenz aus dieser Unsicherheit: Im Frühjahr 2023 will die Datenschutzbehörde einen Leitfaden zur Erfassung, Verarbeitung und Speicherung biometrischer Daten herausgeben.

Zudem wolle man in Zusammenarbeit mit dem Ada Lovelace Institute und dem British Youth Council öffentliche Dialoge anregen. „Diese werden die öffentliche Wahrnehmung biometrischer Technologien erforschen und Meinungen darüber einholen, wie biometrische Daten verwendet werden“.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige