Anzeige
Anzeige
Ratgeber

Emotion-AI: Wie Maschinen lernen, menschliche Emotionen zu deuten

Mit dem Streben nach immer besserer künstlicher Intelligenz geht die Forschung und Entwicklung neue spannende Wege. Vielversprechend ist hier unter anderem der Bereich Emotion-AI.

Von Robert Jänisch
3 Min.
Artikel merken
Anzeige
Anzeige

(Foto: Shutterstock)

Wer beim Thema künstliche Intelligenz und Emotionen zunächst an dystopische Endzeitszenarien à la „Ex Machina“ denkt, in denen Roboter Menschen emotional binden, um sie in Folge zu überlisten, darf aufatmen: Computer haben keine eigenen Gefühle und werden diese auch nicht in absehbarer Zeit entwickeln. Doch daran, wie AI-Systeme mithilfe von künstlicher Intelligenz Emotionen erkennen und deuten lernen, wird derzeit schon mit Hochdruck gearbeitet. Affective Computing oder auch Emotion-AI heißt der noch recht neue Forschungszweig, der Erkenntnisse aus der Neurowissenschaft mit Informatik, Psychologie, Soziologie und Kognitionswissenschaft kombiniert. Die Methode wurde maßgeblich durch die Wissenschaftlerin Rosalind Picard vorangetrieben, die am MIT Media Lab, einem Forschungslabor am Massachusetts Institute of Technology, die automatisierte Erfassung von menschlichen Emotionen untersucht. Hierfür werden optische, audio-visuelle und physiologische Daten analysiert, um Absichten einer Person deuten und ableiten zu können. Erklärtes Ziel der Forscher: Maschinen emotionale Intelligenz beibringen. In Zukunft soll die Technologie genutzt werden, um Smartphones, Wearables und Roboter in die Lage zu versetzen, Emotionen und Gefühle wie Angst, Wut, Freude, oder Trauer zu erfassen, zu analysieren und darauf zu reagieren.

Die Berechnung von Gefühlen

Anzeige
Anzeige

Damit der Mensch Informationen aufnehmen, verarbeiten und entsprechend Handlungen ableiten kann, greift sein Gehirn auf rund 100 Millionen Neuronen zurück, die in einem komplexen Geflecht miteinander interagieren. Um diesen Prozess auf AI-Systeme zu übertragen, arbeiten Experten mit künstlichen neuronalen Netzen. Diese künstlichen Nervenzellen (Neuronen) dienen als Recheneinheiten, indem sie in Schaltkreisen miteinander verbunden werden. Zum Signal kommt es, wenn der Input innerhalb eines Schaltkreises einen kritischen Schwellenwert überschreitet. Bekannt ist dieses Konzept bereits aus vielzitierten Smarthome-Szenarien, in denen beispielsweise die Heizung angeht, wenn die Zimmertemperatur unter einen bestimmten Wert sinkt. Bei Menschen soll dieser Wert über entsprechende Sensoren erfasst werden. Mimik und Gestik werden durch Kameras analysiert, Sensoren im Handy oder der Smartwatch erkennen Körpertemperatur und Puls. Auch die Kraft, mit der auf einen Touchscreen oder ein Eingabegerät gedrückt wird, kann erfasst werden. Darüber hinaus spielt das Mikrofon eine immer wichtigere Rolle, schließlich hören Alexa und Siri schon längst auf unsere Befehle. All diese Daten werden zunächst einmal gesammelt und gespeichert. In einem zweiten Schritt kommen spezielle Machine-Learning-Algorithmen zum Einsatz, die die Daten verarbeiten und daraus verwertbare Informationen ableiten. Durch die Identifizierung von Mustern innerhalb der gesammelten Daten lassen sich Unterschiede in der Tonlage oder bei Gesichtsausdrücken feststellen. Gleicht man diese mit den zuvor definierten Parametern für verschiedene Emotionen ab, kann die AI Signale zu einer Emotion zusammenfügen und diese deuten.

Einsatzfelder der Emotion-AI

Die Erfassung von verschiedenen Daten wird im gesamten Internet der Dinge genutzt. In der digitalen Fabrik werden mithilfe von Data-Analytics in Echtzeit Geschäftsprozesse automatisiert und sicherer gemacht, im vernetzten Zuhause erkennen Kühlschränke den Lebensmittelvorrat und bestellen bei Bedarf nach. Die potenziellen Einsatzfelder von Emotion-AI sind ähnlich vielfältig: Erkennt die Kamera von Computern, Smartphones oder Connected TV etwa die Reaktion der Nutzer auf bestimmte Inhalte, liefert das wertvolle Erkenntnisse, um Werbeanzeigen zu verbessern – in der Theorie ein wahrer Traum für Marketer. Auch das Gesundheitswesen kann von den aktuellen Entwicklungen profitieren. Gerade in Regionen, die unter chronischem Ärztemangel leiden, können Erkennungssysteme erste Diagnosen liefern und nach Dringlichkeit priorisieren. Vor allem in der psychologischen Behandlung bietet Affective Computing enormes Potenzial, da zusätzliche Informationen zum emotionalen Zustand des Patienten die Therapie, beispielsweise von Depressionen, erleichtern können. Auch die Automobilbranche investiert bereits kräftig, um ihre Fahrassistenzsysteme weiter zu verbessern und etwa Übermüdung früher erkennen zu können.

Anzeige
Anzeige

Der Roboter – dein Freund und Helfer?

Nicht zuletzt kann Emotion AI genutzt werden, um in Kombination mit Robotik einen „empathischen“ Assistenten zu schaffen, der Menschen in unterschiedlichen Lebenslagen unterstützen kann – beispielsweise im Alter, bei Verletzungen oder Krankheit. Durch die Entwicklung der Technologie bietet sich hier enormes Potenzial, da nicht nur Befehle ausgeführt, sondern auch präventiv Hilfestellung geleistet werden kann. Roboter und Maschinen werden durch Affective Computing menschlicher – auch, weil es uns ein Bedürfnis ist, ihnen auf einer vertrauteren Ebene zu begegnen. Die Grundlage der Technologie ist vorhanden – es liegt nun an uns, was wir daraus machen.

Anzeige
Anzeige
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige