Emotion-AI: Wie Maschinen lernen, menschliche Emotionen zu deuten
Wer beim Thema künstliche Intelligenz und Emotionen zunächst an dystopische Endzeitszenarien à la „Ex Machina“ denkt, in denen Roboter Menschen emotional binden, um sie in Folge zu überlisten, darf aufatmen: Computer haben keine eigenen Gefühle und werden diese auch nicht in absehbarer Zeit entwickeln. Doch daran, wie AI-Systeme mithilfe von künstlicher Intelligenz Emotionen erkennen und deuten lernen, wird derzeit schon mit Hochdruck gearbeitet. Affective Computing oder auch Emotion-AI heißt der noch recht neue Forschungszweig, der Erkenntnisse aus der Neurowissenschaft mit Informatik, Psychologie, Soziologie und Kognitionswissenschaft kombiniert. Die Methode wurde maßgeblich durch die Wissenschaftlerin Rosalind Picard vorangetrieben, die am MIT Media Lab, einem Forschungslabor am Massachusetts Institute of Technology, die automatisierte Erfassung von menschlichen Emotionen untersucht. Hierfür werden optische, audio-visuelle und physiologische Daten analysiert, um Absichten einer Person deuten und ableiten zu können. Erklärtes Ziel der Forscher: Maschinen emotionale Intelligenz beibringen. In Zukunft soll die Technologie genutzt werden, um Smartphones, Wearables und Roboter in die Lage zu versetzen, Emotionen und Gefühle wie Angst, Wut, Freude, oder Trauer zu erfassen, zu analysieren und darauf zu reagieren.
Die Berechnung von Gefühlen
Damit der Mensch Informationen aufnehmen, verarbeiten und entsprechend Handlungen ableiten kann, greift sein Gehirn auf rund 100 Millionen Neuronen zurück, die in einem komplexen Geflecht miteinander interagieren. Um diesen Prozess auf AI-Systeme zu übertragen, arbeiten Experten mit künstlichen neuronalen Netzen. Diese künstlichen Nervenzellen (Neuronen) dienen als Recheneinheiten, indem sie in Schaltkreisen miteinander verbunden werden. Zum Signal kommt es, wenn der Input innerhalb eines Schaltkreises einen kritischen Schwellenwert überschreitet. Bekannt ist dieses Konzept bereits aus vielzitierten Smarthome-Szenarien, in denen beispielsweise die Heizung angeht, wenn die Zimmertemperatur unter einen bestimmten Wert sinkt. Bei Menschen soll dieser Wert über entsprechende Sensoren erfasst werden. Mimik und Gestik werden durch Kameras analysiert, Sensoren im Handy oder der Smartwatch erkennen Körpertemperatur und Puls. Auch die Kraft, mit der auf einen Touchscreen oder ein Eingabegerät gedrückt wird, kann erfasst werden. Darüber hinaus spielt das Mikrofon eine immer wichtigere Rolle, schließlich hören Alexa und Siri schon längst auf unsere Befehle. All diese Daten werden zunächst einmal gesammelt und gespeichert. In einem zweiten Schritt kommen spezielle Machine-Learning-Algorithmen zum Einsatz, die die Daten verarbeiten und daraus verwertbare Informationen ableiten. Durch die Identifizierung von Mustern innerhalb der gesammelten Daten lassen sich Unterschiede in der Tonlage oder bei Gesichtsausdrücken feststellen. Gleicht man diese mit den zuvor definierten Parametern für verschiedene Emotionen ab, kann die AI Signale zu einer Emotion zusammenfügen und diese deuten.
Einsatzfelder der Emotion-AI
Die Erfassung von verschiedenen Daten wird im gesamten Internet der Dinge genutzt. In der digitalen Fabrik werden mithilfe von Data-Analytics in Echtzeit Geschäftsprozesse automatisiert und sicherer gemacht, im vernetzten Zuhause erkennen Kühlschränke den Lebensmittelvorrat und bestellen bei Bedarf nach. Die potenziellen Einsatzfelder von Emotion-AI sind ähnlich vielfältig: Erkennt die Kamera von Computern, Smartphones oder Connected TV etwa die Reaktion der Nutzer auf bestimmte Inhalte, liefert das wertvolle Erkenntnisse, um Werbeanzeigen zu verbessern – in der Theorie ein wahrer Traum für Marketer. Auch das Gesundheitswesen kann von den aktuellen Entwicklungen profitieren. Gerade in Regionen, die unter chronischem Ärztemangel leiden, können Erkennungssysteme erste Diagnosen liefern und nach Dringlichkeit priorisieren. Vor allem in der psychologischen Behandlung bietet Affective Computing enormes Potenzial, da zusätzliche Informationen zum emotionalen Zustand des Patienten die Therapie, beispielsweise von Depressionen, erleichtern können. Auch die Automobilbranche investiert bereits kräftig, um ihre Fahrassistenzsysteme weiter zu verbessern und etwa Übermüdung früher erkennen zu können.
Der Roboter – dein Freund und Helfer?
Nicht zuletzt kann Emotion AI genutzt werden, um in Kombination mit Robotik einen „empathischen“ Assistenten zu schaffen, der Menschen in unterschiedlichen Lebenslagen unterstützen kann – beispielsweise im Alter, bei Verletzungen oder Krankheit. Durch die Entwicklung der Technologie bietet sich hier enormes Potenzial, da nicht nur Befehle ausgeführt, sondern auch präventiv Hilfestellung geleistet werden kann. Roboter und Maschinen werden durch Affective Computing menschlicher – auch, weil es uns ein Bedürfnis ist, ihnen auf einer vertrauteren Ebene zu begegnen. Die Grundlage der Technologie ist vorhanden – es liegt nun an uns, was wir daraus machen.