Wenn Computer lernen, menschliche Emotionen zu erkennen

EmoAdapt entwickelt eine sogenannte Hirn-Computer-Schnittstelle weiter, mit deren Hilfe Emotionen erkannt und in die Interaktion zwischen Mensch und Maschine in Echtzeit integriert werden sollen. Bisher können Computer Emotionen wie Freude oder Ärger und Dispositionen wie Überforderung oder Müdigkeit nicht angemessen berücksichtigen. Um dieses neuartige interdisziplinäre Konzept in der Mensch-Maschine-Kommunikation zu entwickeln, arbeiten Wissenschaftler der Medizinischen Fakultät an der OVGU und dem LIN zusammen. Zu ihnen gehören:

– Prof. Dr. Dr. Johannes Bernarding (Projektleiter), Institut für Biometrie und Medizinische Informatik (OVGU)
– Dr. Kerstin Krauel, Universitätsklinik für Psychiatrie, Psychotherapie und Psychosomatische Medizin des Kindes und Jugendalters (OVGU)
– Prof. Dr. Eva Brinkschulte, Institut für Geschichte und Ethik in der Medizin (OVGU)
– Dr. André Brechmann, Speziallabor Nicht-Invasive Bildgebung (LIN)

Die Forscher versuchen, neueste Methoden der Hirnbildgebung und der Computertechnologie mit klassischen physiologischen Parametern wie Herzrate und Hautleitfähigkeit zu kombinieren, um Emotionen und Stimmungen bereits während der Interaktion zu identifizieren und diese Erkenntnisse in die Mensch-Maschine-Kommunikation zu integrieren. Die daraus abgeleiteten Muster helfen Computern, komplexe Interaktionen in Echtzeit innerhalb einer simulierten Welt – einer sogenannten Virtual Reality – an das Befinden der Nutzer anzupassen. Dies geschieht beispielsweise, wenn der Computer eine Über- oder Unterforderung bei einem Probanden während einer Aufgabenlösung erkennt und den Schwierigkeitsgrad der Aufgabe dementsprechend anpasst.

Welche Rolle hierbei individuelle Merkmale wie das Geschlecht und Alter in der Wirksamkeit und Akzeptanz dynamischer Mensch-Maschine-Interaktionen spielen, ist ebenfalls Gegenstand der Forschung. Das interdisziplinäre Team beleuchtet außerdem die Frage, welche ethischen, sozialen und rechtlichen Konsequenzen die Nutzung individueller Daten in der Mensch-Maschine Kommunikation hat.

Perspektivisch könnten die Erkenntnisse aus dem EmoAdapt-Projekt im alltäglichen Leben angewendet werden. So ist es für die Forscher denkbar, dass technische Systeme beispielsweise die aktuelle Leistungsfähigkeit von Personen berücksichtigen, die komplexe Maschinen bedienen. Sie könnten Symptome wie Müdigkeit und Unaufmerksamkeit identifizieren, was zu einer höheren Sicherheit am Arbeitsplatz beitragen würde. Auch im Bereich der Rehabilitation sind neuartige Konzepte vorstellbar, zum Beispiel beim Eintrainieren von Aufgaben nach einem Schlaganfall.

Projektname: Hirn-Computer-Schnittstelle zur Anpassung der technischen Interaktion an Emotionen (EmoAdapt)
Gefördert durch das BMBF im Rahmen der Bekanntmachung „Vom technischen Werkzeug zum interaktiven Begleiter – sozial- und emotionssensitive Systeme für eine optimierte Mensch-Technik-Interaktion“ (InterEmotio)

Projektlaufzeit: 01. Mai 2015 – 30. April 2018

Scroll to Top