Technik mit Gefühl für Gefühl

Technik, die sich gut anfühlt

Live-Demonstration zur Emotionserkennung per Brain-Computer-Interface

Im Projekt EMOIO, das vom Bundesministerium für Bildung und Forschung gefördert wird, entwickeln Wissenschaftlerinnen und Wissenschaftler des Fraunhofer IAO eine emotionssensitive, neuro-adaptive Gehirn-Computer-Schnittstelle. Eine erste Live-Demonstration wurde auf dem BMBF-Zukunftskongress »Technik zum Menschen bringen« am 26. und 27. Juni 2017 in Bonn erstmals vorgeführt.

Im Umgang mit Technik spielen Emotionen eine wichtige Rolle. Allerdings können aktuell selbst intelligente Systeme noch nicht angemessen auf menschliche Emotionen reagieren. Im Projekt EMOIO erforscht das Fraunhofer IAO gemeinsam mit dem Institut für Arbeitswissenschaft und Technologiemanagement IAT der Universität Stuttgart, wie neurowissenschaftliche Verfahren genutzt werden können, um Emotionen aus den Hirnströmen der Nutzer abzuleiten und zu interpretieren. Die identifizierten Emotionen sollen dann über eine Gehirn-Computer-Schnittstelle (engl. Brain-Computer Interface, BCI) einem technischen System zur Verfügung gestellt werden, welches Design und Verhalten damit gezielter an die individuellen Bedürfnisse des Nutzers anpassen kann.

Erste Live-Demonstration auf dem BMBF-Zukunftskongress

Gemeinsam mit den Projektpartnern Universitätsklinikum Tübingen, Brain Products GmbH und NIRx Medizintechnik GmbH haben das Fraunhofer IAO und das IAT der Universität Stuttgart auf dem BMBF-Zukunftskongress »Technik zum Menschen bringen« eine erste Live-Demo des entwickelten Brain-Computer-Interface (BCI) vorgestellt. Dabei wurden einer Testperson Bilder mit emotionalen Inhalten wie beispielsweise Tierbabys oder Kriegsszenen gezeigt. Während der Bildbetrachtung wurden die Hirnströme der Testperson mittels Elektroenzephalographie und Nahinfrarotspektroskopie erfasst und in Echtzeit von einem Algorithmus analysiert. Der Algorithmus sucht in den aufgezeichneten Signalen nach Mustern, die in verschiedenen vorangehenden Studien als charakteristisch für positive und negative Emotionen identifiziert wurden. Auf diese Art und Weise klassifiziert der Algorithmus die Reaktion der Testperson auf ein Bild innerhalb weniger Sekunden als positiv oder negativ. Das Klassifikationsergebnis kann dann an ein beliebiges technisches System weitergeleitet werden.

Mobile App zeigt aktuelle Gefühlslage per Emoticon an

Welcher Gefühlszustand von dem Algorithmus ermittelt wurde, ist nicht nur für technische Systeme relevant, sondern auch für den Nutzer selber interessant. Daher wurde am Fraunhofer IAO eine mobile App entwickelt, die dem Nutzer die klassifizierte Emotion live anzeigt. Visualisiert werden in der App zum einen die aktuelle Emotion in Form eines Emoticons, zum anderen der Zeitverlauf des emotionalen Zustands in Form eines dynamischen Liniendiagramms. Eine zukünftige Version der App soll dahingehend weiterentwickelt werden, dass der Nutzer die emotionalen Erlebnisse, die ihm angezeigt werden, annotieren und mit Kontextinformationen ergänzen kann, z. B. den Ort, eine Situationsbeschreibung oder ein Foto.