Der Algorithmus, der Gefühle liest

Israel ist Startup Hochburg. Noch nicht ganz Silicon Valley, aber dicht dran. Die Brain Tech Conference in Tel Aviv wird das im Oktober 2013 untermauern. Psychologen, Programmierer und Soziologen werden über die neuen BCI diskutieren – die Brain Computer Interfaces. Sie haben das Potenzial, auch die Medienwelt zu verändern. Ein Ausblick:

Menschen nutzen Medien unter anderem zum Mood Management – also, zum „Einstellen“ der eigenen Gefühlswelt. Das ist Medienwissenschaftlich seit langem bekannt. Grundsätzlich streben Menschen zu einer ausgeglichenen Gefühlswelt, nach dem ruhenden Mittelpunkt. Jeder kann das nachvollziehen. Das man morgens im Radio meist gut gelaunte Moderatoren und schnellere Musik hört, hat damit zu tun. Viele sind beim frühen Aufstehen eher mürrisch, die Fröhlichkeit im Radio bildet den Kontrapunkt, der einen in die ausgeglichene Gefühlswelt bringt. Oder: gegen Liebeskummer hilft eben doch die Komödie im Kino am besten.

BCI - die Brain Computer Interfaces könnten auch die Medienwelt verändern

Letztlich muss das emotionale Medienerlebniss stimmen, damit es dem Nutzer auch gefällt, was er sieht oder hört. Will man das Medienerlebniss über das Mood Management verbessern, müssen zukünftige Medienunternehmen zwei Problemfelder lösen. Nummer 1: Die einzelnen Filme, Audios etc. sollten in emotionale Zusammenhänge eingeordnet werden (unter anderem daran arbeite ich mit meinem Startup my mediaguide). Nummer 2: Das System muss die Emotionen des Nutzers lesen können. Letzteres ist zumindest in der Theorie gelöst.

Die Basis der Forschung lieferten unter anderem Roslind W. Picard und Jonathan Klein schon 2002 mit ihrem MIT – Aufsatz „Computers that recognise and respond to user emotion: theorerical and practical implications„. Seit dem verfolgt die Forschung vier Ansätze.

Am weitesten entwickelt ist der Versuch, aus dem Gesichtsausdruck eine Emotion abzulesen. Das Startup Affdex hat bereits ein Geschäftsmodell daraus gemacht, mit einem schönen Demo zum selbst ausprobieren. Der zweite Ansatz analysiert die Sprache. Unterhalten sich zwei Menschen, kann der Computer anhand der Stimmen (und nicht anhand des Gesagten) die Emotion des Sprechenden errechnen. Entwickelt wurde das System an der Universität Madrid. Beide Ansätze haben den Nachteil, dass sie nicht zwangsläufig richtige Ergebnisse liefern. Denn man kann sie bewusst beeinflussen. Jeder halbwegs talentierte Schauspieler kann sein Gesicht verstellen. Und das geht auch mit der Stimme. Das habe ich selbst oft genug in meinen 15 Jahren Radioarbeit getan.

Ein dritter Ansatz verfolgt ein soziologisches Modell. Mit groß angelegten Studien soll Nutzungsverhalten von technischen Geräten mit den Emotionen des Nutzers in Zusammenhang gebracht werden. Das schlägt Robert LiKamWa in seiner Masterarbeit „Moodscope: Building a mood sensor form smartphone usage patterns“ vor.

Richtig interessant wird das Thema dann mit der vierten Variante – der Messung von Körpersignalen. Herzschlag, Hautwiederstand, Körpertemperatur … Dinge, die Menschen nicht bewusst beeinflussen können. Die ersten Versuche dazu sahen naturgemäß noch nach Schlaflabor aus.

Ein Experiment an der Universitäten Reading und Plymouth. Emotionen - ausgelesen per EEG - steuern Musik.

 An den Universitäten Reading und Plymouth entstand ein System, das aus Emotionen wie Freude und Traurigkeit des Nutzers spezielle Musik generierte. Ein Anfang. Das japanische Unternehmen Neurowear setzt diese Technologie bereits in einfache Geschäftsmodelle um. Wie eine typisch japanische Spielerei wirkt der Necomimi – tragbare Katzenohren (ja, wirklich), die sich je nach Aufmerksamkeitsgrad das Trägers anders aufstellen.

Amazon – Link Necomimi Europe Cat Ears Anime Cosplay Nekomimi

Ernsthafter war da schon des Brain Disco Experiment des Unternehmens. Die Testteilnehmer bestimmten anhand ihrer einfachen Gemütszustände das DJ Set eines ganzen Abends.

Die Geräte von Neurowear lesen derzeit nur die Zustände „Aufmerksamkeit, Abgelenktheit und Stress“. Aber genau diese Daten reichen bereits, um ein dem Emotionszustand entsprechendes Musikprogramm zu generieren. Keine Zukunftsvision. Das Produkt ist gerade öffentlich vorgestellt worden. Der Kopfhörer mit eingebautem Sensor, der mit Hilfe einer IPhone App das passende Mood Management Musikprogramm zusammenstellt.

Auch, wenn ich es noch nicht ausprobiert habe. Ich vermute, es wird funktionieren. Demnächst sicher auch mit Katzenvideos, die  Youtube anzeigt, wenn der Brain Sensor des Nutzers hohe Aggressionen misst. Das Radioprogramm, das automatisch umschaltet, wenn die Gefühlswelt des Nutzers aus dem Ruhepol rutscht. Oder das Auto, das den Fahrer weckt, wenn seine Aufmerksamkeit nachlässt. Und natürlich auch die Werbung, die passend zur Gefühlswelt des Nutzers angezeigt wird. Die neuen BCI, wie sie im Oktober in Tel Aviv diskutiert werden, haben ein riesen Potenzial. Zumindest, wenn sich die Menschen daran gewöhnen können, ihre Gefühle ungeschönt mit einem Computersystem zu teilen.

 

 

 

Schreibe einen Kommentar