Big Data und die Emotionserkennung in Gesichtern

An die Weitergabe unserer Aktivitäts- und Standortdaten haben wir uns fast gewöhnt. Doch sind wir auch bereit, unser Seelenleben preiszugeben? Neue Technologien kundschaften nun unsere Gefühle aus.

Maschinenliebe ist im Trend. Im Film „Her“ von Spike Jonze verliebt sich der einsame Held in das Betriebssystem „OS1“, das ihn besser versteht, als es ein Mensch je könnte. Und in „Ex Machina“, der im April in die Kinos kommt, ist es eine Roboterfrau mit dem Namen „Ava“, die dem Mann die Augen verdreht und zum Objekt seiner Sehnsüchte wird. Doch findet sich die Vorstellung einer empathischen Maschine schon viel früher, etwa in E.T.A. Hoffmanns Erzählung „Der Sandmann“, in der dem Protagonisten Nathanael das Automatenwesen Olimpia als perfekte Gefährtin erscheint. Der Wunsch, im Apparat statt kalter Mechanik echte Gefühle anzutreffen, ist uralt.

Zwar ist die technische Entwicklung noch nicht ganz so weit, aber die ersten Schritte werden gerade gemacht. Computerprogramme, die menschliche Emotionen noch nicht selbst empfinden, aber präzise nachvollziehen können, existieren bereits. So lautet jedenfalls das Versprechen jener aufstrebenden Start-Up-Unternehmen, die sogenannte „emotion analytics“ betreiben und sich Affectiva, Emotient oder Beyond Verbal nennen. Mittels Gesichts- oder Stimmerkennung lesen uns ihre Programme unsere Wünsche und Leidenschaften buchstäblich von den Lippen ab – und das in Echtzeit.

Weltweit 2,5 Millionen Gesichter ausgewertet

Die amerikanische Firma Affectiva etwa konzentriert sich auf die Analyse von Gesichtsmustern. Die wissenschaftliche Basis bildet die Forschung des Psychologen Paul Ekman, der in den siebziger Jahren Pionierarbeit bei der Klassifikation von Gesichtsausdrücken leistete. Ekman schlüsselte auf, welche Muskeln oder Muskelgruppen am Zustandekommen eines bestimmten Gesichtsausdrucks beteiligt sind und entwickelte darauf aufbauend ein Erkennungssystem namens „Facial Action Coding System“ (FACS), mit Hilfe dessen er eine Reihe sogenannter Basisemotionen bestimmte: darunter Freude, Wut, Ekel oder Überraschung. Affectivas Software geht darüber sogar noch hinaus. Mit Hilfe komplexer, selbstlernender Algorithmen ist man in der Lage, ein größeres Spektrum an Emotionen abzubilden als Ekman es vermochte.

Um das Mienenspiel der Probanden zu erfassen, genügt dann eine einfache Webcam. Das Analyseprogramm des Unternehmens, Affdex, weist dem jeweiligen Gesichtsausdruck umgehend eine bestimmte Gefühlsregung zu – im Abgleich mit seinem Datensatz. Und der, Big Data macht es möglich, ist riesig. Affectiva hat weltweit bereits 2,5 Millionen Gesichter in 75 Ländern ausgewertet, ein Ende ist nicht in Sicht. Die globale Reichweite ermöglicht es dem Unternehmen, den Ausdruck von Gefühlen über kulturelle Unterschiede hinweg zu untersuchen. Resultat soll ein universales Modell menschlicher Mimik sein.

Mittlerweile ist Affectiva zum Marktführer der Branche aufgestiegen. Letztes Jahr beschloss man eine Partnerschaft mit Millward Brown, der zweitgrößten Marktforschungsfirma der Welt, die unter anderem Kunden wie Unilever, Kelloggs und Pepsi berät. Durch die Kooperation wird Affectivas Software ab sofort standardmäßig verwendet, um die Reaktion von Konsumenten auf Werbung aller Art zu untersuchen. Außerdem testet man in Zusammenarbeit mit Fernsehsendern die Resonanz des Publikums auf Serienpiloten. Für Rana el Kaliouby, Gründerin und wissenschaftlichen Leiterin des Unternehmens, ist das erst der Anfang. „Wir leben in einer Emotionsökonomie: Gefühle beeinflussen ganz maßgeblich die wirtschaftlichen Entscheidungen, die wir treffen. Emotional involvierte Konsumenten sind das, wonach Unternehmen suchen, denn bei ihnen ist es wahrscheinlicher, dass sie sich an das Produkt erinnern, darüber reden, und es schließlich kaufen.“ sagte sie im Gespräch mit FAZ.NET. Bisher habe sich die Marktforschung auf die Befragung der Konsumenten verlassen, doch mit Hilfe von Emotionsdaten könne man viel präziser bestimmen, was die Menschen bewegt und Produkte optimal darauf abstimmen. Ein Beispiel biete die Konzeption von Filmtrailern: „Man hat immer eine Reihe von Szenen, die man auf unterschiedliche Weise zusammensetzen kann. Unsere Technologie hilft dabei, die besten Szenen auszuwählen, für ein bestimmtes Publikum, eine bestimmte Zielgruppe.“

Affdex ist sogar in der Lage, sogenannte Mikroexpressionen zu registrieren, also die unfreiwilligen, nur Sekundenbruchteile dauernden Veränderungen auf unseren Gesichtern, wenn uns ein Gefühl überkommt. Wir kennen das aus der populären Fernsehserie „Lie To Me“, die sich um einen Ermittler dreht, der über ähnliche Fähigkeiten verfügt. Doch hat die Serie einen realen Hintergrund: Paul Ekman persönlich betreibt ein Unternehmen, das FBI wie CIA berät und Workshops für Agenten anbietet, um sie darin zu schulen, in Verhören Lügner zu identifizieren. Wenn aber Computerprogramme den Job zuverlässiger und automatisiert erledigen können, werden solche Einweisungen bald überflüssig sein. Rana el Kaliouby betont, dass Affectiva die Zusammenarbeit mit Polizei oder Geheimdiensten ablehne. Konkurrenten wie die Firma Eyeris sind aber, wie das Wall Street Journal kürzlich berichtete, weniger zimperlich.

Flirthilfe für Gefühlsblinde

Auch Affectiva sucht aber für seine Software weitere Anwendungen. So arbeitet man seit kurzem mit ooVoo zusammen, einem Dienst für Videotelefonie. In Zukunft wird man seine Gesprächspartner nicht nur sehen und hören, sondern auch herausfinden können, was sie gerade fühlen. Der Dozent eines Onlinekurses könnte etwa die Aufmerksamkeit seiner Schüler kontrollieren – und ob sein letzter Witz gut ankam. Bei Geschäftsverhandlungen per Videokonferenz könnten die Parteien überprüfen, ob die Gegenseite wirklich mit offenen Karten spielt. Und auch bei Vorstellungsgesprächen lässt sich das Programm nutzen: Bewerber müssten sich dann nicht nur den Augen der Chefs, sondern auch dem unbestechlichen Blick der Kamera aussetzen. Von den unendlichen Möglichkeiten für notorisch eifersüchtige Partner ganz zu schweigen.

Wie eine Welt aussehen könnte, in der computergestützte Emotionsanalyse allgegenwärtig ist, zeigt ein Werbevideo des israelischen Unternehmens Beyond Verbal, das sich anstatt auf Gesichts- auf Stimmerkennung spezialisiert. Flirtanalphabeten verspricht der Sprecher die Lösung all ihrer Probleme: Du bist mal wieder nicht in der Lage, ihre Körpersprache zu deuten? Lass deine mobile App die Sache erledigen – indem du ihre Stimme aufnimmst und feststellen lässt, ob sie sich amüsiert.

Eine neue Dimension des Datensammelns

Zunächst klingt das absurd. Anderseits: Seit Google Maps auf Smartphones zu finden ist, fragt ja auch niemand mehr nach dem Weg. Und wenn ein fetziger Song läuft, dessen Namen man nicht kennt, wird der Musikdetektor Shazam angeworfen, anstatt in der Kneipenrunde zu diskutieren. Wieso also nicht eine App, um sich auf dem Terrain der Gefühle zurechtzufinden? Yuval Mor, Vorstandsvorsitzender von Beyond Verbal, glaubt jedenfalls fest daran, dass seine Technologie helfen kann, sowohl Wohlbefinden als auch psychische Leistungsfähigkeit der Menschen zu verbessern. Er selbst nutze die Smartphone-App – sie heißt übrigens „Moodies“ – etwa auf Konferenzen; so könne er sich vor wichtigen Reden vergewissern, dass er entschlossen und selbstsicher klinge. Auch während des Interviews für diesen Artikel nimmt er sich selbst auf und teilt mir die Ergebnisse mit: „Am Anfang des Interviews zeigt mit die App ‚Selbstkontrolle‘ an. Meine Stimmung veränderte sich dann hin zu Freundlichkeit, mit Weitsicht und Willensstärke als sekundären Emotionen. Am Ende zeigt mir die App, dass ich zufrieden bin, und überzeugt von dem, was ich sage.“

Zehn bis fünfzehn Sekunden an gesprochener Sprache genügen Beyond Verbals Software, die Erkenntnisse aus Physik und Neuropsychologie nutzt, um den Gemütszustand der Sprecher zu berechnen – unabhängig von der verwendeten Einzelsprache. Kommerzielle Verwendung findet die Technologie etwa in Call-Centern, um die Verkaufseffizienz von Mitarbeitern zu verbessern. Denn oft komme es nicht darauf an, was man sagt, sondern wie man es sagt, so Mor. Ist der Klient aufgebracht, und drauf und dran, seinen Vertrag zu kündigen? Oder klingt er zufrieden und aufgeschlossen gegenüber neuen Angeboten? Der Verkäufer kann durch die Sprachanalyse seine Strategie anpassen, das Programm gibt ihm dabei laufend Handlungsvorschläge. So erzielt er jeweils den besten Preis.

So weit, so effizient. Bleibt nur die Frage: Wird hier nicht eine neue Dimension des Datensammelns erreicht? Möchten wir unsere Gefühle den Maschinen wirklich preisgeben? Obwohl wir uns an die freie Zirkulation unserer Aktivitäts- und Standortdaten schon beinahe gewöhnt haben, ist die Erfassung dessen, was wir als unser Intimstes, unser innerstes Wesen begreifen, noch unbekannt. Zwar legen aktuelle Studien nahe, dass auch unsere Facebook-Likes bereits Rückschlüsse auf unsere Persönlichkeit und psychische Disposition erlauben. Doch das Auslesen unserer Gefühle in dem Moment, in dem wir sie empfinden, ist ein Quantensprung.

Welcher Film passt gerade zu deiner Stimmung?

Man nehme die Bedenken der Skeptiker ernst, meinen die Unternehmer und betonen, dass man immer das Einverständnis der Menschen einhole, deren Emotionen aufgezeichnet würden. Sonst aber sei alles eine Sache der Gewöhnung. In der Zukunft werden empathische Maschinen ganz selbstverständlich unseren Alltag bevölkern, glaubt Yuval Mor: „Technische Geräte oder sogar humanoide Roboter werden einem sagen können: ‚Du siehst müde aus. Vielleicht willst du beim nächsten Café Halt machen.‘ Und wenn du ins Kino gehst, wird die Technologie dir einen Film empfehlen, der deiner Stimmung entspricht.“ Rana el Kaliouby meint ebenfalls, dass die Technologie sich durchsetzen und das Leben der Menschen bereichern wird: „Ich denke, in fünf bis zehn Jahren werden all unsere Geräte einen Emotionschip haben, der kontinuierlich unsere Stimmung liest. Dein Smartphone oder deine Smartwatch werden auf deinen emotionalen Zustand reagieren können.“

In „Her“ gibt es eine Szene, in der alle Menschen mit Knopf im Ohr durch die Stadt laufen – scherzend, lächelnd, mit traumverlorenem, glücklichen Blick. Doch sind es nicht andere Menschen, mit denen sie reden, sondern Samantha, das jederzeit aufmerksame, einfühlsame Betriebssystem. Werden Künstliche Intelligenzen am Ende noch die großen Tröster der Menschheit? Oder werden sie uns vielmehr manipulieren, wie es „Ex Machina“ vorführt? Fest steht: Egal, ob wir Wohlwollen oder Unbehagen gegenüber der technischen Entwicklung verspüren – die Maschinen werden es erkennen.

viaBig Data und die Emotionserkennung in Gesichtern.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

w

Verbinde mit %s