Gesicht. Unsere Gesichter nicht immer zeigen, unsere wahren Emotionen: Emotionale Intelligenz umfasst viel mehr als Lesen Menschen, die Mikro-Ausdrücke

Schauspieler James Franco sieht irgendwie glücklich, als er zeichnet ein video-Tagebuch, in dem Film „127 Stunden.“ Es ist nicht, bis die Kamera zoomt heraus, zeigt sein arm ist zerquetscht unter einem Felsblock, wird es klar sein goofy lächeln täuscht über seine Qual.

Das ist, weil, wenn es um das Lesen eine person Zustand des Geistes, visuellen Kontext — wie im hintergrund und aktiv-Sie ist genauso wichtig wie mimik und Körper Sprache, nach einer neuen Studie von der University of California, Berkeley.

Die Ergebnisse erscheinen diese Woche online in der Fachzeitschrift Proceedings of the National Academy of Sciences, Herausforderung Jahrzehnten der Forschung postulieren, dass emotionale Intelligenz und Anerkennung basieren im wesentlichen auf der Fähigkeit zu Lesen, micro-expressions-Signalisierung Freude, Trauer, Wut, Angst, überraschung, Ekel, Verachtung und andere positive und negative Stimmungen und Gefühle.

„Unsere Studie zeigt, dass die Erkennung von Emotionen ist im Kern eine Frage des Kontext so viel wie es ist über Gesichter,“ sagte Studie führen Autor Zhimin Chen, Doktorand in der Psychologie an der UC Berkeley.

Forscher verschwommen die Gesichter und Körper der Schauspieler in Dutzenden von stummgeschaltete clips von Hollywood-Filme und home-videos. Trotz der Zeichen‘ virtuelle Unsichtbarkeit, Hunderte Teilnehmer der Studie waren in der Lage, genau zu Lesen, Ihre Gefühle, indem Sie untersuchen die Hintergründe und wie Sie interagieren mit Ihrer Umgebung.

Die „affektive tracking“ – Modell, das Chen für die erstellten Studie können die Forscher verfolgen, wie die Menschen bewerten die moment-zu-moment-Emotionen der Charaktere, wie Sie videos anzeigen.

Chen ‚ s Methode ist in der Lage zu sammeln große Mengen an Daten in kurzer Zeit und könnte schließlich verwendet werden, um zu beurteilen, wie Menschen mit Störungen wie Autismus und Schizophrenie Lesen Emotionen in Echtzeit, und hilft mit Ihren Diagnosen.

„Manche Menschen haben vielleicht Defizite im erkennen von Gesichtsausdrücken, aber erkennen kann emotion aus dem Zusammenhang“, sagte Chen. „Für andere ist es das Gegenteil.“

Darüber hinaus sind die Ergebnisse, basierend auf statistischen Analysen der Bewertungen gesammelt, könnte informieren Sie über die Entwicklung von Technologie der Gesichtserkennung.

„Jetzt sind Unternehmen in der Entwicklung von machine-learning-algorithmen für das erkennen von Emotionen, aber Sie nur trainieren, Ihre Modelle auf beschnitten Gesichter und solche Modelle können nur Lesen Emotionen aus den Gesichtern“, sagte Chen. „Unsere Forschung zeigt, dass Gesichter nicht zeigen wahre Emotionen sehr genau und, die der Identifizierung einer person, die Stimmung sollte berücksichtigt werden, Kontext.“

Für die Studie, Chen und Studie senior Autor David Whitney, ein UC Berkeley-vision-Wissenschaftler getestet, die emotion, die Anerkennung der Fähigkeiten von fast 400 junge Erwachsene. Die visuellen Reize, die Sie verwendet wurden video-clips von verschiedenen Hollywood-Filme sowie Dokumentationen und videos, die zeigte, dass emotionale Reaktionen in natürlicher Einstellungen.

Teilnehmer der Studie ging online betrachten und beurteilen Sie die video-clips. Eine rating-raster wurde über das video gelegt, so dass die Forscher verfolgen konnte jede Studie Teilnehmer cursor so, wie es auf dem Bildschirm bewegt, die Verarbeitung visueller Informationen und die Bewertung von-moment-zu-moment-Emotionen.

In der ersten von drei Experimenten, die 33 Teilnehmer der Studie betrachtet Interaktionen in Film clips zwischen zwei Zeichen, von denen war verschwommen, und bewertet die wahrgenommenen Emotionen der unscharfen Charakter. Die Ergebnisse zeigten, dass Teilnehmer der Studie abgeleitet werden, wie die unsichtbaren Zeichen wurde das Gefühl nicht nur die zwischenmenschlichen Interaktionen, aber auch von dem, was sich im hintergrund abspielt.

Neben rund 200 Teilnehmer der Studie betrachtet, video-clips, die zeigen Wechselwirkungen unter drei verschiedenen Bedingungen: eine, in der alles, was sichtbar war, andere, in denen die Charaktere wurden verschwommen, und andere, in denen der Kontext war verschwommen. Die Ergebnisse zeigten, dass der Zusammenhang war so wichtig wie die Gesichtserkennung für die Dekodierung von Emotionen.

Im abschließenden experiment, 75 Teilnehmer der Studie betrachtet clips von Dokumentarfilmen und videos, so dass die Forscher vergleichen konnte Emotionserkennung in mehr naturalistischen Einstellungen. Wieder, Kontext wurde als entscheidend für die Herleitung der Emotionen der Charaktere, wie war Ihre mimik und gestik.

„Insgesamt sind die Ergebnisse deuten darauf hin, dass der Kontext wird nicht nur ausreichen, um die Wahrnehmung von Emotionen, sondern auch notwendig ist, wahrnehmen eine person, die emotion“, sagte Whitney, ein UC Berkeley professor für Psychologie. „Ehrlich, das Gesicht ist nicht genug, um die Wahrnehmung von Emotionen.“