Experten aus der baskischen Forschungszentrum BCBL haben zum ersten mal gezeigt, dass die Art und Weise, in der die Aktivität der beiden Gehirn verbunden ist, hängt davon ab, ob der Dialog findet in der Muttersprache oder in einer Fremdsprache.
Als zwei Personen sprechen, Ihr Gehirn zu arbeiten beginnen gleichzeitig, synchronisieren und zur Schaffung einer einzigartigen Band. Dies ist, was in der Neurowissenschaft, genannt Gehirn-Synchronisation.
Neue Forschung von der Basque Center on Cognition, Brain and Language (BCBL) in San Sebastián und veröffentlicht in Cortex – Magazin bestätigt, dass dieses Phänomen hängt von der Sprache, die wir verwenden, um zu kommunizieren.
Die Studie, durchgeführt in Zusammenarbeit mit den verschiedenen internationalen Institutionen wie der Universität von Toronto (Kanada) und der Nebrija-Universität von Madrid, konnten die Wissenschaftler analysieren, wie brain-wave-Synchronität erfolgt in verschiedenen sprachlichen Kontexten.
So haben Experten zum ersten mal gefunden, dass die Art und Weise, in der die Aktivität der beiden Gehirn wird synchronisiert oder ähnliches, hängt von der verwendeten Sprache in der Konversation.
Diese Arbeit, angeführt von Alejandro Perez von der BCBL, fügt zu einer früheren Arbeit im Jahr 2017, die das Phänomen beschrieben von Gehirn-Synchronisation in der Kommunikation zwischen zwei Menschen, die sprechen in Ihrer Muttersprache.
Wie im ersten experiment, die Forscher arrangiert 60 Personen in gleichgeschlechtlichen Paaren, die jeweils aus Personen, die, getrennt durch einen Bildschirm, nicht wissen, einander und waren ähnlich in Alter und demografische Merkmale.
Nach einem script, das Paare sich in einem Allgemeinen Gespräch abwechselnd Ihre Muttersprache mit einer Fremdsprache. Mithilfe der Elektroenzephalografie (EEG) – eine nicht-invasive test, der analysiert die elektrische Aktivität des Gehirns — die Wissenschaftler Maßen die Aktivität der Gehirnwellen gleichzeitig.
„Wir haben gesehen, wie die Ausrichtung der Hirnströme erfolgt anders, wenn das Gespräch findet in der Muttersprache oder in einer Fremdsprache. Diese Studie hat uns erlaubt, vorwärts zu bewegen und zeigen, dass das Gehirn Gleichzeitigkeit hängt vom sprachlichen Kontext,“ Pérez erklärt.
„Die Hirnareale, die synchronisieren, am besten zwischen den beiden Gehirne sind Verschieden, je nachdem, ob eine außen-oder eine native Sprache verwendet wird“, ergänzt der Experte. „Diese neue Entdeckung wirft viele Fragen auf und neue Linien der Forschung in der Neurowissenschaft.“
Synchronisation zu verstehen, die Gesprächspartner
Sprechen einer fremden Sprache macht unsere Gehirne richten Sie in einer anderen Weise zu verstehen, die Gesprächspartner. „Die Gehirne von zwei Menschen, die sprechen eine Fremdsprache zu etablieren, die eine unterschiedliche neuronale Bindung aus, wenn Sie in Ihrer Muttersprache, um zu verstehen, den Gesprächspartner“, versichert Pérez.
Obwohl die spezifischen Gründe dafür sind noch nicht klar, diejenigen, die verantwortlich für die Studie sind vor allem geneigt zu glauben, dass es aufgrund der so genannten gemeinsamen Aufmerksamkeit Strategien, die eine wesentliche Phänomen für die Kodierung und Verarbeitung von Informationen in einer koordinierten Art und Weise, die spezifisch für jede Sprache.
„Wenn ein Gespräch stattfindet, in einer nativen Sprache, die beide Gesprächspartner die Aufmerksamkeit, um es in ein mehr globaler Art, die sich auf die Sätze und den globalen Inhalt der Nachricht,“ betont Jon Andoni Duñabeitia, co-Autor der Studie.
Jedoch, wenn getan, in einer fremden Sprache, Aufmerksamkeit Ressourcen konzentrieren sich in Erster Linie auf andere, komplexere sprachliche Ebenen für non-native-Speakern, wie Klänge und Worte.
„In den letzten kommunikativen Kontext, die wir konfigurieren müssen, unsere Aufmerksamkeit auf die Strategien, so dass wir einander verstehen, und dies kann in direktem Zusammenhang mit dem Unterschied in den Bereichen synchron während des Gesprächs“, schlägt Duñabeitia.
Zukünftigen Auswirkungen
Für die Autoren dieser Arbeit eröffnet die zukünftige Möglichkeit der Quantifizierung der verbalen Kommunikation zwischen zwei Personen. „Real-time signal processing und billigere Geräte, die Messen die Hirnaktivität wird es möglich machen, integrieren sensoren in den eigentlichen Kopfhörer von Computern“, sagt Alejandro Pérez.
„Diese bieten auch eine quantitative Bewertung der Qualität — persönliches Engagement — und-Eigenschaften-Sprache oder emotionale Ladung — der verbalen Interaktion durch online-Kommunikation-tools wie Skype“, schließt Pérez.