Dr. Marina Palazova
Dr. Wibke Hachmann (Martin-Luther Universität Halle-Wittenberg)
Die Integration verschiedener Sinneseindrücke ist eine der wichtigsten Grundlagen für intelligentes Verhalten. Je besser unterschiedliche Modalitäten integriert werden, desto erfolgreicher verläuft unsere sprachliche und akademische Entwicklung und differenziert sich unsere Selbstregulation. In den meisten Situationen, zum Beispiel wenn wir die Emotionen anderer verstehen wollen, ist eine Kombination aller unserer Sinne gefordert. Umgekehrt, wenn das Erkennen von Emotionen gestört ist, betrifft diese Störung Emotionserkennung in allen beteiligten Sinnesmodalitäten. Emotionsverarbeitung ist also deutlich in cross-modaler Verarbeitung verankert. Schnelle visuelle und langsamere auditive und sprachliche Assoziationen können ein übereinstimmendes Perzept, oder aber divergente Wahrnehmungen produzieren, zum Beispiel Ironie in einem mit freundlichem Gesichtsausdruck hervorgebrachten Vorwurf. Allerdings ist bis heute ungeklärt, wie sich übereinstimmende und divergente cross-modale Assoziationen bilden und welche Rolle der Grad der Kopplung für ein Individuum spielt. Um Lernen und Selbstregulation aber sinnvoll unterstützen zu können, müssen wir verstehen wie diese Zusammenhänge funktionieren. Das Projekt hat das Ziel, die Rolle multisensorischer Integration in der Wahrnehmung beim Verstehen von Emotionen zu untersuchen. Mit der Methode der Elektroenzephalographie (EEG) werden in der Pilotstudie die ereigniskorrelierten Potentiale (EKP) und die oszillatorischen Hirnwellen bei der Integration von auditiven und visuellen Reizen beim Erkennen von Emotionen erhoben. Die Frequenzanalyse steht dabei im Fokus und soll Hinweise darüber liefern, welche Amplitude und Dauer der Alpha-Synchronisation zusammen mit welchen Reset-Rhythmen am besten die Integration von visuellen und auditiven Reizen unterstützen.
Originalsprache: Deutsch, Englisch
Projektbeginn: 01/2017
Projektende: 01/2018