Clear Sky Science · de

Einfluss von Geschlecht und Aufgabentyp auf das neuronale Netzwerk der Verarbeitung emotionaler Prosodie

· Zurück zur Übersicht

Warum der Tonfall wichtig ist

Wir wissen alle, dass die Art und Weise, wie etwas gesagt wird, genauso wichtig sein kann wie die Worte selbst. Das Auf und Ab der Stimme transportiert emotionale Prosodie — den musikalischen Teil der Sprache, der Wut, Freude, Ironie oder Trost signalisiert. Diese Studie fragt, was im Gehirn passiert, wenn wir diese vokalen Emotionen lesen, warum Frauen und Männer das möglicherweise unterschiedlich tun und wie verschiedene Arten von Höraufgaben die beteiligten Hirnnetzwerke verändern. Die Antworten könnten helfen, alltägliche soziale Unterschiede zu erklären und Licht auf Erkrankungen wie Autismus und Alzheimer zu werfen, bei denen das Erfassen von Emotionen oft gestört ist.

Zwischen den Zeilen hören

Die Autorinnen und Autoren fassten Ergebnisse aus 40 bildgebenden Studien zusammen, in denen Probanden emotionalen Stimmen lauschten. Anstatt sich auf einzelne Hirnareale zu konzentrieren, nutzten sie eine Methode namens Aktivierungsnetzwerk-Kartierung, um zu sehen, welche Regionen in vielen Experimenten dazu neigen, zusammenzuarbeiten. Anschließend legten sie diese Karten über ein großes „Verdrahtungsdiagramm“ typischer Gehirnverbindungen, das aus mehr als tausend Freiwilligen erstellt worden war. So konnten sie ein gemeinsames Netzwerk für emotionale Prosodie nachzeichnen und testen, wie dieses Netzwerk sich mit Aufgabenanforderungen und mit dem Geschlecht verändert.

Figure 1
Figure 1.

Ein geschichteter Pfad für emotionalen Ton

Die zusammengeführten Daten zeigen einen weitreichenden Schaltkreis, der frühe Schallverarbeitungsregionen in den Temporallappen, Aufmerksamkeits- und Kontrollbereiche im Frontallappen sowie tiefe, emotionale Strukturen wie die Amygdala umfasst. Wenn Menschen emotionalen Ton bloß hören, ohne ihn benennen zu müssen (implizite Aufgaben), ist die Aktivität am stärksten in grundlegenden Hör- und Stimmregionen, die Tonhöhe und Rhythmus analysieren. Müssen Menschen dagegen explizit beurteilen, was der Sprecher fühlt, weitet sich das Netzwerk auf frontale Regionen aus, die an Bewertung und Entscheidungsfindung beteiligt sind, sowie auf sensomotorische Bereiche, die Sprechen und körperliches Feedback unterstützen. Das stützt ein hierarchisches Bild: Zuerst erfasst das Gehirn akustische Details, dann integriert es diese zu einem Gefühl und schließlich bewertet und reagiert es, wobei bei steigender Aufgabenanforderung mehr Schaltkreise hinzugezogen werden.

Unterschiedliche Gehirne, unterschiedliche emotionale Abstimmung

Als das Team die Daten nach Geschlecht getrennt auswertete, zeigte sich, dass Frauen bei der Verarbeitung emotionaler Prosodie auf ein breiteres Netzwerk zurückgreifen als Männer. Bei Frauen waren zusätzliche Regionen im Frontalkortex, in Temporalbereichen, der Insula und in sensomotorischen Streifen stärker in das Netzwerk eingebunden, und die Konnektivität zwischen den Regionen war insgesamt höher. Männer zeigten ein kompakteres Muster, das sich auf eine kleinere Anzahl von Arealen konzentrierte. Diese Unterschiede stimmen mit Verhaltensstudien überein, die zeigen, dass Frauen häufig besser darin sind, Emotionen in Stimme, Gesicht und Körpersprache zu erkennen, und deuten darauf hin, dass Frauen beim Dekodieren der Sprechweise stärker auf eine reichere Integration von Klang, Gefühl und Motorsystemen zurückgreifen.

Figure 2
Figure 2.

Signale von Molekülen und Genen

Die Forschenden gingen auch unterhalb der Ebene von Hirnregionen vor und fragten, welche Gehirnchemikalien und Gene mit dem räumlichen Muster des Netzwerks für emotionale Prosodie übereinstimmen. Sie fanden, dass mehrere Rezeptorsysteme, die mit Stimmung und Angst verbunden sind — Serotonin, Cannabinoide, Glutamat und Noradrenalin — eine starke Überlappung mit dem Netzwerk zeigen. Das deutet darauf hin, dass dieselbe Chemie, die Angst und Sorge formt, auch unsere Sensitivität für den Tonfall der Stimme beeinflusst. Einige Rezeptoren waren für beide Geschlechter gemeinsam, andere zeigten geschlechtsspezifische Muster, was auf unterschiedliche chemische Wege zu ähnlichen Fähigkeiten hindeutet. Genexpressionsanalysen wiesen auf hohen Energieverbrauch, flexible Verbindungen zwischen Nervenzellen und aktiven Molekültransport als zentrale biologische Themen hin. Dieselben Gensätze zeigten zudem eine Anreicherung von Verknüpfungen zu Autismus und Alzheimer, was mit den Schwierigkeiten beim Erfassen emotionalen Tons in diesen Störungen übereinstimmt.

Was das für den Alltag bedeutet

Insgesamt zeigt diese Arbeit, dass das Verstehen des Tonfalls nicht Aufgabe eines einzelnen „Emotionszentrums“ ist, sondern eines koordinierten Hirnnetzwerks, das sich kontextabhängig anpasst und nach Geschlecht variiert. Wenn wir schnell die Stimmung einer Freundin oder eines Freundes aus einem einzigen Satz erfassen, arbeiten frühe Hörregionen, Aufmerksamkeitsysteme, Emotionszentren und Motorkreise zusammen und stützen sich auf leistungsfähige chemische und genetische Grundlagen. Die Kartierung dieses Netzwerks hilft zu erklären, warum manche Menschen — oder bestimmte Patientengruppen — Schwierigkeiten in der sozialen Kommunikation haben, und weist in Richtung gezielterer Ansätze zur Erforschung und letztlich Behandlung dieser Probleme, etwa durch Berücksichtigung des Geschlechts in Studiendesigns oder durch das Anvisieren spezifischer Hirnsysteme, die die Musik der Sprache tragen.

Zitation: Hu, P., Sun, X., Ouyang, X. et al. Gender and task type effects on the neural network of emotional prosody processing. Commun Biol 9, 351 (2026). https://doi.org/10.1038/s42003-026-09625-8

Schlüsselwörter: emotionale Prosodie, Hirnnetzwerke, Geschlechtsunterschiede, soziale Kommunikation, Neuroimaging