FYI.

This story is over 5 years old.

we asked a smart person

Ist Musik Sprache? Wir haben eine Neurowissenschaftlerin gefragt

Der Nerd, der behauptet hat, dass Jazz eine Sprache ist, hatte wahrscheinlich recht.

Erinnerst du dich an diesen einen weirden Typen in deiner Schule, mit dem du so halb befreundet warst? Der immer freiwillig eine Fliege trug und behauptet hat, dass Jazz eine Sprache sei? Und wie du dabei mit den Augen gerollt hast?

Wir müssen dir mitteilen, dass dieser Nerd damit gar nicht so falsch lag. Wir alle wissen, dass geschriebene Musik—von Chopin bis Miles Davis—mit ihren Regeln und Symbolen einem Konzept folgt, dass Sprachen nicht unähnlich ist. Aber warum hat das Hören von Musik—egal ob es Pop-Songs oder Stücke von klassischer Musik sind—einen emotionalen Effekt auf Menschen, ganz egal ob sie die Musik lesen und verstehen können?

Anzeige

Heute kann nur noch ein kleiner Prozentsatz der Menschen Noten lesen, aber fast jeder versteht die Message, die ein Stück Musik verbreiten will. Warum können wir Musik verstehen, obwohl wir ihre Sprache nicht (mehr) sprechen? Ist Musik ein universelles System der Kommunikation?

Neurowissenschaftler versuchen zu ergründen, wie das Gehirn Musik verarbeitet, und welche Konsequenzen das auf die oben aufgeworfenen Fragen hat. Verarbeitet das Gehirn Melodie und Rhythmus in derselben Art und Weise, wie es Wörte und Sätze verarbeitet? Es gibt ebenso eine Debatte darüber, ob der Mensch zuerst ein Gefühl für Sprache oder für Musik entwickelt. Könnte Musik vielleicht Menschen helfen, die Probleme mit dem Sprechen haben?

Dr. Dominique Vuvan, eine Forscherin vom International Laboratory for Brain, Music, and Sound Research (BRAMS) in Montréal, arbeitet gerade an einem Paper , das „Neural Overlap in Processing Music and Speech“ heißt und sich damit beschäftigt, wo das Gehirn Sprache und Musik gemeinsam verarbeitet. Ich habe sie letzte Woche angerufen und mit ihr darüber geredet, wie Musik auf unser Gehirn wirkt und welche Sonderstellung Jazz dabei einnimmt.

Noisey: Hi Dominique! Kannst du mir erklären, was es konkret heißt, von einer Überschneidung bei der Verarbeitung von Musik und Sprache im Gehirn zu reden? Am besten so, dass es sogar ein Idiot wie ich versteht?
Dominique: Ganz grob gesagt: Wenn bei einem Sprach- und einem Musiktest derselbe Teil des Gehirns aufleuchtet. Das schaut dann so aus, als würden beide Tests dieselbe Aktivität auslösen. Dann reden Leute gerne von einer Überschneidung. Das Problem ist: Sie sagen „Überschneidung“, wenn sie eigentlich meinen, dass Musik und Sprache mit denselben neuronalen Ressourcen verarbeitet werden. Aber das stimmt so wahrscheinlich nicht.

Anzeige

Ja … OK.
Vieles von dieser Arbeit hat ihren Ursprung vor 15 Jahren, als ein Psychologe namens Stephen Pinker auf einer Konferenz zur Musikwahrnehmung eine Keynote gegeben hat. Er hat Musik dabei als den „Käsekuchen des Gehörs“ bezeichnet. Im Grunde hat er argumentiert, dass Musik keine eigenständige Funktion habe, sondern sich nur auf unsere Fähigkeit zur Sprache draufsetze. Solche Aussagen haben dann dazu geführt, dass intensivere Forschung in die Richtung betrieben wurde.

Lest unten weiter…

Seiner Meinung nach kam also Sprache evolutionär gesehen vor Musik, dem „Käsekuchen des Gehörs“. Was glaubst du? Werden wir mit der Fähigkeit geboren, Sprache zu verstehen, und ist Musik nichts anderes als ein praktisches Nebenprodukt?
Ich glaube, wir wissen einfach noch viel zu wenig, um wirklich eine Unterscheidung zwischen den beiden Dingen zu machen. Das ist eine der drängenden Fragen, die hinter der Forschung stehen. Man kann das natürlich sehen wie Pinker, also dass Sprache unsere wichtigste und funktionalste Fähigkeit ist. Man kann es aber auch fast genau umgekehrt sehen: Für die Verarbeitung von Sprache im Gehirn braucht unser Gehirn mehr als für Musik. Letztere hat zum Beispiel keine Semantik. Das hat nur Sprache, und so kommt unsere Fähigkeit, Semantik zu verarbeiten, auch nur bei dieser zur Anwendung. Man könnte also sagen, dass Musik deutlich primitiver als Sprache ist. Deswegen gehen manche Forscher davon aus, dass sich Sprache eigentlich mehr auf Fähigkeit, Musik zu verstehen, draufsetze.

Anzeige

Wir setzten Musik dazu ein, unsere Emotionen und Gefühle darzustellen. Ist das nicht sowieso irgendwie Sprache?
Metaphorisch gesehen kann man das sicher so sehen. Es gibt eine Menge Forschung, die untersucht, wie Emotionen in der Sprache und der Musik vorkommen und wo sich das überlappt. Es gibt ziemlich überzeugende Ergebnisse, dass es da viele Überschneidungen gibt, aber auch Bereiche, die völlig anders funktionieren.

via

Es gibt eine andere Studie von der Johns Hopkins University, nach der während einer Jazz-Improvisation die Teile des Gehirns, die grammatikalische Strukturen verarbeiten, aktiv waren. Die Teile, die die Bedeutung von Sprache verstehen, waren inaktiv. Ich weiß, dass Musik keine Verben, Substantive und so weiter hat. Aber jetzt nur mal rein interessehalber: Inwieweit lässt sich das Entziffern von Musik mit dem Entziffern von geschriebener Sprache vergleichen?
Diese Studie zeigt einige interessante Resultate. Es scheint, dass Improvisation den Bereich aktiviert, der für die Verarbeitung des Satzbaus verantwortlich ist. Genauer sind diese Bereiche auf beiden Seiten des Hirns—man nennt sie Gyrus frontalis interior. Normalerweise aktivieren Sprachstudien die linke und Musikstudien die rechte Gehirnhälfte. Bei dieser Studie sieht man, dass beide Seiten aktiv sind. Daraus kann man schließen, dass Improvisation mehr hervorruft, als die übliche Reaktion auf Musik. Dieses „mehr“ könnte gut etwas mit der Verarbeitung grammatischer Strukturen zu tun haben.

Anzeige

Kurz gesagt gibt es eine Überschneidung zwischen der Verarbeitung von Musik und Sprache, aber genaueres gehört noch erforscht—warum und wie das großartig ist. Könnte zukünftige Forschung beim Erlernen vom Alphabet und Sprachen helfen?
Die eigentliche Idee ist, dass wir es schaffen, Situationen zu finden in denen es tatsächlich so etwas wie eine neurale Gemeinsamkeit zwischen Musik und Sprache gibt. Diese kognivtive Gemeinsamkeit zwischen Musik und Sprache kann uns helfen einen Bereich zu nützen, um den anderen zu unterstützen. Noch ist es schwer eine Definition zu finden, aber die Forschung geht in diese Richtung.

OK, und weiter?
Stell dir beispielsweise mal vor, es gäbe da jemanden, der seine sprachlichen Fähigkeiten nach einem Schlaganfall verloren hat—eine Musiktherapie könnte ihm dann in so einem Fall helfen. Diese Form von Therapie gibt es sogar schon: die bekannteste nennt sich Melodische Intonationstherapie, bei der du Schlaganfall-Patienten durch das Vorsingen von Liedern rehabilitierst.

Wow, das klingt unglaublich großartig. Danke für das Gespräch, Dominique.

Du kannst Huw auf Twitter folgen.

Folgt Noisey bei Facebook und Twitter.