FYI.

This story is over 5 years old.

Música

¿La música es un lenguaje y puede enseñarnos a hablar? Le preguntamos a un neurocientífico

Resulta que el nerd musical al que zapeabas en la escuela tenía razón.

Recuerda a ese tipo un poco solitario al que saludabas de vez en cuando. El mismo que ensayaba con la banda de jazz cada viernes y siempre usaba voluntariamente un moño con puntitos. Mientras él hablaba de ‘expresiones’, ‘frases’ y como la improvisación en el jazz era acerca de entender el ‘lenguaje’, tú probablemente lo tirabas de loco y le dabas unos zapes.

Pero como siempre, resulta que los nerds sabían lo que hacían. Todos entendemos vagamente el concepto general de la música instrumental y cómo se lee, desde Chopin hasta Miles Davis, con sus propias reglas, símbolos y un colosal margen de error – como cualquier lenguaje. Pero ahora resulta que esuchar una pieza de jazz, música clásica, minimalista o pop, puede traer el mismo conmovedor y emocional efecto en cualquier persona, independientemente de que sepan leer música o no.

Publicidad

Sólo un pequeño porcentaje de la población puede leer música actualmente, pero aún así casi todos entendemos el mensaje que una canción está intentando transmitir. ¿Cómo es que podemos entender los tonos, estados de ánimo e intenciones sin conocer su lenguaje? ¿Es la música una especie de sistema universal de comunicación dotado con poderes especiales?

Los neurocientíficos han estado preguntándose cómo es que el cerebro procesa la música y qué consecuencias puede esto tener para preguntas como las de arriba. Ellos están investigando si el cerebro procesa la melodía y el ritmo en la misma forma en la que lo hace con palabras y oraciones. También hay un debate acerca de qué viene primero en nuestro desarrollo: ¿nuestra disposición natural por los lenguajes o una sensibilidad inherente a la música? ¿Y si es así, podríamos entonces usar la música para ayudar a la gente por impedimentos en el lenguaje?

La Dra. Dominique Vuvan, una investigadora basada en el Laboratorio Internacional para la Investigación del Cerebro, la Música y el Sonido (BRAMS por sus siglas en inglés) en Montreal, ha trabajado recientemente en un artículo titulado Superposición Neural al Procesar la Música y el Habla (así, con mayúsculas), en el que su laboratorio evaluó la evidencia de los procesos compartidos entre la música y el lenguaje en el cerebro. Le hablé la semana pasada para para saber más del mágico efecto de la música en el cerebro y por qué el jazz es particularmente especial.

Publicidad

Noisey: ¡Hola Dominique! Entonces, explícame en términos que entendería, ¿qué significa que haya una superposición entre la forma que el cerebro procesa la música y el lenguaje?

Dominique: Puede que haya una prueba de lenguaje encienda una cierta parte del lóbulo temporal, y después puede que haya una prueba musical que ilumine esa misma parte del cerebro. Entonces tienes lo que parece como que existen las mismas activaciones entre la prueba de lenguaje y la prueba musical. Son estas instancias las que hacen que la gente diga que existe una siperposición entre cómo procesamos la música y el lenguaje.

El problema es que a veces cuando la gente dice ‘superposición’ en realidad están queriendo decir que hay un área ‘compartida’.La conclusión que están queriendo hacer es que la música y el lenguaje dependen de los mismos recursos neuronales para ser procesados en el cerebro, pero eso puede que no sea estrictamente cierto.

Correcto.

Mucho de este trabajo viene desde hace 10 o 15 años, cuando un psicólogo llamado Stephen Pinker vino a una conferencia de cognición musical y dio una nota clave. Se refirió a la música como un ‘pay de queso’ auditivo y básicamente estaba argumentando que la música no es funcional para nada. Que no es útil y mucho menos importante: solo es algo que funciona a cuestas de nuestra capacidad del lenguaje. Y son sentimientos como éste los que han acelerado la investigación hacia la superposición entre la música y el lenguaje en las últimas décadas.

Publicidad

Entonces el dice que el lenguaje llegó antes que la música, o ‘pay de queso auditivo’, en términos de evolución. ¿Es eso lo que tú piensas? ¿Que evolucionamos con una disposición natural por el lenguaje y que la música solo es un subproducto feliz pero ligeramente inútil?

No creo que sepamos lo suficiente como para hacer una distinción entre los dos. Pero esa es una de las preguntas abrumadoras que está guiando esta investigación. Puedes verlo desde la perspectiva de Pinker, que el lenguaje es la habilidad más funcional e importante. Pero también lo puedes ver del otro lado. Si piensas acerca de lo que está involucrado al procesar el lenguaje, puedes ver que el lenguaje de hecho tiene procesos extra. Por ejemplo, la música no tiene semántica como el lenguaje y entonces requiere otro nivel de procesamiento. Entonces, desde cierto punto de vista, podemos decir que la música de hecho es más primitiva que el lenguaje. Lo que significa que algunas personas podrían decir que en realidad el lenguaje funciona a cuestas de lo que teníamos antes para procesar la música y el sonido.

Si podemos usar la música para comunicar emociones y sentimientos, ¿entonces no es la música un lenguaje en un sentido limitado?

Puedes decir con certeza que es un lenguaje en un sentido metafórico, en términos de comunicación y en términos de emoción. Hay muchas investigaciones que ven a la superposición entre la música y el lenguaje en términos de cómo la emoción es representada entre los dos y hay evidencia conflictiva de que algunas veces hay recursos compartidos y procesamiento compartido, aunque algunas veces no lo hay.

Publicidad

via

Hay otro estudio (de la Universidad Johns Hopkins) que encontró que durante la improvisación en el jazz, las áreas del cerebro que procesan la estructura gramatical de las oraciones estaban funcionando, pero aquellas que procesan el significado del lenguaje estaban apagadas. Ahora, sabemos que la música no tiene verbos ni sustantivos, ese tipo de cosas, pero en términos de comprensión, ¿descifrar música puede ser algunas veces lo mismo que descifrar el lenguaje escrito?

Hay resultados realmente interesante en ese estudio. La improvisación parece haber activado las áreas que procesan la sitáxis en ambos lados del cerebro ,en lo que se llama el Girus inferior frontal (IFG). Lo que normalmente ves es que los estudios del lenguaje activan el IFG izquierdo (“procesador de sintaxis del lenguaje”) y los estudios de música activan el que está en el hemisferio derecho (“procesador de sintaxis musical”). En cambio, aquí vimos iluminadas ambos hemisferios, sugiriendo que la improvisación llama algo más que lo que hacen las tareas usuales de percepción musical. Ese “algo más” puede tener algo que ver con el procesamiento gramatical.

Entonces para resumir, definitivamente tenemos una especie de superposición entre cómo procesamos la música y el lenguaje, pero se necesita hacer una investigación más profunda acerca de dónde y qué tan grande es. ¿Puede esta investigación futura empezar a ayudar a personas a leer y escribir y aprender idiomas?

Básicamente, la idea general ahí es que si somos capaces de encontrar situaciones en las que en realidad haya un proceso neuronal compartido entre la música y el lenguaje y por lo tanto un proceso cognitivo compartido entre la música y el lenguaje, nos ayudará a usar el dominio de uno para ayudar al dominio del otro. Es difícil decir exactamente cuáles son esos puntos en común, pero la investigación está siendo conducida en esa dirección.

Continúa.

Puedes imaginarte, por ejemplo, que si tiene a alguien que tuvo un derrame que le borró todas sus habilidades de lenguaje, puedes usar un tipo de terapia musical para ayudarlo. Y de hecho, este tipo de terapia existe, la más común es llama Terapia de Entonación Melódica, en la cual se rehabilitan pacientes con derrames cantándoles enunciados para ayudarlos a usar el procesamiento musical para de alguna forma impulsar su recuperación del lenguaje.

Wow, eso sería increíble. Gracias por hablar conmigo Dominique.