La música es una atractiva mezcla de sonidos y de ritmo que, lejos de encasillarse en una mera distracción, exige un trabajo coordinado de diversas áreas del cerebro humano, activando circuitos y regiones en ambos hemisferios.
Esta dinámica está bajo la óptica científica, toda vez que puede ser útil para comprender toda clase de procesos neurológicos. Es lo que, en rigor, sucedió recientemente en una sala de cirugía especialmente preparada en el Albany Medical Center, en Estados Unidos. Allí, la música de la banda británica Pink Floyd se convirtió en más que un acompañamiento sonoro.
La histórica canción “Another Brick in the Wall, Part 1” fue objeto de un estudio que buscó entender cómo el cerebro humano procesa los sonidos musicales.
El trabajo, que fue dirigido por un equipo de neurocientíficos de la Universidad de California, Berkeley, tenía como objetivo principal registrar la actividad cerebral asociada con diferentes aspectos de la música, como por ejemplo el tono, el ritmo, la armonía y las letras.
La investigación, que fue publicada en la revista PLOS Biology, se desarrolló durante más de una década y se centró en cómo las diferentes dimensiones sonoras se procesan en las áreas del cerebro. Para llevar a cabo el experimento, los autores utilizaron una técnica llamada electrocorticografía (ECoG), mediante la cual se implantaron electrodos en la superficie cerebral de los participantes, quienes eran pacientes con epilepsia que ya tenían programada una cirugía.
Los electrodos capturaron la actividad eléctrica en regiones neurológicas específicas mientras los individuos escuchaban la canción de la banda británica.
Los resultados mostraron que diferentes áreas del cerebro son responsables de procesar diferentes aspectos de la música. Por ejemplo, el lóbulo temporal se activó con el tono y la melodía, mientras que el lóbulo frontal mostró una mayor actividad ante el ritmo y la armonía. De todos modos, el hallazgo más sorprendente fue que los investigadores pudieron reconstruir parte de la canción de Pink Floyd, únicamente, a partir de estos registros de la actividad cerebral y sin necesidad de escuchar directamente la pieza artística.
Utilizando algoritmos de aprendizaje automático con Inteligencia Artificial, la frase “en definitiva, era solo un ladrillo en la pared” se pudo identificar en la canción reconstruida, con ritmos y palabras que se podían entender claramente.
Así las cosas, este estudio no solo arrojó luz sobre cómo el cerebro procesa la música, sino que también abrió nuevas vías para la investigación en neurociencia. Para los autores, los resultados “podrían tener aplicaciones en la rehabilitación de pacientes con trastornos del habla o del movimiento, ya que la música tiene un impacto significativo en estas áreas. Además, podrían ser útiles para desarrollar terapias basadas en la música para tratar diversas condiciones, como la depresión y la ansiedad”.
El equipo de investigación también se centró en cómo la actividad cerebral cambia con diferentes géneros de música. Se observó, en ese sentido, que la ópera, la música clásica y el jazz activaban áreas del cerebro relacionadas con la memoria y la emoción, mientras que el rock y el pop mostraban una mayor actividad en las regiones asociadas con el ritmo y la coordinación. Esto sugiere que diferentes géneros de música podrían tener diferentes efectos terapéuticos, lo que podría ser una vía de investigación futura.
La canción de Pink Floyd reconstruida por los científicos a partir de la actividad cerebral
“Es un resultado maravilloso el que encontramos”, analizó Robert Knight, uno de los autores del trabajo, neurólogo y profesor de psicología en el Instituto de Neurociencia Helen Wills de UC Berkeley.
“Una de las cosas que para mí tiene la música es que tiene prosodia (pronunciación y acentuación) y contenido emocional. A medida que avanza todo este campo de las interfaces cerebro-máquina de IA, esto te brinda una manera de agregar musicalidad a futuros implantes cerebrales para personas que lo necesitan, alguien que tiene ELA o algún otro trastorno neurológico o del desarrollo incapacitante que comprometa la producción del habla”, sumó Knight.
Y destacó: “El método que utilizamos te da la capacidad de decodificar no sólo el contenido lingüístico, sino parte del contenido prosódico del habla, parte del afecto que contiene una frase. Creo que eso es lo que realmente hemos comenzado a descifrar. El lenguaje es más del lado izquierdo del cerebro, mientras que la música está más distribuida entre ambos lados, con un pequeño sesgo hacia el lado derecho”.
Según Knight, “a medida que mejoren las técnicas de registro cerebral, algún día será posible realizar dichos registros sin abrir el cerebro, tal vez usando electrodos sensibles colocados en el cuero cabelludo”.
En la misma línea fue otro de los autores del trabajo, Ludovic Bellier, quien apuntó: “Las técnicas no invasivas que se utilizan para estos hallazgos simplemente no son lo suficientemente precisas hoy en día. Esperemos, para los pacientes, que en el futuro podamos, con sólo electrodos colocados fuera del cráneo, leer la actividad de regiones más profundas del cerebro con una buena calidad de señal. Pero estamos lejos aún”.
“En este momento, la tecnología se parece más a un teclado para la mente -dijo Bellier-. No puedes leer tus pensamientos desde un teclado. Tienes que presionar los botones. Y produce una especie de voz robótica; seguro que hay menos de lo que yo llamo libertad expresiva”.
Infobae analizó los resultados de este trabajo junto al neurólogo Alejandro Andersson, director médico del Instituto de Neurología Buenos Aires (INBA). “Los ritmos musicales no solo despiertan emociones, sino que también estimulan la actividad cerebral y favorecen la recuperación de pacientes con patologías neurológicas”, señaló el especialista.
Y amplió: “Primero, es importante entender qué es la música. La música consiste en sonidos de diferentes tonos, tiempos y armonías que, en general, se entrelazan con letras. Las áreas del cerebro que procesan el lenguaje, que son las llamadas área de Broca y área de Wernicke, son responsables de comprender y expresar la letra de una canción. Por otro lado, una melodía es una sucesión de sonidos con una organización tonal y rítmica: el cerebro analiza estos componentes musicales a través de dos sistemas neuronales diferentes; uno se enfoca en la organización temporal, analizando el ritmo y el compás, y el otro en el tono musical y el contorno”.
Para Andersson, “cuando pensamos en la música y el lenguaje como medios de comunicación, es natural querer establecer sus diferencias. Aunque ambos tienen representaciones en la corteza cerebral, son procesados de manera independiente. Hay casos de personas con amusia congénita que no pueden comprender la música pero tienen un lenguaje normal, y viceversa. En el procesamiento sintáctico musical, se activa el área de Broca, lo que muestra una superposición entre música y lenguaje. Sin embargo, también existen circuitos cerebrales específicos para cada uno”.
A su turno, Germán Picciochi (MN 161114), médico especializado en psiquiatría, neuropsiquiatría y neurología cognitiva, le dijo a Infobae: “En el estudio científico, los autores capturaron la actividad eléctrica de las regiones cerebrales sintonizadas con los atributos de la música. En otras palabras, observaron el registro de los patrones eléctricos cerebrales que reflejan la prosodia, que es un componente de nuestro lenguaje que puede entenderse como la musicalidad que le imprime un sentido al discurso. Se trata del tono, ritmo, acento, el énfasis y la entonación de nuestra expresión verbal, sin las cuales, el contenido estricto de la secuencia de palabras que hablamos, no tendría el mismo sentido.
“Combinando un software que utiliza inteligencia artificial, con los registros eléctroencefalográficos realizados en las intervenciones, se logró reconstruir la melodía de la canción Another Brick in the Wall, Part 1 que se les hizo escuchar oportunamente a los sujetos de estudio mientras se realizaba su operación. Esto refuerza la teoría de que existen estructuras que se encargan específicamente de la musicalidad del discurso, las cuales se sabe que predominan en el lado derecho del cerebro de la mayoría de las personas”, remarcó Picciochi.
Y planteó que las lesiones específicas del hemisferio derecho del cerebro “suelen generar trastornos conocidos como disprosodia, entre los que se encuentra el síndrome de acento extranjero (SAE): como su nombre lo indica, las personas con esta afección modifican el acento o lo que se conoce comúnmente como tonada de su expresión verbal”.
“En general, esta clase de investigaciones como la que analizamos podría tener un impacto significativo en el desarrollo de tecnologías de interfaz cerebro-máquina y en la comprensión de cómo el cerebro procesa la música y el lenguaje. Una rama derivada de estas aplicaciones es con las personas que tienen dificultades para comunicarse debido a disfunciones cerebrales. Hay casos muy reconocidos en los que gracias a la tecnología los pacientes pueden expresar secuencias de palabras para transmitir sus pensamientos, pero lo que se oye es un discurso que remeda a la voz de un robot parlante. Los llamados registros electroencefalográficos intracraneales podrían ayudar a reproducir la musicalidad del habla que falta en las reconstrucciones robóticas actuales”, cerró Picciochi.