Neurocientíficos de la Universidad de California han logrado transformar la ondas cerebrales en música. Esto ocurrió en un esfuerzo por entender a mayor detalle cómo funciona el cerebro cuando se pone en contacto con una canción. Para alcanzar este hito, los investigadores reunieron a 29 personas que se someterían a una cirugía para tratar la epilepsia.
Un total de 2,668 electrodos fueron conectados al cerebro del grupo de personas, específicamente en tres puntos clave de la corteza cerebral: el área de la percepción sensorial (CMS), el circunvolución frontal inferior (GFI) y la primera circunvolución temporal (GTS). Paralelamente, el equipo de investigadores reproducía uno de los más grandes clásicos del rock: Another Brick in the Wall Pt.1, de la agrupación británica Pink Floyd.
Ya con todos los elementos listos, los investigadores comenzaron a registrar las ondas cerebrales que se veían estimuladas por la música. Con la ayuda de una inteligencia artificial entrenada, las ondas lograron convertirse en fragmentos audibles de la canción, tales como el emblemático coro que recita All in all it’s just another brick in the wall (Después de todo, sólo es otro ladrillo en la pared).
Así lo explica el equipo conformado por Ludovic Bellier, Anaïs Llorens, Deborah Marciano, Aysegul Gunduz, Gerwin Schalk, Peter Brunner, Robert T. Knight, en la publicación de la revista Plos Biology donde se anunció el descubrimiento.
“Reconstruimos con éxito una canción reconocible a partir de grabaciones neurales directas y cuantificamos el impacto de distintos factores en la precisión de la descodificación. Combinando los análisis de codificación y decodificación, encontramos una dominancia del hemisferio derecho para la percepción musical con un papel primario de la circunvolución temporal superior (STG), evidenciamos una nueva subregión STG sintonizada con el ritmo musical y definimos una organización STG anterior-posterior que muestra respuestas sostenidas y de inicio a los elementos musicales”.
Si bien se trata de un hito histórico, apenas es un primer paso en la dirección correcta. Robert Knight, neurólogo y profesor de psicología en el Instituto de Neurociencia Helen Wills de la Universidad de Berkeley y uno de los investigadores involucrados en este experimento, confesó que el sonido que la IA pudo emular se asemeja tan sólo en un 43% a la canción original. Además, “suena un poco como si estuvieran hablando bajo el agua”, declaró Knight.
No obstante, el investigador se mostró optimista al ser la primera vez que se hacía este experimento, el cual, como se menciona en la publicación de Plos Biology, arrojó otros resultados muy interesantes. Los modelos de codificación de la IA revelaron una nueva subregión cortical en el lóbulo temporal, misma que subyace a la percepción del ritmo. Esto, según expertos, podría funcionar para desarrollar nuevas interfaces que conecten máquina y humano.
Robert Knight compartió su emoción de los resultados obtenidos por la investigación, además de dar algunos indicios de cómo se podrá usar este conocimiento en un futuro no muy lejano.
“Es un resultado maravilloso. Para mí, la música tiene prosodia y contenido emocional. A medida que avanza el campo de las interfaces cerebro-máquina, esto permite añadir musicalidad a futuros implantes cerebrales para quienes lo necesiten. Por ejemplo, personas con esclerosis lateral amiotrófica (ELA) u otro trastorno neurológico o del desarrollo que afecte al habla. Te da la capacidad de descodificar no sólo el contenido lingüístico, sino también parte del contenido prosódico del habla, parte del afecto. Creo que eso es lo que realmente hemos empezado a descifrar”.
Seguir leyendo: