Un grupo de neurocientíficos reconstruyó un clásico de Pink Floyd a través de inteligencia artificial y ondas cerebrales

La investigación arrojó datos que podrían ayudar en un futuro cercano a tratamientos contra la esclerosis lateral amiotrófica y otros trastornos neurológicos

Guardar
Las ondas cerebrales de un grupo de personas que escuchaban Pink Floyd fueron transformadas nuevamente en música
Las ondas cerebrales de un grupo de personas que escuchaban Pink Floyd fueron transformadas nuevamente en música

Neurocientíficos de la Universidad de California han logrado transformar la ondas cerebrales en música. Esto ocurrió en un esfuerzo por entender a mayor detalle cómo funciona el cerebro cuando se pone en contacto con una canción. Para alcanzar este hito, los investigadores reunieron a 29 personas que se someterían a una cirugía para tratar la epilepsia.

Un total de 2,668 electrodos fueron conectados al cerebro del grupo de personas, específicamente en tres puntos clave de la corteza cerebral: el área de la percepción sensorial (CMS), el circunvolución frontal inferior (GFI) y la primera circunvolución temporal (GTS). Paralelamente, el equipo de investigadores reproducía uno de los más grandes clásicos del rock: Another Brick in the Wall Pt.1, de la agrupación británica Pink Floyd.

Los científicos utilizaron el legendario tema "Another Brick in the Wall" como parte de este experimento
Los científicos utilizaron el legendario tema "Another Brick in the Wall" como parte de este experimento

Ya con todos los elementos listos, los investigadores comenzaron a registrar las ondas cerebrales que se veían estimuladas por la música. Con la ayuda de una inteligencia artificial entrenada, las ondas lograron convertirse en fragmentos audibles de la canción, tales como el emblemático coro que recita All in all it’s just another brick in the wall (Después de todo, sólo es otro ladrillo en la pared).

Así lo explica el equipo conformado por Ludovic Bellier, Anaïs Llorens, Deborah Marciano, Aysegul Gunduz, Gerwin Schalk, Peter Brunner, Robert T. Knight, en la publicación de la revista Plos Biology donde se anunció el descubrimiento.

Reconstruimos con éxito una canción reconocible a partir de grabaciones neurales directas y cuantificamos el impacto de distintos factores en la precisión de la descodificación. Combinando los análisis de codificación y decodificación, encontramos una dominancia del hemisferio derecho para la percepción musical con un papel primario de la circunvolución temporal superior (STG), evidenciamos una nueva subregión STG sintonizada con el ritmo musical y definimos una organización STG anterior-posterior que muestra respuestas sostenidas y de inicio a los elementos musicales”.

Según uno de los investigadores, la recreación se asemeja tan sólo en un 43% a la pieza original
Según uno de los investigadores, la recreación se asemeja tan sólo en un 43% a la pieza original

Si bien se trata de un hito histórico, apenas es un primer paso en la dirección correcta. Robert Knight, neurólogo y profesor de psicología en el Instituto de Neurociencia Helen Wills de la Universidad de Berkeley y uno de los investigadores involucrados en este experimento, confesó que el sonido que la IA pudo emular se asemeja tan sólo en un 43% a la canción original. Además, “suena un poco como si estuvieran hablando bajo el agua”, declaró Knight.

No obstante, el investigador se mostró optimista al ser la primera vez que se hacía este experimento, el cual, como se menciona en la publicación de Plos Biology, arrojó otros resultados muy interesantes. Los modelos de codificación de la IA revelaron una nueva subregión cortical en el lóbulo temporal, misma que subyace a la percepción del ritmo. Esto, según expertos, podría funcionar para desarrollar nuevas interfaces que conecten máquina y humano.

Los investigadores encontraron una dominancia del hemisferio derecho para la percepción musical (Foto: Plos Biology)
Los investigadores encontraron una dominancia del hemisferio derecho para la percepción musical (Foto: Plos Biology)

Robert Knight compartió su emoción de los resultados obtenidos por la investigación, además de dar algunos indicios de cómo se podrá usar este conocimiento en un futuro no muy lejano.

“Es un resultado maravilloso. Para mí, la música tiene prosodia y contenido emocional. A medida que avanza el campo de las interfaces cerebro-máquina, esto permite añadir musicalidad a futuros implantes cerebrales para quienes lo necesiten. Por ejemplo, personas con esclerosis lateral amiotrófica (ELA) u otro trastorno neurológico o del desarrollo que afecte al habla. Te da la capacidad de descodificar no sólo el contenido lingüístico, sino también parte del contenido prosódico del habla, parte del afecto. Creo que eso es lo que realmente hemos empezado a descifrar”.

Los descubrimientos podrían ayudar a desarrollar tratamientos contra la Esclerosis Lateral Amiotrófica
Los descubrimientos podrían ayudar a desarrollar tratamientos contra la Esclerosis Lateral Amiotrófica

Seguir leyendo:

Guardar