¿Cómo sonará la alegría? ¿Y la tristeza? Se supone que la algarabía no tiene el mismo grado sonoro que la pena más profunda, aunque no existía certeza alguna. Pero ahora las emociones y los sentimientos que generan los seres humanos ya se pueden traducir en un sonido audible. Esto es posible, ya que científicos españoles crearon un casco que funciona como una interfaz para conectar el cerebro con un software que traduce las ondas cerebrales en sonidos. Dos personas con parálisis cerebral ya probaron el novedoso dispositivo y dieron un concierto en Barcelona acompañados por la Orquesta de San Cugat.
Especialistas del Centro de Regulación Genómica de Barcelona, en colaboración con la Universidad de Barcelona, desarrollaron el Brain Polyphony, un sistema para la sonificación de la actividad neuroeléctrica del cerebro en tiempo real, que responde de acuerdo al tipo de emoción y la reacción que provoca en el cuerpo un determinado sentimiento.
La herramienta se desarrolló en principio como un sistema de comunicación alternativo, basado en la lectura de ondas cerebrales, para facilitar el cuidado de personas con parálisis cerebral. Sin embargo, también puede utilizarse como un instrumento sonoro y creativo. El dispositivo está pensado para "dar voz" a las personas con algún tipo de discapacidad motora que les impide comunicarse con facilidad con su entorno.
"Este sistema explora la posibilidad de crear un sistema de comunicación alternativa entre pacientes con parálisis cerebral. Así, sonificamos ondas cerebrales para proveer de un medio de comunicación a las personas que no pueden comunicarse", explicó Mar Dierssen, la neurocientífica que lideró el proyecto.
El Brain Polyphony consiste en un casco y un software. El casco, denominado Enobio, se conecta con el organismo mediante electrodos para que los científicos puedan medir la actividad cerebral y cardíaca del paciente. Los sensores calculan las emociones a partir de los patrones cerebrales, cardíacos, musculares y de acelerometría que se generan en el organismo ante un determinado sentimiento.
El dispositivo toma estos datos y mide dos parámetros emocionales: la valencia, que indica si el sentimiento es agradable o no, y la arousal, que marca la intensidad de esa emoción. Toda la información adquirida a través de la interfaz se traslada a un ordenador con un software que traduce, en tiempo real, las emociones recogidas en sonidos.
"Lo que hacemos es crear música con sus emociones. Nos centramos en las emociones porque es lo más útil, no solo para la persona con discapacidad motora, sino también para su familia, porque el enfermo podrá expresar si está triste, alegre o si le duele algo, ya que sus emociones se convierten en sonido", concluyó Dierssen.
LEA MÁS: