Dos artículos publicados en la revista Nature han demostrado que las personas que no pueden hablar debido a una parálisis grave (por ejemplo, por ELA o esclerosis lateral amiotrófica, o accidente cerebrovascular) podrían utilizar interfaces cerebro-computadora (BCI) implantables para comunicarse a velocidades mucho mayores que las que normalmente se pueden lograr con opciones de comunicación alternativas.
En Estados Unidos, por separado, los dos equipos de investigadores consiguieron colocar implantes de lectura cerebral que fueron mejorados mediante inteligencia artificial (IA).
Los estudios, realizados en dos mujeres con patologías diferentes una por ELA y la otra con secuelas de un accidente cerebrovascular, logró avances a través de dos sistemas diferentes con un mismo objetivo: restaurar la función del habla gracias a un sistema que traduzca las señales cerebrales que los músculos no pueden ejecutar.
“Existe una necesidad urgente de ayudar a las personas con afecciones neurológicas que las privan de la necesidad humana universal de comunicarse”, explicaron Nick Ramsey y Nathan Crone, en un artículo adjunto al principal en Nature. “Los dos trabajos constituyen una prueba crucial del concepto de que la comunicación se puede restaurar utilizando BCI implantables, pero varias cuestiones requieren más investigación para permitir una mayor difusión”, dijeron los investigadores.
Cómo se hicieron los estudios
El primero de estos trabajos, liderado desde la Universidad Stanford, y publicado en Nature, tuvo como paciente a Pat Bennet, una mujer de 67 años que fue diagnosticada con ELA en 2012. La mujer pudo seguir moviéndose con dificultad y perdió el habla pero su cerebro no tenía dañada la capacidad para generar el lenguaje.
Los investigadores insertaron conjuntos de pequeños electrodos de silicio en partes del cerebro de Bennett que intervienen en el habla, un par de milímetros por debajo de la superficie. Luego, entrenaron algoritmos de aprendizaje profundo para reconocer las señales únicas en el cerebro de la paciente cuando intentaba pronunciar varias frases.
Los dispositivos transmitían señales desde un par de regiones relacionadas con el habla a un software de última generación que decodificó su actividad cerebral y la convirtió en texto que se mostraba en la pantalla de una computadora.
Esto se realizó con el desarrollo producido por el equipo de Francis Willett, de la Universidad de Stanford, quien creó un BCI (o interfaces cerebro-computadora) que recopila la actividad neuronal de células individuales con una serie de finos electrodos insertados en el cerebro y entrenaron una red neuronal artificial para decodificar las vocalizaciones previstas.
Gracias al dispositivo, la paciente logró comunicarse a una velocidad media de 62 palabras por minuto, lo que es 3,4 veces más rápido que el récord anterior de un dispositivo similar y se acerca a la velocidad de una conversación natural, que son alrededor de 160 palabras por minuto. El sistema logró una tasa de error de palabras del 9,1% en un vocabulario de 50 palabras, lo que supone 2,7 veces menos errores que el anterior BCI de voz de última generación de 2021. Se logró una tasa de error de palabras del 23,8% en un vocabulario de 125.000 palabras.
“Ahora es posible imaginar un futuro en el que podamos devolver la conversación fluida a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo bastante alta como para que se le entienda con fiabilidad”, afirmó Francis Willett.
En el segundo estudio, publicado en Nature y liderado por Edward Chang, de la Universidad de California en San Francisco (UCSF), se obtuvieron unos resultados similares con un sistema algo diferente. En este caso, los implantes cerebrales (formados por 253 microelectrodos) recopilaron señales de distintas regiones del cerebro de Ann, una mujer de 47 años que perdió el habla por un ACV hace 18 años. Este BCI decodifica señales cerebrales para generar tres salidas simultáneamente: texto, voz audible y un avatar parlante.
En la prueba consiguieron alcanzar 78 palabras por minuto con un vocabulario base de algo más de 1.000 palabras. La tasa de error fue del 25,5% cuando se incluyeron los movimientos del tracto vocal para reconstruir las palabras y de un 54,4% cuando se tradujeron las señales cerebrales directamente al habla a través de un sintetizador.
“El simple hecho de oír una voz parecida a la tuya es emocionante”, dijo Ann a los investigadores en una sesión posterior al estudio. “¡Cuando tuve la capacidad de hablar por mí misma fue enorme!”, agregó. “La voz es una parte realmente importante de nuestra identidad. No sólo tiene que ver con la comunicación, sino también con quiénes somos”, comentó Chang.
Una de las ventajas del equipo de San Francisco frente al de Stanford es la expresividad alcanzada a través de un avatar. El sistema decodificó la actividad neuronal en los movimientos faciales durante el habla, así como en expresiones no verbales. Para recrear la voz, el equipo empleó una grabación de Ann hablando en su boda, antes de sufrir el ictus.
Estos trabajos son el fruto de otros avances anteriores de BCI capaces de decodificar la actividad cerebral en habla de manera más rápida, más precisa y que cubren un vocabulario más amplio que las tecnologías existentes.
En la presentación conjunta online realizada, ambos equipos han afirmado que sus resultados eran comparables y que tenía interés en ver cómo ambos métodos de recopilación de señales, uno más localizado y el otro tomándolas de más zonas cerebrales, muestran por primera vez que estas tecnologías pueden ofrecer una solución práctica.
Ambos trabajos representan un gran avance en la investigación neurocientífica y de neuroingeniería, y son muy prometedores para aliviar el sufrimiento de las personas que han perdido la voz como resultado de lesiones neurológicas paralizantes y enfermedades. Los investigadores señalaron que se requiere más trabajo para que su uso sea masivo a muchos tipos de pacientes.
Entre las mejoras que plantean para el futuro, además de incrementar la velocidad de comunicación, se incluye el desarrollo de aparatos inalámbricos que no requieran a los pacientes estar conectados a una máquina.
También se investigará si estos sistemas sirven para recuperar el habla en personas que padecen el llamado síndrome de cautiverio total, en el cual la persona está alerta y despierta, pero no puede moverse o comunicarse verbalmente debido a una completa parálisis, y solo se cuenta con sus señales cerebrales para restablecer su comunicación.