Una IA puede convertir vibraciones de la garganta en frases fluidas para personas con dificultades en el habla

Un innovador dispositivo decodifica los movimientos y los transforma en palabras claras y oraciones contextuales

Guardar
La disartria afecta músculos del
La disartria afecta músculos del habla y dificulta la comunicación, reduciendo la calidad de vida de quienes la padecen (Imagen Ilustrativa Infobae)

La tecnología sigue avanzando a pasos agigantados, y ahora la inteligencia artificial podría marcar un antes y un después para quienes enfrentan dificultades del habla debido a enfermedades como el Parkinson o las secuelas de un accidente cerebrovascular (ACV).

Un innovador sistema basado en IA promete devolver la fluidez y naturalidad a la comunicación de personas con disartria.

¿Qué es la disartria y por qué es tan desafiante?

La disartria es un trastorno motor del habla que dificulta el control de los músculos de la laringe, la mandíbula o la lengua, y suele ser consecuencia de enfermedades neurológicas como el Parkinson, la esclerosis lateral amiotrófica (ELA) o un ACV.

Este problema reduce drásticamente la capacidad de expresión y afecta la calidad de vida de quienes lo padecen.

El sistema combina contextualización y
El sistema combina contextualización y estados emocionales, aumentando en 55% la satisfacción del usuario (Imagen Ilustrativa Infobae)

Según el informe de New Scientist, las soluciones actuales, como los sistemas basados en interfaces cerebro-computadora, son prometedoras, pero tienen limitaciones importantes: requieren cirugías invasivas para implantar electrodos en el cerebro.

Esto deja a muchos pacientes en busca de alternativas menos intrusivas y más prácticas.

Un sistema que transforma vibraciones en palabras

Un equipo de investigadores de instituciones como la Universidad de Cambridge, el University College de Londres y la Universidad de Beihang en Beijing desarrolló un dispositivo portátil que combina sensores de tensión textiles con modelos de lenguaje basados en IA.

Este sistema capta pequeñas vibraciones en los músculos de la garganta y las arterias carótidas, y decodifica lo que la persona quiere decir, según un artículo de New Scientist, que reportó del estudio.

El proceso incluye dos componentes principales:

  1. El agente de síntesis de tokens (TSA): decodifica los movimientos musculares en palabras y forma oraciones básicas.
  2. El agente de expansión de oraciones (SEA): usa datos contextuales, como la hora y el clima, junto con información emocional del usuario, para generar frases más elaboradas y personalizadas.
Russell Beale destaca futuro potencial
Russell Beale destaca futuro potencial en personalización del sistema según patrones de habla y acentos específicos (Imagen Ilustrativa Infobae)

Este enfoque logra que las frases resulten coherentes y adaptadas a las intenciones reales del usuario, un avance significativo frente a métodos anteriores que se limitaban a reconstruir palabras sin contexto ni emociones.

Los investigadores probaron el sistema con cinco personas que padecían disartria tras un ACV. Los resultados fueron sorprendentes: lograron índices de error en oraciones tan bajos como 2,9%.

“Además, la integración de estados emocionales y pistas contextuales personaliza y enriquece aún más las oraciones decodificadas, lo que resulta en un aumento del 55% en la satisfacción del usuario y permite a los pacientes con disartria comunicarse con fluidez y naturalidad, comparable a la de individuos sanos”, detalló el estudio.

Riesgos y posibilidades: ¿qué sigue?

Russell Beale, de la Universidad de Birmingham, advirtió que aunque la tecnología es prometedora, no está exenta de desafíos, según New Scientis.

“Puede resultar un poco frustrante si el modelo de lenguaje dice cosas de una manera en la que ellos no lo harían”, contó Beale en el medio científico.

“Por ejemplo, si alguien solía usar palabras largas y elaboradas, pero el sistema genera frases más simples, podría sentirse extraño para ellos. Sin embargo, eso es mucho menos frustrante que no poder comunicarse en absoluto”, agregó.

El avance podría aplicarse a
El avance podría aplicarse a otros idiomas y enfermedades, promoviendo su adopción global (Imagen Ilustrativa Infobae)

Finalmente, concluyó en New Scientist: “Una buena interacción social es aquella donde los usuarios no tienen que pensar en hacer nada diferente. Simplemente hacen lo que hacían antes y ocurre la magia”.

Beale también sugiere que el futuro podría incluir personalización del sistema para reflejar patrones de habla y acentos específicos de cada usuario, lo que haría la experiencia aún más natural.

Este sistema busca devolver la capacidad de hablar, pero sobre todo mejorar la calidad de vida de quienes luchan con la disartria.

Al permitir que los pacientes expresen sus pensamientos de manera fluida y emocionalmente precisa, se facilita su reintegración en entornos sociales y familiares.

Además, esta tecnología podría extenderse a otros idiomas y enfermedades, lo que abre puertas para una adopción global y universal.

Guardar