Última hora
El Campo de Gibraltar en alerta amarilla por lluvias fuertes y tormentas este jueves

Traducen por primera vez en palabras las ondas cerebrales de un hombre con parálisis

Investigación

El Dr.Chang ha estado una década entrenando modelos informáticos para reconocer y clasificar palabras a partir de patrones en la actividad cerebral del paciente

-IR NOTICIA: Muchos pacientes en estado vegetativo están despiertos y conscientes de que no pueden comunicarse

Traducen por primera vez en palabras las ondas cerebrales de un hombre con parálisis / Captura Vídeo Ucsf
R.S.B

27 de agosto 2021 - 16:27

Los investigadores de UC San Francisco han conseguido un hito histórico en el campo de la neurociencia , gracias a una "neuroprótesis del habla" que ha permitido que un hombre con parálisis pueda comunicarse en oraciones, traduciendo señales de su cerebro, enviadas al tracto vocal, directamente en palabras que se vuelcan como texto en una pantalla.

Cada año, miles de personas pierden la capacidad de hablar debido a un derrame cerebral, un accidente o una enfermedad. Con un mayor desarrollo, el enfoque descrito en este estudio podría algún día permitir que estas personas se comuniquen por completo.

El neurocirujano Edward Chang, Doctor en Medicina de UCSF, ha pasado más de una década desarrollando una tecnología que permite que la gente con parálisis se comunique incluso si no pueden hablar. El logro de Chang fue desarrollado en colaboración con el primer participante de un estudio clínico de la investigación, un hombre de 36 años que tuvo un derrame cerebral en el tronco cerebral cuando tenía 20 años, cuyas lesiones resultaron en una parálisis severa y pérdida del habla inteligible, conocida como anartria.

DESARROLLO

Para ello, el neurocirujano de UCSF Edward Chang y su equipo,implantaron una matriz de electrodos, del tamaño de una tarjeta de crédito, en la corteza sensorio-motora del hombre, que es la parte del cerebro que controla la articulación del habla.

Posteriormente, los científicos, de la Universidad de California en San Diego, utilizaron ''algoritmos de aprendizaje profundo'' para entrenar modelos informáticos para reconocer y clasificar palabras a partir de patrones en la actividad cerebral del paciente. De esta forma, le pidieron al hombre que pensara en decir las palabras que le presentaron en una pantalla.

Además de los modelos de aprendizaje profundo, utilizaron un ''modelo de lenguaje natural'', que es un programa que predice la siguiente palabra en una oración basándose en las palabras anteriores. "Con el habla, normalmente comunicamos información a un ritmo muy alto, hasta 150 o 200 palabras por minuto", dijo, y señaló que los enfoques basados en la ortografía que utilizan mecanografía, escritura y control de un cursor son considerablemente más lentos y laboriosos.

Anteriormente, el trabajo en el campo de la neuroprótesis de la comunicación se ha centrado en restaurar la comunicación a través de enfoques basados en la ortografía para escribir letras una por una en el texto. El estudio de Chang difiere de estos esfuerzos de una manera crítica: su equipo está traduciendo las señales previstas para controlar los músculos del sistema vocal para hablar palabras, en lugar de señales para mover el brazo o la mano para permitir la escritura. Chang dijo que este enfoque aprovecha los aspectos naturales y fluidos del habla y promete una comunicación más rápida y orgánica.

"Ir directo a las palabras, como lo estamos haciendo aquí, tiene grandes ventajas porque está más cerca de cómo hablamos normalmente", resalta Chang.

DATOS DE ACTIVIDAD CEREBRAL

En 48 semanas de capacitación, el participante intentó producir palabras particulares a partir de un conjunto de 50 palabras y le pidió que las intentara decir varias veces. En cada ensayo, se le presentó una de estas palabras en una pantalla y, cuando la palabra se ponía verde, después de 2 segundos, intentaba decir la palabra.

A medida que lo intentaba, las palabras fueron decodificadas de su actividad cerebral, una por una,en una pantalla. Luego, el equipo pasó a hacerle preguntas como "¿Cómo estás hoy?" y "¿Quieres un poco de agua?". Como antes, el intento de hablar apareció en la pantalla. "Estoy muy bien" y "No, No tengo sed."

En el transcurso de estas sesiones, los investigadores recopilaron 22 horas de datos de actividad cerebral, que alimentaron al algoritmo de aprendizaje profundo. En esas dos sesiones finales adicionales, el hombre intentó usar las palabras previamente entrenadas para generar oraciones como ''tengo sed'' o ''necesito mis gafas''.

Además, en cada ensayo, al participante se le presentó la oración e intentó generar las palabras lo más rápido posible, pensando en decirlas. El algoritmo de aprendizaje profundo y el modelo de lenguaje permitieron que sus pensamientos se decodificaran sin errores en más de la mitad de los ensayos de oraciones.

Después de 81 semanas, pudo generar alrededor de 15 palabras por minuto, con una tasa de error del 26 %. Los científicos, que informan de sus hallazgos en The New England Journal of Medicine, dicen que las tecnologías de decodificación del habla, generalmente, se consideran utilizables si tienen una tasa de error de palabras por debajo del 30 %.

Una década de trabajo

En la primera década, el progreso de Chang hacia este objetivo fue facilitado por pacientes en el Centro de Epilepsia de UCSF que se sometieron a neurocirugía para identificar el origen de las convulsiones usando conjuntos de electrodos colocados en la superficie de sus cerebros.

Los pacientes, los cuales tenían habla normal se ofrecieron como voluntarios para analizar sus grabaciones cerebrales para buscar la actividad relacionada con el habla. El éxito inicial con estos pacientes voluntarios facilitó el camino para el ensayo actual en personas con parálisis.

Antes, Chang y sus compañeros del Instituto Weill de Neurociencias de la UCSF mapearon los patrones de actividad cortical asociados con los movimientos del tracto vocal que producen cada consonante y vocal.

Para traducir esos hallazgos en el reconocimiento de voz de palabras completas, David Moses, PhD, ingeniero postdoctoral en el laboratorio de Chang, desarrolló nuevos métodos para la decodificación en tiempo real de esos patrones y modelos de lenguaje estadístico para mejorar la precisión.

Pero su éxito en la decodificación del habla en los participantes que podían hablar no garantizaba que la tecnología funcionara en una persona cuyo tracto vocal está paralizado, ''Nuestros modelos necesitaban aprender el mapeo entre patrones complejos de actividad cerebral y el habla intencionada,", dijo Moses." Eso planteab un gran desafío cuando el participante no puede hablar.

Por ello, el gran paso de este estudio es que presenta sus resultados en un paciente que ya no puede hablar.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último

Avanzando desde Andalucía: la eficiencia energética empresarial como oportunidad

El vídeo resumen del encuentro "Avanzando desde Andalucía: la eficiencia energética empresarial como oportunidad"