Implantes cerebrales devuelven el habla a una paciente de ELA

Implantes cerebrales devuelven el habla a una paciente de ELA

Dos mujeres han recobrado su capacidad de hablar gracias a la neurotecnología. Se trata de Pat y de Anna, que estaban encerradas en su cuerpos sin poder comunicarse. Pat tiene esclerosis lateral amiotrófica (ELA) y Ann sufre una parálisis grave, causada por un derrame cerebral. Ambas han perdido la capacidad de hablar.

Ahora, dos artículos publicados en «Nature» presentan los resultados de dos aproximaciones diferentes capaces de descodificar la actividad cerebral y convertirla en habla con mayor rapidez, precisión y vocabulario que las tecnologías existentes.

Gracias a esta tecnología, Pat ha podido volver a hablar y Ann, además, ha visto como un avatar reproducía sus expresiones faciales al hablar.

Las personas con trastornos neurológicos, como ictus o ELA, pierden su capacidad de movimiento y de habla debido a la parálisis de los músculos. Aunque estudios previos han demostrado que es posible descodificar el habla a partir de la actividad cerebral, sólo se había logrado en forma de texto y con una velocidad, precisión y vocabulario limitados.

Pat Bennett tiene 68 años. En 2012, le diagnosticaron ELA, una enfermedad neurodegenerativa progresiva que ataca a las neuronas que controlan el movimiento, causando debilidad física y eventual parálisis. «Cuando piensas en la ELA, piensas en el impacto en los brazos y las piernas», escribe Bennett en una entrevista por correo electrónico.

Por lo general, la ELA se manifiesta primero en las extremidades, brazos y piernas, manos y dedos. En el caso de Bennett, el deterioro no se inició en su médula espinal, como es típico, sino en su tronco cerebral. Puede moverse, vestirse y escribir, aunque con cada vez más dificultad. 

Pero Pat no puede hablar. Mientras su cerebro todavía es capaz de formular instrucciones para generar fonemas, sus músculos no pueden llevar a cabo las órdenes.

En 2021, un estudio publicado en «Nature» realizado en la Universidad de Stanford (EE.UU.) describía el éxito en convertir la escritura imaginaria de una persona paralizada en texto en una pantalla mediante un interfaz cerebral, alcanzando una velocidad de 90 caracteres, o 18 palabras, por minuto.

Bennett leyó el estudio y en 2022 se puso en contacto con Jaimie Henderson, autor del estudio, y se ofreció como voluntaria para participar en el ensayo clínico.

En marzo de ese año se le implantaron dos sensores pequeños en dos regiones separadas, ambas implicadas en la producción del habla, en la superficie de su cerebro. Los sensores son componentes de una interfaz cerebro-ordenador intracortical, o iBCI. Combinados con un software de decodificación de última generación, están diseñados para traducir la actividad cerebral que acompaña los intentos de habla en palabras en una pantalla.

Gracias a este dispositivo, la velocidad al hablar de Bennett alcanza las 62 palabras por minuto, lo que es 3,4 veces más rápido que el récord anterior de un dispositivo similar y se acerca más a la velocidad de una conversación natural (160 palabras por minuto en inglés).

«Hemos demostrado que se puede decodificar el habla intencionada registrando la actividad de una pequeña área en la superficie del cerebro», destaca Henderson, cirujano y autor del estudio.

El interés de Henderson en este campo viene desde muy pequeño. «A los 5 años mi padre tuvo un accidente de circulación muy grave y perdió gran parte de su capacidad de hablar y de moverse. Recuerdo no poder entender lo que quería decir y esta experiencia personal fomentó en mí la necesidad de estudiar la forma para poder facilitar la comunicación de las personas en un estado similar. Y ese ha sido el motivo de mi investigación desde hace ya más de 15 años en mi laboratorio».

Los sensores implantados en la corteza cerebral de Bennett, la capa más externa del cerebro, son matrices cuadradas de pequeños electrodos de silicio. Cada matriz contiene 64 electrodos, que penetran en la corteza cerebral a una profundidad que equivale aproximadamente a la de dos monedas apiladas. Las matrices implantadas están conectadas a finos cables que luego se conectan por cable a un ordenador. Un algoritmo de inteligencia artificial recibe y decodifica la información electrónica que emana del cerebro de Bennett.


A los 5 años mi padre tuvo un accidente de circulación muy grave y perdió gran parte de su capacidad de hablar y de moverse

Jaimie Henderson

Universidad de Stanford

«Este sistema está entrenado para saber qué palabras deben venir antes que otras y qué fonemas forman qué palabras», explica Frank Willett, del Instituto Médico Howard Hughes y coautor del estudio. «Si algunos fonemas se interpretaron incorrectamente, todavía puede hacer una suposición acertada».

Para enseñar al algoritmo a reconocer qué patrones de actividad cerebral estaban asociados con qué fonemas, Pat participó en unas 25 sesiones de entrenamiento, cada una de unas cuatro horas de duración, durante las cuales intentó repetir frases elegidas al azar de un conjunto de datos grande que consistía en muestras de conversaciones entre personas que hablaban por teléfono.

Bennett repitió de 260 a 480 frases por sesión de entrenamiento.

Cuando las frases se limitaron a un vocabulario de 50 palabras (en cuyo caso las frases utilizadas se tomaron de una lista especial), la tasa de error del sistema de traducción fue del 9,1%. Al ampliar el vocabulario a 125.000 palabras (lo suficientemente grande como para componer casi cualquier cosa que quisieras decir), la tasa de error aumentó al 23,8%: lejos de ser perfecta, pero un gran avance con respecto al estado anterior del arte.

En el otro estudio, Edward Chang y sus colegas de la Universidad de California en San Francisco (UCSF), han diseñado una interfaz basada en un método diferente de acceso.

En este caso, usaron electrodos no concentrados que se asientan en la superficie del cerebro y detectan la actividad de muchas células a lo largo de todo el córtex. Esta BCI decodifica las señales cerebrales para generar tres salidas simultáneas: texto, habla audible y un avatar que habla.

Los investigadores entrenaron un modelo de inteligencia artificial para descifrar los datos neuronales recogidos de Ann mientras intentaba pronunciar frases completas en silencio.

La traducción de cerebro a texto generó una tasa media de 78 palabras por minuto, que es 4,3 veces más rápida que el récord anterior y se acerca aún más a la velocidad de una conversación natural.

Además, las señales cerebrales también se tradujeron directamente en sonidos de voz sintetizados inteligibles, con una tasa de error de palabras del 28% para un conjunto de 529 frases, y personalizados según la voz del participante antes de la lesión

Y¸ a diferencia del otro estudio, también se descodifica la actividad neuronal de los movimientos faciales de un avatar al hablar, así como expresiones no verbales.

El sistema también puede decodificar estas señales en texto a casi 80 palabras por minuto, una mejora significativa en comparación con la tecnología disponible.

Más ambiciosos

El grupo de Chang ya había demostrado que era posible decodificar señales cerebrales en forma de texto en un varón que también había experimentado un derrame cerebral en el tronco cerebral muchos años antes.

El estudio actual demuestra algo más ambicioso: decodificar señales cerebrales en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante una conversación.

El equipo implantó un rectángulo extremadamente delgado de 253 electrodos en la superficie del cerebro de la mujer en áreas que su equipo había descubierto que eran críticas para el habla. Los electrodos interceptaron las señales cerebrales que, de no ser por el derrame cerebral, habrían llegado a los músculos de su lengua, mandíbula, laringe y cara. Un cable conectado a un puerto fijado en su cabeza conectó los electrodos a un conjunto de ordenadores.

Imagen principal - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Imagen secundaria 1 - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Imagen secundaria 2 - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Steve Fisch & Noah Berger

Durante semanas, Ann trabajó para entrenar a los algoritmos de inteligencia artificial del sistema para que reconocieran sus señales cerebrales únicas para el habla.

En lugar de entrenar al IA para reconocer palabras completas, los investigadores crearon un sistema que decodifica palabras a partir de fonemas. Estas son las subunidades del habla que forman palabras habladas de la misma manera en que las letras forman palabras escritas. «Hello», por ejemplo, contiene cuatro fonemas: «HH», «AH», «L» y «OW».

Usando este enfoque, el ordenador solo necesitó aprender 39 fonemas para descifrar cualquier palabra en inglés. Esto mejoró tanto la precisión del sistema como su velocidad, haciéndolo tres veces más rápido.

«La precisión, la velocidad y el vocabulario son cruciales», explica Sean Metzger, quien desarrolló el decodificador de texto. «Es lo que le da al usuario el potencial, con el tiempo, de comunicarse casi tan rápido como nosotros y de tener conversaciones mucho más naturales y normales».

Para crear la voz, el equipo ideó un algoritmo para sintetizar el habla, al que personalizaron para que sonara como la voz de Ann antes de la lesión, utilizando una grabación de Ann hablando en su boda.

El avatar se diseñó con la ayuda de un software que simula y anima los movimientos musculares de la cara y que convierte las señales enviadas desde el cerebro de la mujer mientras intentaba hablar en los movimientos en la cara del avatar, haciendo que la mandíbula se abriera y cerrara, los labios se pronunciaran y se abrieran y la lengua subiera y bajara, así como los movimientos faciales de felicidad, tristeza y sorpresa.

Para Chang, al restaurar la habilidad de comunicarse, «podemos terminar con el aislamiento que sufren estas personas. Nuestra voz, dice, es parte de nuestra identidad, y representa lo que somos».

Imagen - Esto es una prueba de concepto científica, no un dispositivo real que las personas puedan usar en la vida cotidiana

Esto es una prueba de concepto científica, no un dispositivo real que las personas puedan usar en la vida cotidiana

Frank Willett

Instituto Médico Howard Hughes

Ahora bien, los investigadores advierten que se trata de un ensayo clínico y que estos dispositivos no están todavía a disposición de los pacientes, aunque ya hay algunas empresas interesadas en estos prototipos.

Henderson, por otro lado, subraya la implicación de las participantes: «son personas muy especiales interesadas en colaborar y mejorar la investigación. Debemos estar muy agradecidos con su compromiso y energía».

«Esto es una prueba de concepto científica, no un dispositivo real que las personas puedan usar en la vida cotidiana -añade Willett-. Pero es un gran avance para estas personas».

«Imagina -escribe Bennett- cómo de diferentes serán las actividades cotidianas como ir de compras, a una reunión, pedir comida, entrar en un banco, hablar por teléfono, expresar amor o aprecio, incluso discutir».

Chang, presidente del Departamento de Cirugía Neurológica en UCSF, espera que este último avance conduzca a un sistema que permita el habla a partir de señales cerebrales en un futuro cercano.

Y concluye: «el mensaje principal de estos dos estudios es que hay esperanza para estos pacientes».