Un implante cerebral le permitió hablar a una mujer con tetraplejia. Foto: UC Berkeley
Un implante cerebral permitió que una mujer con tetraplejia «hablara» por primera vez en 18 años.
Los científicos de la Universidad de Berkeley y de San Francisco implantaron una interfaz cerebro-computadora en esta mujer para decodificar sus pensamientos.
De esta forma, la paciente tenía que mirar una frase en la pantalla para intentar pronunciarla con la mente.
Con su actividad cerebral, los investigadores entrenaron una red neuronal para decodificar su intención de hablar.
Además, usaron la IA para convertir sus pensamientos en audio, imitando su voz a partir de un clip que se grabó antes del estudio.
El implante cerebral utiliza inteligencia artificial para convertir casi simultáneamente en habla los pensamientos de una mujer paralizada.
Este dispositivo conecta ondas cerebrales a un ordenador y podría generar esperanzas para que las personas que han perdido por completa la capacidad de comunicarse puedan recuperar su voz.
El equipo de investigadores, con sede en California, había utilizado previamente una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos de Ann, una mujer de 47 años con cuadriplejía, y traducirlos en habla.
Sin embargo, había un retraso de ocho segundos entre la generación de pensamientos y la producción del habla leída en voz alta por una computadora.
Esto significaba que mantener una conversación fluida estaba fuera del alcance de Ann, una profesora de matemáticas de secundaria que no ha podido hablar desde que sufrió un accidente cerebrovascular hace 18 años.
Pero el nuevo modelo del equipo, presentado en la revista Nature Neuroscience, transformó los pensamientos de Ann en una versión de lo que era su voz con apenas un retraso de 80 milisegundos.
«Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar», dijo Gopala Anumanchipalli, autora del estudio de la Universidad de California Berkeley.
El objetivo es que Ana pueda convertirse en una consejera universitaria, pero aún se deben superar algunos retos desarrollando esta tecnología.
Durante la investigación Ann podía ver oraciones en una pantalla —del tipo «Entonces me amas»— que ella pronunciaba para sí misma en su mente.
Estas señales cerebrales fueron rápidamente convertidas en su voz, que los investigadores reconstruyeron a partir de grabaciones previas a su lesión.
Ann estaba «muy emocionada al escuchar su voz, y reportó una sensación de corporalidad», dijo Anumanchipalli.
El modelo utiliza un algoritmo basado en una técnica de inteligencia artificial (IA) llamada aprendizaje profundo, que fue entrenado previamente a partir de millas de frases que Ann intentó pronunciar silenciosamente.
El modelo no es totalmente exacto, y el vocabulario es limitado por el momento a 1.024 palabras.
El método para instalar estos electrodos es relativamente común en hospitales donde se diagnostica la epilepsia, lo que significa que esta tecnología podría implementarse fácilmente a gran escala, agregó.
Te puede interesar:
Las sospechas no son gratis. México es el tercer país de destino para víctimas de…
La historia seguirá la vida de Superman mientras trata de hacer las paces con su…
Los días 23 y 24 de abril de 2025, el Centro Banamex en Ciudad de…