Los científicos implantaron una interfaz cerebro-computadora en esta mujer para decodificar sus pensamientos y que pudiera hablar usando la IA para imitar su voz
Un implante cerebral permitió que una mujer con tetraplejia «hablara» por primera vez en 18 años usando un sistema de inteligencia artificial.
Los científicos de la Universidad de Berkeley y de San Francisco implantaron una interfaz cerebro-computadora en esta mujer para decodificar sus pensamientos.
De esta forma, la paciente tenía que mirar una frase en la pantalla para intentar pronunciarla con la mente.
Con su actividad cerebral, los investigadores entrenaron una red neuronal para decodificar su intención de hablar.
Además, usaron la IA para convertir sus pensamientos en audio, imitando su voz a partir de un clip que se grabó antes del estudio.
¿Cómo lograron que la paciente «hablara»?
El implante cerebral utiliza la inteligencia artificial para convertir casi simultáneamente en habla los pensamientos de Ann.
Este dispositivo conecta las ondas cerebrales a un ordenador y podría ser una gran alternativa para que las personas que han perdido la capacidad de comunicarse puedan recuperar su voz.
El equipo de investigadores había utilizado previamente una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos de Ann, una mujer de 47 años con cuadriplejía, y traducirlos en habla.

Un implante cerebral le permitió hablar a una mujer con tetraplejia. Foto: Freepik
Ver más:Un hombre con ELA logró «hablar» con un innovador implante cerebral de electrodos
Sin embargo, había un retraso de ocho segundos entre la generación de pensamientos y la producción del habla leída en voz alta por una computadora.
Esto significaba que mantener una conversación fluida estaba fuera del alcance de Ann, una profesora de matemáticas de secundaria que no ha podido hablar desde que sufrió un accidente cerebrovascular hace 18 años.
Pero el nuevo modelo del equipo, presentado en la revista Nature Neuroscience, transformó los pensamientos de Ann en una versión de lo que era su voz con apenas un retraso de 80 milisegundos.
«Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar», dijo Gopala Anumanchipalli, autora del estudio de la Universidad de California Berkeley.
Durante la investigación, Ann podía ver oraciones en una pantalla, que ella pronunciaba para sí misma en su mente.
Estas señales cerebrales fueron rápidamente convertidas en su voz, que los investigadores reconstruyeron a partir de grabaciones previas a su lesión.
Ann estaba «muy emocionada al escuchar su voz, y reportó una sensación de corporalidad», dijo Anumanchipalli.
El modelo utiliza un algoritmo basado en una técnica de inteligencia artificial (IA) llamada aprendizaje profundo. Esta IA fue entrenada previamente a partir de miles de frases que Ann intentó pronunciar silenciosamente.
El modelo no es totalmente exacto, y el vocabulario es limitado por el momento a unas 1.024 palabras.
El método para instalar estos electrodos es relativamente común en hospitales donde se diagnostica la epilepsia, lo que significa que esta tecnología podría implementarse fácilmente a gran escala en cualquier paciente.
Te puede interesar: