Leer tu mente: el sistema de IA que puede traducir pensamientos a texto 

Un sistema de inteligencia artificial puede traducir a texto los pensamientos, escaneando el cerebros mientras se escucha una historia… o incluso mientras se imagina una historia.

En los últimos meses, la inteligencia artificial ha sorprendido e inspirado a millones de personas con su capacidad para escribir como un ser humano, crear imágenes y vídeos asombrosos e incluso producir canciones que están sacudiendo la industria musical.

Ahora, unos investigadores han revelado otra posible aplicación que podría tener enormes implicaciones: una IA capaz de leer la mente.

Han estado trabajando en un nuevo sistema de IA que puede traducir la actividad cerebral de una persona en un flujo continuo de texto. El sistema, denominado decodificador semántico, mide la actividad cerebral con un escáner de resonancia magnética funcional (IRMf) y puede generar texto sólo a partir de la actividad cerebral.

Los investigadores de la Universidad de Texas en Austin afirman que la inteligencia artificial podría ayudar algún día a personas mentalmente conscientes pero físicamente incapaces de hablar, como las que han sufrido accidentes cerebrovasculares graves.

“Para un método no invasivo, esto supone un verdadero salto adelante en comparación con lo que se ha hecho antes, que suele consistir en palabras sueltas o frases cortas”, afirma Alex Huth, profesor adjunto de Neurociencia e Informática en la UT Austin y uno de los autores del trabajo.

“Estamos consiguiendo que el modelo descodifique un lenguaje continuo durante largos periodos de tiempo con ideas complicadas”, asegura el profesor.

Hay otros sistemas de descodificación del lenguaje en desarrollo, pero requieren que los sujetos se sometan a implantes quirúrgicos, que se clasifican como sistemas invasivos.

El descodificador semántico es un sistema no invasivo, ya que no requiere implantes. A diferencia de otros descodificadores, los sujetos no están limitados a utilizar palabras de una lista prescrita. El decodificador se entrena exhaustivamente con escáneres fMRI tomados mientras el sujeto escucha horas de podcasts. Después, el sujeto escucha una nueva historia, o se imagina contando una historia, y su actividad cerebral genera el texto correspondiente.

Descodificación de “lo esencial” del pensamiento

Los investigadores explican que los resultados no son una transcripción palabra por palabra de lo que el sujeto oye o dice en su mente, sino que el descodificador capta “lo esencial” de lo que se está pensando. Aproximadamente la mitad de las veces, la máquina es capaz de producir un texto que se acerca mucho -y a veces con precisión- al significado de las palabras originales.

En un experimento, por ejemplo, un oyente escuchó a un orador decir: “Todavía no tengo el carné de conducir”, y la máquina tradujo sus pensamientos a: “Todavía no ha empezado a aprender a conducir”.

Durante las pruebas, los investigadores también pidieron a los sujetos que vieran vídeos cortos en silencio mientras eran escaneados, y el descodificador fue capaz de utilizar su actividad cerebral para describir con precisión algunos acontecimientos de los vídeos.

Los investigadores creen que el proceso podría trasladarse a sistemas de imagen cerebral más portátiles, como la espectroscopia funcional del infrarrojo cercano (fNIRS). En la actualidad no resulta práctico para un uso más amplio debido a su dependencia de las máquinas de IRMf.

“La fNIRS mide dónde hay más o menos flujo sanguíneo en el cerebro en distintos momentos, lo que resulta ser exactamente el mismo tipo de señal que mide la fMRI”, explica Huth. “Por lo tanto, nuestro enfoque exacto debería aplicarse a la fNIRS”, aunque la resolución con fNIRS sería menor.

Los investigadores abordaron las posibles preocupaciones sobre el uso de este tipo de tecnología, y el autor principal, Jerry Tang, estudiante de doctorado en informática, dijo: “Nos tomamos muy en serio la preocupación de que pueda utilizarse con malos fines y hemos trabajado para evitarlo”.

Insisten en que el sistema no puede utilizarse contra la voluntad de nadie, ya que es necesario entrenarlo a fondo con un participante dispuesto. “Una persona tiene que pasar hasta 15 horas tumbada en un escáner de resonancia magnética, sin moverse y prestando mucha atención a las historias que escucha para que el sistema funcione realmente bien”, explica Huth. Los resultados se publicaron en la revista Nature.

Descodificar imágenes de la mente

**Traducir la actividad cerebral a palabras escritas no es lo único que los investigadores están probando con la inteligencia artificial para leer la mente.**Otro estudio reciente, publicado en marzo, reveló cómo la IA puede leer escáneres cerebrales para recrear imágenes que ha visto una persona.

Los investigadores de la Universidad de Osaka (Japón) utilizaron Stable Diffusion, un generador de texto a imagen similar a Midjourney y DALL-E 2 de OpenAI. Ese sistema fue capaz de reconstruir experiencias visuales a partir de la actividad cerebral humana, gracias de nuevo a los escáneres cerebrales fMRI tomados mientras un sujeto miraba una señal visual.

Fuente: EuroNews.

Tags

Compartir post