“Es alucinante”: el experimento que demostró que la inteligencia artificial puede leernos la mente
Los investigadores realizaron un estudio que usó “modelos de lenguaje grande” para traducir a palabras la actividad cerebral
- 5 minutos de lectura'
NUEVA YORK.- Piensen en todas esas cosas que nos dan vuelta por la cabeza: ese chiste de mal gusto que prudentemente nos guardamos durante la cena, la inconfesable opinión sobre la nueva pareja de nuestro mejor amigo. Y ahora imaginen que alguien lo está escuchando…
Este lunes, los científicos de la Universidad de Texas en Austin dieron otro paso en esa dirección. En un estudio publicado en la revista científica Nature Neuroscience, los investigadores describen una inteligencia artificial (IA) capaz de traducir a palabras los pensamientos de los humanos, a través del análisis de imágenes de resonancia magnética funcional (FMRI, por su sigla en inglés), que miden los cambios del flujo de sangre en las distintas partes del cerebro.
Los investigadores ya habían desarrollado métodos de decodificación del lenguaje, para interpretar los intentos de hablar de las personas que han perdido la capacidad del habla, y para que las personas con parálisis puedan escribir cuando en realidad solo están pensando que escriben. Pero el nuevo decodificador del lenguaje es el primero que no requiere un implante. En el estudio, el decodificador fue capaz de convertir las palabras que la persona imaginaba en un texto real, y cuando a los participantes se les mostraban películas mudas, el decodificador generó descripciones bastante ajustadas de lo que estaba pasando en la pantalla.
“Esto no es un caso de estimulación del lenguaje”, dice Alexander Huth, uno de los neurocientíficos que lideró el proyecto. “Acá estamos accediendo al significado, a la idea que la persona tiene de lo que está pasando, y lo verdaderamente alucinante es eso.”
El estudio
Del estudio participaron tres personas que pasaron 16 horas durante varios días en el laboratorio de Huth para escuchar The Moth y otros podcasts narrativos. Mientras escuchaban, un resonador magnético registraba los niveles de oxigenación en diversas partes del cerebro. Esos datos ingresaban a un “modelo de lenguaje grande” que emparejaba los patrones de actividad cerebral con las palabras y frases que los participantes habían oído en ese momento.
Los “modelos de lenguaje grande” como ChatGPT4 y Bard se entrenan digiriendo una inmensa cantidad de texto para predecir la palabra que sigue en una frase. Mientras aprenden, los modelos generan mapas que indican la relación de unas palabras con otras. Hace un par de años, el doctor Huth descubrió que algunas partes específicas de ese mapa —conocidas como “incrustaciones de contexto”, que reflejan los rasgos semánticos, o sea el significado de una frase—, podían usarse para predecir como se enciende el cerebro en respuesta al lenguaje.
En un sentido básico, “la actividad cerebral es una especie de señal encriptada y los modelos de lenguaje grande nos ofrecen formas de descifrarla”, dice Shinji Nishimoto, neurocientífico de la Universidad de Osaka, quien no participó de la investigación.
En su estudio, Huth y sus colegas revirtieron exitosamente el proceso, utilizando otra IA para traducir a palabras y frases las imágenes de FMRI del participante. Para probar la efectividad del decodificador, los investigadores hicieron que los participantes escucharan nuevas grabaciones y luego analizaron en qué medida la traducción del decodificador coincidía con la transcripción real de la grabación.
En el texto decodificado, casi todas las palabras estaban fuera de lugar, pero el significado del pasaje se mantenía. Básicamente lo que estaba haciendo el decodificador era parafrasear.
Mientras estaban conectados al resonador magnético, también se les pidió a los participantes que se imaginaran contando una historia, y a continuación que la repitieran en voz alta, como referencia. En este caso, el modelo de decodificación también capturó la esencia de la versión de la historia imaginada en silencio.
Un ejemplo:
Transcripción real: “Me levanté del colchón de aire y apreté la cara contra el vidrio de la ventana del dormitorio, esperando encontrarme con ojos que me devolvieran la mirada fijamente, pero en cambio solo encontré oscuridad”.
Decodificado a partir de la actividad cerebral: “Simplemente fui caminando hacia la ventana y abrí el vidrio me puse de puntas de pie y miré hacia afuera no vi nada y volví a mirar hacia arriba y no vi nada”. (sin puntuación en el original)
Finalmente, y siempre conectados al resonador magnético, a los participantes les proyectaron una breve película muda de animación. Al analizar su actividad cerebral, el modelo de lenguaje pudo decodificar un resumen aproximado de lo que estaban viendo, tal vez su propia descripción interna mental…
Limitaciones
El resultado sugiere que el decodificador de inteligencia artificial no solo estaba captando palabras, sino también significados. “La percepción del lenguaje es un proceso impulsado desde el exterior, mientras que la imaginación es un proceso activo interno”, dijo Nishimoto. “Y los autores demostraron que en todos estos procesos, el cerebro usa las mismas representaciones en ambos procesos.”
Greta Tuckute, neurocientífica del Instituto Tecnológico de Massachusetts (MIT), que no participó en la investigación, dice que estamos frente a “la gran pregunta”.
“¿Podemos decodificar no solo palabras, sino significados, a partir de la actividad cerebral?”, dice Tuckute. “De alguna manera, este estudio demuestra que se puede.”
Este método de decodificación del lenguaje tiene sus limitaciones, señalan Huth y sus colegas. Por un lado, los resonadores FMRI son aparatos grandes y costosos. Además, entrenar el modelo es un proceso largo y tedioso, y para que el entrenamiento sea efectivo debe realizarse con cada individuo. Cuando los investigadores intentaron usar un decodificador entrenado en una persona para leer la actividad cerebral de otra, falló, lo que sugiere que cada cerebro tiene formas únicas de representar el significado.
En el estudio, los participantes también pudieron blindar sus soliloquios internos, haciendo descarrilar el decodificador al pensar en otras cosas. La IA tal vez sea capaz de leernos la mente, pero por ahora tendrá que conformarse con leerlas de una a la vez, y siempre con nuestro permiso.
Por Oliver Chang
(Traducción de Jaime Arrambide)
Temas
Otras noticias de Ciencia
Más leídas de Sociedad
“Un aumento sostenido”. Las tres razones por las que un hospital universitario registra un boom de demanda
Las noticias, en 2 minutos. Milei dijo que Victoria Villarruel no tiene injerencia en el Gobierno; envían al Congreso el proyecto para eliminar las PASO
En Mendoza. Geólogos de la Universidad de La Plata denunciaron amenazas por parte de militantes de La Libertad Avanza
Cómo comprarlos. Un restaurante lanzó una promoción para comer panqueques a $10