Una modificación de una popular inteligencia artificial generadora de texto a imagen le permite convertir las señales cerebrales directamente en imágenes. Sin embargo, el sistema requiere un entrenamiento exhaustivo con equipos de imagen voluminosos y costosos, por lo que la lectura cotidiana de la mente está muy lejos de la realidad.
Varios grupos de investigación han generado anteriormente imágenes a partir de señales cerebrales utilizando modelos de IA que consumen mucha energía y requieren el ajuste fino de millones a miles de millones de parámetros.
Ahora, Shinji Nishimoto y Yu Takagi de la Universidad de Osaka (Japón) han desarrollado un método mucho más sencillo utilizando Stable Diffusion, un generador de texto a imagen lanzado por Stability AI. Su nuevo método implica miles, en lugar de millones, de parámetros.
Cuando se utiliza normalmente, la Difusión Estable convierte un texto en una imagen empezando con ruido visual aleatorio y ajustándolo para producir imágenes que se parezcan a las de sus datos de entrenamiento que tienen pies de texto similares.
Nishimoto y Takagi construyeron dos modelos adicionales para que la IA trabajara con señales cerebrales. La pareja utilizó datos de cuatro personas que participaron en un estudio anterior en el que se utilizaron imágenes de resonancia magnética funcional (IRMf) para escanear sus cerebros mientras veían 10.000 imágenes distintas de paisajes, objetos y personas.
Utilizando alrededor del 90% de los datos de las imágenes cerebrales, la pareja entrenó un modelo para establecer vínculos entre los datos de IRMf de una región cerebral que procesa las señales visuales, denominada corteza visual temprana, y las imágenes que veían las personas.
Utilizaron el mismo conjunto de datos para entrenar un segundo modelo que formara vínculos entre las descripciones textuales de las imágenes -realizadas por cinco anotadores en el estudio anterior- y los datos de IRMf de una región cerebral que procesa el significado de las imágenes, denominada corteza visual ventral. Estudio que analizó los mismos datos utilizando un enfoque mucho más tedioso.
“No podía creer lo que veían mis ojos, fui al baño y eché un vistazo en el espejo, luego volví a mi escritorio para echar otro vistazo”
— Takagi.
Sin embargo, el estudio sólo probó el método con cuatro personas y las IA que leen la mente funcionan mejor con unas personas que con otras, dice Nishimoto.
Sikun Lin, de la Universidad de California en Santa Bárbara. “Esto no es en absoluto práctico para el uso diario”, afirma.
En el futuro, versiones más prácticas del método podrían permitir a las personas hacer arte o alterar imágenes con su imaginación, o añadir nuevos elementos al juego, dice Lin.
Con información de Carissa Wong