Un nuevo sistema de inteligencia artificial puede reconstruir imágenes que una persona vio previamente
Investigadores de la Universidad de Osaka crearon una herramienta que permite traducir la actividad cerebral de los humanos.
Los investigadores Yu Takagi y Shinji Nishimoto utilizaron el software Stable Diffussion en su investigación, que ya estaba desarrollado previamente y utiliza inteligencia artificial de aprendizaje profundo para crear imágenes a partir de la actividad cerebral de las personas. La herramienta de inteligencia artificial fue desarrollada por investigadores en Alemania en 2022. La investigación se llevó a cabo en la Universidad de Osaka.
Llevaron a cabo un ensayo exitoso con este modelo de IA de aprendizaje profundo, mostrando hasta 10,000 imágenes producidas por los seres humanos a través de escáneres celulares.
Imagen de Gerd Altmann en Pixabay |
Aunque se ha especulado sobre la posibilidad de que este software pueda "leer la mente", los investigadores afirman que no pueden decodificar la imaginación o los sueños y que los temas de privacidad son de suma importancia en su investigación. Es necesario el uso de la tecnología de escaneo cerebral y la inteligencia artificial para poder llevar a cabo este tipo de investigaciones, y aunque se reconoce el potencial de la IA en el futuro, también existen preocupaciones sobre los riesgos que conlleva el uso de esta tecnología.
El modelo de IA no necesitó previamente de visualizar imágenes para producir otras. Eso mismo fue lo que realmente asombró a Takagi, quien aseguró que "no esperábamos este tipo de resultado".
"Soy optimista para la IA, pero no soy optimista para la tecnología del cerebro, pero creo que este es el consenso entre los neurocientíficos", sentenció el investigador japonés."
El Abstract de la publicación.
"Here, we propose a new method based on a diffusion model (DM) to reconstruct images from human brain activity obtained via functional magnetic resonance imaging (fMRI). More specifically, we rely on a latent diffusion model (LDM) termed Stable Diffusion. This model reduces the computational cost of DMs, while preserving their high generative performance. We also characterize the inner mechanisms of the LDM by studying how its different components (such as the latent vector of image Z, conditioning inputs C, and different elements of the denoising U-Net) relate to distinct brain functions."
Publicar un comentario