211service.com
Las imágenes cerebrales revelan lo que estás viendo

Los científicos están un paso más cerca de construir una versión digital del sistema visual humano. Investigadores de la Universidad de California, Berkeley, han desarrollado un algoritmo que se puede aplicar a imágenes de resonancia magnética funcional (fMRI) para mostrar una imagen en movimiento que está viendo una persona.
Los neurocientíficos han estado usando fMRI para estudiar el sistema visual humano durante años, lo que implica medir los cambios en los niveles de oxígeno en sangre en el cerebro. Esto funciona bien para estudiar cómo vemos las imágenes estáticas, pero se queda corto cuando se trata de imágenes en movimiento. La actividad neuronal individual se produce en una escala de tiempo mucho más rápida, por lo que hace unos años los investigadores detrás del estudio actual se propusieron diseñar un modelo informático para medir esto. El estudio muestra que este nuevo enfoque no solo es exitoso, sino que también es notablemente preciso.
El estudio, que aparece en Biología actual esta semana, marca la primera vez que alguien ha utilizado imágenes cerebrales para determinar qué imágenes en movimiento está viendo una persona. Podría ayudar a los investigadores a modelar el sistema visual humano en una computadora, y plantea la tentadora perspectiva de que algún día se pueda utilizar el modelo para reconstruir otros tipos de imágenes dinámicas, como sueños y recuerdos.
Los investigadores involucrados en el estudio vieron horas de avances de películas mientras estaban acostados en una máquina de resonancia magnética funcional. A continuación, deconstruyeron minuciosamente los datos para que tuvieran un patrón de activación específico para cada segundo de metraje. Pasaron esos datos a través de varios filtros diferentes para inferir lo que estaba sucediendo a nivel neuronal. Una vez que haces esto, tienes un modelo completo que vincula la tubería del flujo sanguíneo que ves con la resonancia magnética funcional con la actividad neuronal que no ves, dice Jack Gallant, coautor del estudio con su colega Shinji Nishimoto.
A continuación, los investigadores compilaron una biblioteca de 18 millones de videoclips de YouTube, elegidos al azar, para probar su modelo de manera objetiva. Estudios anteriores han demostrado que la resonancia magnética funcional se puede utilizar para determinar imágenes estáticas que está mirando un sujeto, pero el nuevo modelo de computadora ofrecía la posibilidad de reconstruir imágenes que tenían dirección de movimiento y forma. Nadie ha intentado modelar la visión dinámica con este nivel de detalle antes, dice Jim Haxby, un experto en neuroimagen en Dartmouth College que no participó en el estudio.
Los investigadores utilizaron la biblioteca de YouTube para simular lo que sucedería en las imágenes de resonancia magnética funcional cuando vieron un nuevo conjunto de avances de películas. Los resultados de las simulaciones y las exploraciones de resonancia magnética funcional fueron casi idénticos. Por lo general, solo se obtiene ese tipo de precisión en física, no en neurociencia, dice Benjamin Singer, investigador de resonancia magnética funcional en la Universidad de Princeton que no participó en el estudio. Es un tour de force que reúne décadas de trabajo.
Hay dos salvedades principales en el estudio. Los investigadores utilizaron datos de resonancia magnética funcional de una sola área del sistema visual: el área V1, también conocida como corteza visual primaria. Y los modelos fueron personalizados para cada tema. Intentar diseñar un modelo que funcionara para todos habría sido demasiado difícil, dice Gallant, aunque sospecha que podría desarrollarse un modelo más generalizado en el futuro.
El objetivo final de esta investigación es crear una versión computacional del cerebro humano que vea el mundo como nosotros. El estudio también demuestra un uso inesperado de una tecnología existente. Todo el mundo siempre pensó que era imposible recuperar la actividad cerebral dinámica con fMRI, dice Gallant.