Home TecnologíaPercepción del Tamaño: EEG y Redes Neuronales Artificiales

Percepción del Tamaño: EEG y Redes Neuronales Artificiales

by Editor de Tecnologia

Un estudio reciente aplicó métodos computacionales para distinguir cómo se representan el tamaño real percibido de los objetos, su tamaño retiniano y la profundidad inferida en el cerebro humano y en redes neuronales artificiales (ANNs). En consonancia con investigaciones previas sobre la representación del tamaño real (Huang et al., 2022; Khaligh-Razavi et al., 2018; Konkle and Caramazza, 2013; Konkle and Oliva, 2012b; Luo et al., 2023; Quek et al., 2023; Wang et al., 2022a), se encontró que tanto el cerebro humano como las ANNs contienen información significativa sobre el tamaño real. Este estudio se diferencia de los anteriores en varios aspectos clave, ofreciendo tanto avances teóricos como metodológicos: (a) se eliminó el impacto confuso de la profundidad real percibida (además del tamaño retiniano) en la representación del tamaño real; (b) se realizaron análisis basados en imágenes naturalistas más válidas ecológicamente; (c) se obtuvieron valores de características precisos para cada objeto en cada imagen, en lugar de simplemente dividir los objetos en dos o siete categorías amplias; y (d) se utilizó una correlación parcial multimodal RSA que combina EEG, modelos basados en hipótesis y ANNs. Este enfoque permitió investigar las secuencias temporales representacionales y las manipulaciones de ingeniería inversa con un detalle sin precedentes. Al integrar datos de EEG con modelos basados en hipótesis y ANNs, este método ofrece una herramienta poderosa para desentrañar los fundamentos neuronales de la percepción del tamaño y la profundidad de los objetos en contextos más ecológicos, lo que enriquece nuestra comprensión de los mecanismos representacionales del cerebro.

Utilizando EEG, se descubrió una línea de tiempo representacional para el procesamiento visual de objetos, donde la información de profundidad real del objeto se representó primero, seguida del tamaño retiniano y, finalmente, del tamaño real. Si bien el tamaño y la profundidad están altamente correlacionados, los resultados sugieren que el cerebro humano tiene, de hecho, secuencias temporales y mecanismos disociados para procesarlos. La ventana temporal de representación posterior para el tamaño real del objeto puede sugerir que el cerebro requiere información más sofisticada y de nivel superior para formar esta representación, incorporando quizás información semántica y/o de memoria sobre objetos familiares, lo que se corroboró con nuestros análisis de ANN y Word2Vec. Estos hallazgos también se alinean con un estudio reciente de fMRI (Luo et al., 2023) que utiliza imágenes naturales para explorar la selectividad neuronal del tamaño real, encontrando que la información visual de bajo nivel apenas podía explicar las preferencias de tamaño neuronal, aunque ese estudio no consideró covariables como el tamaño retiniano y la profundidad real.

En contraste con las representaciones del tamaño real que emergen más tarde, tiene sentido que las representaciones del tamaño retiniano puedan procesarse más rápidamente basándose en información de nivel inferior más fundamental, como la forma y la discriminación de bordes. Curiosamente, las representaciones de profundidad real surgieron incluso antes que el tamaño retiniano, lo que sugiere que la característica de profundidad puede preceder al procesamiento del tamaño real. Esta aparición temprana podría reflejar el papel de las señales de profundidad en la facilitación de la segmentación de objetos, como se propone en las teorías clásicas de la visión (Marr, 1982), donde la profundidad ayuda a delinear los límites de los objetos de los fondos complejos. Además, hubo una ventana temporal de representación de profundidad significativa, aunque sustancialmente posterior, lo que podría indicar que nuestro cerebro también tiene la capacidad de integrar el tamaño retiniano del objeto y la información de tamaño real de nivel superior para formar la representación final de la profundidad real. Nuestras comparaciones entre cerebros humanos y modelos artificiales y exploraciones en ANNs y Word2Vec ofrecen más información y sugieren que, aunque el tamaño y la profundidad reales de los objetos están estrechamente relacionados, el tamaño real del objeto parece ser una dimensión más estable y de nivel superior.

leer más  Chat de texto Epic Games: Disponible en todas las plataformas

El concepto de ‘espacio de objetos’ en la investigación de la neurociencia cognitiva es crucial para comprender cómo se representan las diversas características visuales de los objetos. Históricamente, se han considerado importantes dimensiones para construir el espacio de objetos, como animado-inanimado (Kriegeskorte et al., 2008; Naselaris et al., 2012), espinosidad (Bao et al., 2020; Coggan and Tong, 2023) y apariencia física (Edelman et al., 1998). En este estudio, nos centramos en una dimensión particular, el tamaño real (Huang et al., 2022; Konkle and Caramazza, 2013; Konkle and Oliva, 2012b). Cómo generamos distinciones neuronales de diferentes tamaños reales de objetos y de dónde proviene esta capacidad aún no está claro. Algunos estudios previos encontraron que la forma del objeto, en lugar de la información de textura, podría desencadenar representaciones de tamaño neuronal (Huang et al., 2022; Long et al., 2016; Long et al., 2018; Wang et al., 2022a). Nuestros resultados intentan avanzar en sus hallazgos de que el tamaño real del objeto es una dimensión estable y de nivel superior impulsada sustancialmente por la semántica del objeto en el espacio de objetos.

Cada vez más, la investigación ha comenzado a utilizar ANNs para estudiar los mecanismos del reconocimiento de objetos (Ayzenberg et al., 2023; Cichy and Kaiser, 2019; Doerig et al., 2023; Kanwisher et al., 2023). Podemos explorar cómo el cerebro humano procesa la información en diferentes niveles comparando la actividad cerebral con modelos (Cichy et al., 2016; Khaligh-Razavi and Kriegeskorte, 2014; Kuzovkin et al., 2018; Xie et al., 2020), y también podemos analizar los patrones de representación de los modelos con manipulaciones específicas e inferir posibles mecanismos de procesamiento en el cerebro (Golan et al., 2020; Huang et al., 2022; Lu and Ku, 2023; Xu et al., 2021). En el estudio actual, nuestras comparaciones entre las señales de EEG y diferentes ANNs mostraron que la capa temprana del modelo visual tenía una mayor similitud con el cerebro en la etapa temprana, mientras que la capa tardía del modelo visual-semántico tenía una mayor similitud con el cerebro en la etapa tardía. Además, para evaluar si este patrón de similitud EEG-ANN se generaliza a arquitecturas más inspiradas biológicamente, realizamos los mismos análisis y encontramos que CORnet (Kubilius et al., 2019) mostró patrones similares a los observados para ResNet y CLIP, proporcionando evidencia convergente entre modelos (Figure 3—figure supplement 5). Sin embargo, para la representación de objetos, los resultados de correlación parcial para diferentes ANNs no demostraron la superioridad del modelo multimodal en las capas tardías. Esto podría deberse a que modelos como CLIP, que contienen información semántica, aprenden información descriptiva de imágenes más compleja (como la relación entre el objeto y el fondo en la imagen). El tamaño real podría ser una dimensión semántica del propio objeto, y su representación no requiere información descriptiva semántica general de la imagen. En contraste, el tamaño retiniano y la profundidad real podrían depender de la información de fondo de la imagen para la estimación, por lo que sus representaciones en la capa tardía de CLIP desaparecieron cuando las imágenes de entrada tenían solo el objeto puro sin fondo.

leer más  XRP: Inversión institucional y posible caída a $1.77

Aunque nuestro estudio no prueba directamente modelos específicos de procesamiento visual de objetos, la dinámica temporal observada proporciona restricciones importantes para las interpretaciones teóricas. En particular, encontramos que las representaciones del tamaño real emergen significativamente más tarde que las características visuales de bajo nivel, como el tamaño retiniano y la profundidad. Este perfil temporal es difícil de conciliar con una cuenta puramente de transmisión directa del procesamiento visual (por ejemplo, DiCarlo et al., 2012), que postula que las propiedades del objeto se calculan rápidamente en una jerarquía secuencial de características visuales cada vez más complejas. En cambio, nuestros resultados son más consistentes con marcos que enfatizan el procesamiento recurrente o de arriba hacia abajo, como la teoría de la jerarquía inversa (Hochstein and Ahissar, 2002), que sugiere que la información conceptual de alto nivel puede emerger más tarde e involucrar retroalimentación a áreas visuales anteriores. Esta interpretación está respaldada además por similitudes representacionales con las capas tardías de las redes neuronales artificiales y con un modelo de incrustación de palabras semánticas (Word2Vec), ambos de los cuales reflejan conocimiento aprendido y abstracto en lugar de características visuales de bajo nivel. En conjunto, estos hallazgos sugieren que el tamaño real no es simplemente un atributo perceptivo, sino uno que se basa en representaciones conceptuales o semánticas adquiridas a través de la experiencia. Si bien nuestros análisis de EEG se centraron en electrodos posteriores y, por lo tanto, no pueden localizar definitivamente las fuentes corticales, vemos este estudio como un paso hacia la vinculación de la entrada visual de bajo nivel con el conocimiento semántico de alto nivel. El trabajo futuro que incorpore una cobertura espacial más amplia (por ejemplo, sensores anteriores), la localización de fuentes o modalidades complementarias como MEG y fMRI será fundamental para arbitrar entre modelos alternativos de representación de objetos y para trazar con mayor precisión el origen y el flujo de información de tamaño real en el cerebro. Además, basándose en los prometedores hallazgos de nuestro estudio, el trabajo futuro puede profundizar aún más en los procesos detallados del procesamiento de objetos y el espacio de objetos. Un problema importante a resolver es cómo interactúa el tamaño real con otras dimensiones de los objetos en el espacio de objetos. Además, nuestro enfoque podría utilizarse con estudios futuros que investiguen otras influencias en el procesamiento de objetos, como cómo las diferentes condiciones de la tarea impactan y modulan el procesamiento de varias características visuales.

leer más  Google lanza gafas IA con Samsung y Warby Parker

Además, debemos enfatizar que en este estudio, nos preocupamos por el tamaño y la profundidad reales percibidos que reflejan una estimación perceptiva de nuestro mundo, que son ligeramente diferentes del tamaño y la profundidad físicos absolutos. Las diferencias en la codificación cerebral entre el tamaño y la profundidad percibidos y absolutos requieren mediciones más exhaustivas de los atributos físicos de un objeto para una mayor exploración. Además, nos centramos en percibir la profundidad y el tamaño a partir de imágenes 2D en este estudio, lo que podría tener algunas diferencias en el mecanismo cerebral en comparación con la exploración física del mundo 3D. No obstante, creemos que nuestro estudio ofrece una valiosa contribución al reconocimiento de objetos, especialmente al proceso de codificación del tamaño real del objeto en imágenes naturales. Además, reconocemos que nuestra métrica para la profundidad real se derivó indirectamente como la relación entre el tamaño real percibido y el tamaño retiniano. Si bien esta formulación se basa en principios geométricos de la proyección en perspectiva y sirvió para disociar analíticamente la profundidad del tamaño en nuestro marco RSA, sigue siendo un proxy en lugar de una medida directa de la distancia egocéntrica percibida. El trabajo futuro que incorpore calificaciones de profundidad conductuales o psicofísicas sería valioso para validar y refinar esta métrica.

En conclusión, utilizamos métodos computacionales para distinguir las representaciones del tamaño real, el tamaño retiniano y las características de profundidad real de los objetos en imágenes ecológicamente naturales tanto en cerebros humanos como en ANNs. Encontramos una representación sin confundir del tamaño real del objeto, que surgió en ventanas de tiempo posteriores en la señal de EEG humana y en capas posteriores de redes neuronales artificiales en comparación con la profundidad real, y que también pareció preservarse como una dimensión estable en el espacio de objetos. Por lo tanto, aunque las propiedades de tamaño y profundidad están estrechamente correlacionadas, el procesamiento del tamaño y la profundidad percibidos del objeto puede surgir a través de secuencias temporales y mecanismos disociados. Nuestra investigación proporciona una caracterización temporalmente resuelta de cómo ciertas propiedades clave del objeto, como el tamaño real, la profundidad y el tamaño retiniano del objeto, se representan en el cerebro, lo que avanza nuestra comprensión de la codificación del tamaño real como una dimensión estable y semánticamente fundamentada en el espacio de objetos, y contribuye al desarrollo de modelos visuales más similares al cerebro.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.