8 de junio de 2017
Cómo reconoce el cerebro lo que ve el ojo
El nuevo trabajo del Salk Institute que describe el proceso visual del cerebro podría mejorar los automóviles autónomos y apuntar a terapias para la discapacidad sensorial
8 de junio de 2017
si crees que los autos autónomos no pueden llegar lo suficientemente pronto, no estás solo. Pero programar computadoras para reconocer objetos es muy difícil técnicamente, especialmente porque los científicos no entienden completamente cómo lo hacen nuestros propios cerebros.
Ahora, los investigadores del Instituto Salk han analizado cómo las neuronas en una parte crítica del cerebro, llamada V2, responden a las escenas naturales, proporcionando una mejor comprensión del procesamiento de la visión. El trabajo se describe en Nature Communications el 8 de junio de 2017.
«Comprender cómo el cerebro reconoce los objetos visuales es importante no solo por el bien de la visión, sino también porque proporciona una ventana sobre cómo funciona el cerebro en general», dice Tatyana Sharpee, profesora asociada en el Laboratorio de Neurobiología Computacional de Salk y autora principal del artículo. «Gran parte de nuestro cerebro está compuesto por una unidad computacional repetida, llamada columna cortical. En la visión, especialmente, podemos controlar las entradas al cerebro con una precisión exquisita, lo que hace posible analizar cuantitativamente cómo se transforman las señales en el cerebro.»
Aunque a menudo damos por sentado la habilidad de ver, esta habilidad deriva de conjuntos de transformaciones matemáticas complejas que aún no somos capaces de reproducir en una computadora, según Sharpee. De hecho, más de un tercio de nuestro cerebro está dedicado exclusivamente a la tarea de analizar escenas visuales.
Nuestra percepción visual comienza en el ojo con píxeles claros y oscuros. Estas señales se envían a la parte posterior del cerebro a un área llamada V1 donde se transforman para corresponder con los bordes de las escenas visuales. De alguna manera, como resultado de varias transformaciones posteriores de esta información, podemos reconocer caras, automóviles y otros objetos y si se están moviendo. La precisión con la que ocurre este reconocimiento sigue siendo un misterio, en parte porque las neuronas que codifican objetos responden de formas complicadas.
Ahora, Sharpee y Ryan Rowekamp, un investigador asociado postdoctoral en el grupo de Sharpee, han desarrollado un método estadístico que toma estas respuestas complejas y las describe de manera interpretable, que podría usarse para ayudar a decodificar la visión para la visión simulada por computadora. Para desarrollar su modelo, el equipo utilizó datos disponibles públicamente que mostraban las respuestas cerebrales de primates viendo películas de escenas naturales (como paisajes forestales) de la base de datos de Investigación Colaborativa en Neurociencia Computacional (CRCNS).
«Aplicamos nuestra nueva técnica estadística para averiguar qué características de la película estaban causando que las neuronas V2 cambiaran sus respuestas», dice Rowekamp. «Curiosamente, encontramos que las neuronas V2 respondían a combinaciones de bordes.»
El equipo reveló que las neuronas V2 procesan la información visual de acuerdo con tres principios: primero, combinan bordes que tienen orientaciones similares, aumentando la robustez de la percepción a pequeños cambios en la posición de las curvas que forman límites de objetos. En segundo lugar, si una neurona es activada por un borde de una orientación y posición particulares, entonces la orientación a 90 grados de esa será supresora en la misma ubicación, una combinación denominada «supresión de orientación cruzada».»Estas combinaciones de bordes orientados en cruz se ensamblan de varias maneras para permitirnos detectar varias formas visuales. El equipo descubrió que la orientación cruzada era esencial para la detección precisa de formas. El tercer principio es que los patrones relevantes se repiten en el espacio de manera que puedan ayudar a percibir las superficies texturizadas de los árboles o el agua y los límites entre ellos, como en las pinturas impresionistas.
Los investigadores incorporaron los tres principios organizativos en un modelo que denominaron Modelo Convolucional Cuadrático, que se puede aplicar a otros conjuntos de datos experimentales. Es probable que el procesamiento visual sea similar a la forma en que el cerebro procesa los olores, el tacto o los sonidos, dicen los investigadores, por lo que el trabajo también podría dilucidar el procesamiento de datos de estas áreas.
«Los modelos en los que había trabajado antes no eran totalmente compatibles con los datos, o no eran perfectamente compatibles», dice Rowekamp. «Así que fue realmente satisfactorio cuando la idea de combinar el reconocimiento de bordes con la sensibilidad a la textura comenzó a funcionar como una herramienta para analizar y comprender datos visuales complejos.»
Pero la aplicación más inmediata podría ser mejorar los algoritmos de reconocimiento de objetos para automóviles autónomos u otros dispositivos robóticos. «Parece que cada vez que agregamos elementos de computación que se encuentran en el cerebro a los algoritmos de visión por computadora, su rendimiento mejora», dice Sharpee.
El trabajo fue financiado por la Fundación Nacional de Ciencias y el Instituto Nacional del Ojo.