8 de junho de 2017
Como o cérebro reconhece o que o olho vê
Novo Instituto Salk de trabalho descrevendo visual do cérebro processo pode melhorar a auto-condução de automóveis e aponte para terapias para a deficiência sensorial
8 de junho, 2017
LA JOLLA—Se você acha que a auto-condução de carros não podem chegar aqui logo logo, você não está sozinho. Mas programar computadores para reconhecer objetos é muito tecnicamente desafiador, especialmente porque os cientistas não entendem completamente como nossos próprios cérebros fazem isso.Agora, pesquisadores do Instituto Salk analisaram como os neurônios em uma parte crítica do cérebro, chamada V2, respondem a cenas naturais, proporcionando uma melhor compreensão do processamento da visão. O trabalho é descrito na Nature Communications em 8 de junho de 2017.
“a Compreensão de como o cérebro reconhece objetos visuais é importante não só por uma questão de visão, mas também porque fornece uma janela sobre como o cérebro funciona em geral”, diz Tatyana Sharpee, um professor associado na Salk Computacionais Laboratório de Neurobiologia e autor sênior do papel. “Grande parte do nosso cérebro é composto por uma unidade computacional repetida, chamada de coluna cortical. Na visão, especialmente, podemos controlar entradas para o cérebro com precisão requintada, o que torna possível analisar quantitativamente como os sinais são transformados no cérebro.Embora muitas vezes tomemos a capacidade de ver como certa, essa habilidade deriva de conjuntos de transformações matemáticas complexas que ainda não somos capazes de reproduzir em um computador, de acordo com Sharpee. Na verdade, mais de um terço do nosso cérebro é dedicado exclusivamente à tarefa de analisar cenas visuais.
nossa percepção visual começa no olho com pixels claros e escuros. Esses sinais são enviados para a parte de trás do cérebro para uma área chamada V1, onde são transformados para corresponder às bordas nas cenas visuais. De alguma forma, como resultado de várias transformações subsequentes dessa informação, podemos reconhecer rostos, carros e outros objetos e se eles estão se movendo. Quão precisamente esse reconhecimento acontece ainda é um mistério, em parte porque os neurônios que codificam objetos respondem de maneiras complicadas.Agora, Sharpee e Ryan Rowekamp, um associado de pesquisa de pós-doutorado no grupo de Sharpee, desenvolveram um método estatístico que leva essas respostas complexas e as Descreve de maneiras interpretáveis, que poderiam ser usadas para ajudar a decodificar a visão para visão simulada por computador. Para desenvolver seu modelo, a equipe usou dados publicamente disponíveis mostrando respostas cerebrais de primatas assistindo a filmes de cenas naturais (como paisagens florestais) do banco de dados colaborativo Research in Computational Neuroscience (CRCNS).”Aplicamos nossa nova técnica estatística para descobrir quais recursos do filme estavam fazendo com que os neurônios V2 mudassem suas respostas”, diz Rowekamp. “Curiosamente, descobrimos que os neurônios V2 estavam respondendo a combinações de arestas.”
A equipe revelou que V2 neurônios processo de informação visual de acordo com três princípios: primeiro, eles combinam arestas que possuem as mesmas orientações, aumentando a robustez da percepção para pequenas alterações na posição das curvas que formam limites de objeto. Em segundo lugar, se um neurônio é ativado por uma borda de uma determinada orientação e posição, então a orientação 90 graus a partir disso será supressiva no mesmo local, uma combinação denominada “supressão de orientação cruzada.”Essas combinações de bordas orientadas para Cruz são montadas de várias maneiras para nos permitir detectar várias formas visuais. A equipe descobriu que a orientação cruzada era essencial para a detecção precisa da forma. O terceiro princípio é que padrões relevantes são repetidos no espaço de maneiras que podem ajudar a perceber superfícies texturizadas de árvores ou água e limites entre elas, como em pinturas impressionistas.
os pesquisadores incorporaram os três princípios organizadores em um modelo que chamaram de modelo convolucional quadrático, que pode ser aplicado a outros conjuntos de dados experimentais. É provável que o processamento Visual seja semelhante à forma como o cérebro processa cheiros, toques ou sons, dizem os pesquisadores, para que o trabalho possa elucidar o processamento de dados dessas áreas também.
“os modelos em que trabalhei antes não eram totalmente compatíveis com os dados ou não eram compatíveis de maneira limpa”, diz Rowekamp. “Então foi realmente satisfatório quando a ideia de combinar reconhecimento de borda com sensibilidade à textura começou a valer a pena como uma ferramenta para analisar e entender dados visuais complexos.”
mas a aplicação mais imediata pode ser melhorar algoritmos de reconhecimento de objetos para carros autônomos ou outros dispositivos robóticos. “Parece que toda vez que adicionamos elementos de computação encontrados no cérebro a algoritmos de visão computacional, seu desempenho melhora”, diz Sharpee.
o trabalho foi financiado pela National Science Foundation e pelo National Eye Institute.