8 juin 2017
Comment le cerveau reconnaît ce que l’œil voit
De nouveaux travaux de l’Institut Salk décrivant le processus visuel du cerveau pourraient améliorer les voitures autonomes et indiquer des thérapies pour les troubles sensoriels
8 juin 2017
LA JOLLA – Si vous pensez que les voitures autonomes ne peuvent pas arriver assez tôt, vous n’êtes pas seul. Mais programmer des ordinateurs pour reconnaître des objets est très difficile techniquement, d’autant plus que les scientifiques ne comprennent pas complètement comment nos propres cerveaux le font.
Maintenant, les chercheurs de l’Institut Salk ont analysé comment les neurones d’une partie critique du cerveau, appelée V2, réagissent aux scènes naturelles, ce qui permet de mieux comprendre le traitement de la vision. Le travail est décrit dans Nature Communications du 8 juin 2017.
» Comprendre comment le cerveau reconnaît les objets visuels est important non seulement pour la vision, mais aussi parce qu’il fournit une fenêtre sur le fonctionnement du cerveau en général « , explique Tatyana Sharpee, professeure agrégée au Laboratoire de neurobiologie computationnelle de Salk et auteure principale de l’article. « Une grande partie de notre cerveau est composée d’une unité de calcul répétée, appelée colonne corticale. En vision en particulier, nous pouvons contrôler les entrées dans le cerveau avec une précision exquise, ce qui permet d’analyser quantitativement comment les signaux sont transformés dans le cerveau. »
Bien que nous prenions souvent la capacité de voir pour acquise, cette capacité découle d’ensembles de transformations mathématiques complexes que nous ne sommes pas encore capables de reproduire dans un ordinateur, selon Sharpee. En fait, plus d’un tiers de notre cerveau est consacré exclusivement à la tâche d’analyser des scènes visuelles.
Notre perception visuelle commence dans l’œil avec des pixels clairs et sombres. Ces signaux sont envoyés à l’arrière du cerveau vers une zone appelée V1 où ils sont transformés pour correspondre aux bords des scènes visuelles. D’une manière ou d’une autre, à la suite de plusieurs transformations ultérieures de ces informations, nous pouvons alors reconnaître des visages, des voitures et d’autres objets et savoir s’ils bougent. La façon précise dont cette reconnaissance se produit reste un mystère, en partie parce que les neurones qui codent des objets réagissent de manière compliquée.
Maintenant, Sharpee et Ryan Rowekamp, un associé de recherche postdoctoral du groupe Sharpee, ont développé une méthode statistique qui prend ces réponses complexes et les décrit de manière interprétable, qui pourrait être utilisée pour aider à décoder la vision pour la vision simulée par ordinateur. Pour développer son modèle, l’équipe a utilisé des données accessibles au public montrant les réponses cérébrales de primates regardant des films de scènes naturelles (telles que des paysages forestiers) de la base de données Collaborative Research in Computational Neuroscience (CRCNS).
« Nous avons appliqué notre nouvelle technique statistique afin de déterminer quelles caractéristiques du film amenaient les neurones V2 à modifier leurs réponses », explique Rowekamp. « Fait intéressant, nous avons constaté que les neurones V2 répondaient à des combinaisons de bords. »
L’équipe a révélé que les neurones V2 traitent les informations visuelles selon trois principes: premièrement, ils combinent des bords ayant des orientations similaires, augmentant la robustesse de la perception à de petits changements de position des courbes qui forment des limites d’objets. Deuxièmement, si un neurone est activé par un bord d’une orientation et d’une position particulières, l’orientation à 90 degrés de celle-ci sera suppressive au même endroit, une combinaison appelée « suppression de l’orientation croisée. »Ces combinaisons de bords transversaux sont assemblées de différentes manières pour nous permettre de détecter diverses formes visuelles. L’équipe a constaté que l’orientation transversale était essentielle pour une détection précise de la forme. Le troisième principe est que les motifs pertinents sont répétés dans l’espace de manière à aider à percevoir les surfaces texturées des arbres ou de l’eau et les limites entre eux, comme dans les peintures impressionnistes.
Les chercheurs ont incorporé les trois principes d’organisation dans un modèle qu’ils ont nommé le modèle convolutionnel quadratique, qui peut être appliqué à d’autres ensembles de données expérimentales. Le traitement visuel est susceptible d’être similaire à la façon dont le cerveau traite les odeurs, le toucher ou les sons, disent les chercheurs, de sorte que le travail pourrait également élucider le traitement des données de ces zones.
« Les modèles sur lesquels j’avais travaillé auparavant n’étaient pas entièrement compatibles avec les données, ou n’étaient pas parfaitement compatibles », explique Rowekamp. « C’était donc vraiment satisfaisant lorsque l’idée de combiner la reconnaissance des bords avec la sensibilité à la texture a commencé à porter ses fruits en tant qu’outil d’analyse et de compréhension de données visuelles complexes. »
Mais l’application la plus immédiate pourrait être d’améliorer les algorithmes de reconnaissance d’objets pour les voitures autonomes ou d’autres dispositifs robotiques. « Il semble que chaque fois que nous ajoutons des éléments de calcul présents dans le cerveau à des algorithmes de vision par ordinateur, leurs performances s’améliorent », explique Sharpee.
Les travaux ont été financés par la National Science Foundation et le National Eye Institute.