8 juni 2017
Hoe de hersenen herkent wat het oog ziet
Nieuwe Salk Institute werk waarin de hersenen de visuele proces zou kunnen verbeteren zelf-rijdende auto ‘ s en therapieën voor mensen met zintuiglijke beperkingen
8 juni 2017
LA JOLLA—Als je denkt dat het zelf-rijdende auto ‘ s kunnen niet snel genoeg, je bent niet alleen. Maar computers programmeren om objecten te herkennen is technisch zeer uitdagend, vooral omdat wetenschappers niet volledig begrijpen hoe onze eigen hersenen het doen.
nu hebben onderzoekers van het Salk Instituut geanalyseerd hoe neuronen in een kritisch deel van de hersenen, genaamd V2, reageren op natuurlijke scènes, waardoor een beter begrip van visieverwerking wordt verkregen. Het werk is beschreven in Nature Communications op 8 juni 2017.
“begrijpen hoe de hersenen visuele objecten herkennen is niet alleen belangrijk voor het gezichtsvermogen, maar ook omdat het een venster biedt op hoe de hersenen in het algemeen werken,” zegt Tatyana Sharpee, universitair hoofddocent in Salk ‘ s Computational Neurobiology Laboratory en senior auteur van het artikel. “Veel van ons brein bestaat uit een herhaalde computationele eenheid, een corticale kolom genaamd. Vooral in het zicht kunnen we de ingangen naar de hersenen met exquise precisie controleren, wat het mogelijk maakt om kwantitatief te analyseren hoe signalen in de hersenen worden getransformeerd.”
hoewel we het vermogen om te zien vaak als vanzelfsprekend beschouwen, komt dit vermogen voort uit verzamelingen van complexe wiskundige transformaties die we nog niet in staat zijn om te reproduceren in een computer, volgens Sharpee. In feite is meer dan een derde van ons brein uitsluitend gewijd aan de taak van het ontleden van visuele scènes.
onze visuele waarneming begint in het oog met lichte en donkere pixels. Deze signalen worden naar de achterkant van de hersenen gestuurd naar een gebied genaamd V1 waar ze worden getransformeerd om te corresponderen met randen in de visuele scènes. Op de een of andere manier, als gevolg van verschillende latere transformaties van deze informatie, kunnen we dan gezichten, auto ‘ s en andere objecten herkennen en of ze bewegen. Hoe deze herkenning precies gebeurt is nog steeds een mysterie, deels omdat neuronen die objecten coderen op ingewikkelde manieren reageren.Sharpee en Ryan Rowekamp, een postdoctoraal onderzoeksassistent in de groep van Sharpee, hebben een statistische methode ontwikkeld die deze complexe reacties neemt en ze op interpreteerbare manieren beschrijft, die kan worden gebruikt om visie te decoderen voor computergesimuleerde visie. Om hun model te ontwikkelen, gebruikte het team openbaar beschikbare gegevens die de reactie van de hersenen van primaten tonen die films van natuurlijke scènes (zoals boslandschappen) bekijken uit de database van Collaborative Research in Computational Neuroscience (CRCNS).
” we pasten onze nieuwe statistische techniek toe om erachter te komen welke functies in de film ervoor zorgden dat v2-neuronen hun reacties veranderden, ” zegt Rowekamp. “Interessant is dat we ontdekten dat v2-neuronen reageerden op combinaties van randen.”
het team onthulde dat v2-neuronen visuele informatie verwerken volgens drie principes: ten eerste, ze combineren randen die vergelijkbare oriëntaties hebben, waardoor de robuustheid van de waarneming toeneemt met kleine veranderingen in de positie van krommen die objectgrenzen vormen. Ten tweede, als een neuron wordt geactiveerd door een rand van een bepaalde oriëntatie en positie, dan is de oriëntatie 90 graden vanaf dat onderdrukkend op dezelfde locatie, een combinatie genoemd “Cross-oriëntatie onderdrukking.”Deze cross-oriented randcombinaties zijn op verschillende manieren samengesteld om ons in staat te stellen verschillende visuele vormen te detecteren. Het team vond dat kruisoriëntatie essentieel was voor nauwkeurige vormdetectie. Het derde principe is dat relevante patronen worden herhaald in de ruimte op manieren die kunnen helpen ervaren getextureerde oppervlakken van bomen of water en grenzen tussen hen, zoals in impressionistische schilderijen.
de onderzoekers namen de drie organiserende principes op in een model dat zij het kwadratische Convolutiemodel noemden, dat kan worden toegepast op andere reeksen experimentele gegevens. Visuele verwerking is waarschijnlijk vergelijkbaar met hoe de hersenen processen geuren, aanraking of geluiden, de onderzoekers zeggen, zodat het werk zou kunnen ophelderen verwerking van gegevens uit deze gebieden ook.
” modellen waaraan ik eerder had gewerkt, waren niet helemaal compatibel met de data, of waren niet netjes compatibel,” zegt Rowekamp. “Dus het was echt bevredigend toen het idee van het combineren van randherkenning met gevoeligheid voor textuur begon te betalen als een tool om complexe visuele gegevens te analyseren en te begrijpen.”
maar de meest directe toepassing zou kunnen zijn het verbeteren van objectherkenningsalgoritmen voor zelfrijdende auto ‘ s of andere robotapparaten. “Het lijkt erop dat elke keer dat we elementen van berekening die in de hersenen worden gevonden toevoegen aan computer-vision algoritmen, hun prestaties verbeteren,” zegt Sharpee.Het werk werd gefinancierd door de National Science Foundation en het National Eye Institute.