hvordan hjernen genkender, hvad øjet ser

8.juni 2017

hvordan hjernen genkender, hvad øjet ser

nyt Salk Institute-arbejde, der skitserer hjernens visuelle proces, kunne forbedre selvkørende biler og pege på terapier til sensorisk svækkelse

8. juni 2017

LA JOLLA—hvis du tror, at selvkørende biler ikke kan komme her hurtigt nok, er du ikke alene. Men programmering af computere til at genkende objekter er meget teknisk udfordrende, især da forskere ikke fuldt ud forstår, hvordan vores egne hjerner gør det.

nu har Salk Institute-forskere analyseret, hvordan neuroner i en kritisk del af hjernen, kaldet V2, reagerer på naturlige scener, hvilket giver en bedre forståelse af synsbehandling. Arbejdet er beskrevet i Nature Communications den 8. juni 2017.

“at forstå, hvordan hjernen genkender visuelle objekter, er vigtig ikke kun af hensyn til synet, men også fordi det giver et vindue til, hvordan hjernen fungerer generelt,” siger Tatyana Sharpee, lektor i Salks Computational Neurobiology Laboratory og seniorforfatter af papiret. “Meget af vores hjerne består af en gentagen beregningsenhed, kaldet en kortikal søjle. I vision kan vi især styre input til hjernen med udsøgt præcision, hvilket gør det muligt kvantitativt at analysere, hvordan signaler transformeres i hjernen.”

selvom vi ofte tager evnen til at se for givet, stammer denne evne fra sæt af komplekse matematiske transformationer, som vi endnu ikke er i stand til at gengive i en computer, ifølge Sharpee. Faktisk er mere end en tredjedel af vores hjerne udelukkende afsat til opgaven med at analysere visuelle scener.

illustrationen til højre viser, hvordan hjernens V1-og V2-områder kan bruge information om kanter og teksturer til at repræsentere genstande som bamsen til venstre.

Klik her for et billede i høj opløsning.

kredit: Salk Institute

vores visuelle opfattelse starter i øjet med lyse og mørke billedpunkter. Disse signaler sendes til bagsiden af hjernen til et område kaldet V1, hvor de transformeres til at svare til kanter i de visuelle scener. På en eller anden måde kan vi som et resultat af flere efterfølgende transformationer af denne information genkende ansigter, biler og andre genstande, og om de bevæger sig. Hvor præcist denne anerkendelse sker, er stadig et mysterium, dels fordi neuroner, der koder objekter, reagerer på komplicerede måder.

nu har Sharpee og Ryan Roekamp, en postdoktoral forskningsassistent i Sharpees gruppe, udviklet en statistisk metode, der tager disse komplekse svar og beskriver dem på fortolkelige måder, som kunne bruges til at hjælpe med at afkode vision for computersimuleret vision. For at udvikle deres model brugte teamet offentligt tilgængelige data, der viser hjernesvar fra primater, der ser film af naturlige scener (såsom skovlandskaber) fra databasen Collaborative Research in Computational Neuroscience (CRCNS).

“vi anvendte vores nye statistiske teknik for at finde ud af, hvilke funktioner i filmen der fik v2-neuroner til at ændre deres svar,” siger han. “Interessant nok fandt vi, at V2-neuroner reagerede på kombinationer af kanter.”

fra venstre: Tatyana Sharpee og Ryan Roekamp

Klik her for et billede i høj opløsning.

kredit: Salk Institute

holdet afslørede, at V2-neuroner behandler visuel information i henhold til tre principper: for det første kombinerer de kanter, der har lignende orienteringer, hvilket øger robustheden i opfattelsen til små ændringer i kurvens position, der danner objektgrænser. For det andet, hvis en neuron aktiveres af en kant af en bestemt orientering og position, vil orienteringen 90 grader fra det være undertrykkende på samme sted, en kombination betegnet “krydsorienteringsundertrykkelse.”Disse krydsorienterede kantkombinationer er samlet på forskellige måder, så vi kan registrere forskellige visuelle former. Holdet fandt ud af, at krydsorientering var afgørende for nøjagtig formdetektion. Det tredje princip er, at relevante mønstre gentages i rummet på måder, der kan hjælpe med at opfatte teksturerede overflader af træer eller vand og grænser mellem dem, som i impressionistiske malerier.

forskerne indarbejdede de tre organiseringsprincipper i en model, de kaldte den kvadratiske Konvolutionsmodel, som kan anvendes på andre sæt eksperimentelle data. Visuel behandling svarer sandsynligvis til, hvordan hjernen behandler lugt, berøring eller lyde, siger forskerne, så arbejdet også kunne belyse behandling af data fra disse områder.

“modeller, jeg havde arbejdet på før dette, var ikke helt kompatible med dataene, eller var ikke rent kompatible,” siger han. “Så det var virkelig tilfredsstillende, da ideen om at kombinere kantgenkendelse med følsomhed over for tekstur begyndte at betale sig som et værktøj til at analysere og forstå komplekse visuelle data.”

men den mere umiddelbare anvendelse kan være at forbedre objektgenkendelsesalgoritmer til selvkørende biler eller andre robotenheder. “Det ser ud til, at hver gang vi tilføjer elementer af beregning, der findes i hjernen til computersynsalgoritmer, forbedres deres ydeevne,” siger Sharpee.

arbejdet blev finansieret af National Science Foundation og National Eye Institute.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.