Hvordan hjernen gjenkjenner hva øyet ser

8.juni 2017

Hvordan hjernen gjenkjenner hva øyet ser

New Salk Institute arbeid som beskriver hjernens visuelle prosess kan forbedre selvkjørende biler og peke på terapier for sensorisk svekkelse

8. juni 2017

LA JOLLA-hvis du tror at selvkjørende biler ikke Kan Komme Hit Fort Nok, Er Du Ikke Alene. Men programmering av datamaskiner for å gjenkjenne objekter er veldig teknisk utfordrende, spesielt siden forskere ikke forstår fullt ut hvordan våre egne hjerner gjør det.

Nå Har Salk Institute forskere analysert hvordan nevroner i en kritisk del Av hjernen, Kalt V2, reagerer på naturlige scener, noe som gir en bedre forståelse av visjonsbehandling. Arbeidet er beskrevet i Nature Communications 8. juni 2017.

«Å Forstå hvordan hjernen gjenkjenner visuelle objekter er viktig, ikke bare for visjonens skyld, men også fordi det gir et vindu på hvordan hjernen fungerer generelt,» sier Tatyana Sharpee, en lektor I Salks Computational Neurobiology Laboratory og senior forfatter av papiret. «Mye av hjernen vår består av en gjentatt beregningsenhet, kalt en kortikal kolonne. I visjon kan vi spesielt kontrollere innganger til hjernen med utsøkt presisjon, noe som gjør det mulig å kvantitativt analysere hvordan signaler forvandles i hjernen.»

selv om vi ofte tar evnen til å se for gitt, kommer denne evnen fra sett med komplekse matematiske transformasjoner som vi ennå ikke er i stand til å reprodusere i en datamaskin, ifølge Sharpee. Faktisk er mer enn en tredjedel av hjernen vår viet utelukkende til oppgaven med å analysere visuelle scener.

illustrasjonen til høyre viser hvordan Hjernens V1-og V2-områder kan bruke informasjon om kanter og teksturer for å representere objekter som bamse til venstre.

Klikk her for et høyoppløselig bilde.

Kreditt: Salk Institute

vår visuelle oppfatning starter i øyet med lyse og mørke piksler. Disse signalene sendes til baksiden av hjernen Til et område kalt V1 hvor de forvandles for å korrespondere med kanter i de visuelle scenene. På en eller annen måte, som et resultat av flere påfølgende transformasjoner av denne informasjonen, kan vi da gjenkjenne ansikter, biler og andre gjenstander og om de beveger seg. Hvor nøyaktig denne anerkjennelsen skjer er fortsatt et mysterium, delvis fordi nevroner som koder objekter reagerer på kompliserte måter.

Nå Har Sharpee Og Ryan Rowekamp, en postdoktoral forskningsassistent I Sharpees gruppe, utviklet en statistisk metode som tar disse komplekse svarene og beskriver dem på tolkbare måter, som kan brukes til å dekode visjon for datasimulert visjon. For å utvikle sin modell brukte teamet offentlig tilgjengelige data som viste hjerneresponser fra primater som så på filmer av naturscener (som skogslandskap) fra Collaborative Research in Computational Neuroscience (CRCNS) database.

«Vi brukte vår nye statistiske teknikk for å finne ut hvilke funksjoner I filmen som forårsaket V2-nevroner for å endre deres svar,» sier Rowekamp. «Interessant, fant vi At V2-nevroner reagerte på kombinasjoner av kanter.»

fra venstre: Tatyana Sharpee Og Ryan Rowekamp

Klikk her for et høyoppløselig bilde.

Kreditt: Salk Institute

teamet viste At V2-nevroner behandler visuell informasjon i henhold til tre prinsipper: for det første kombinerer de kanter som har lignende orienteringer, og øker robustheten av oppfatning til små endringer i kurvens posisjon som danner objektgrenser. For det andre, hvis en nevron aktiveres av en kant av en bestemt orientering og posisjon, vil orienteringen 90 grader fra den være undertrykkende på samme sted, en kombinasjon som kalles » kryssorienteringsundertrykkelse.»Disse kryssorienterte kantkombinasjonene er samlet på ulike måter for å tillate oss å oppdage ulike visuelle former. Teamet fant at kryssorientering var avgjørende for nøyaktig formdeteksjon. Det tredje prinsippet er at relevante mønstre gjentas i rommet på måter som kan bidra til å oppleve teksturerte overflater av trær eller vann og grenser mellom dem, som i impressionistiske malerier.

forskerne innlemmet de tre organisasjonsprinsippene i en modell de kalte Den Kvadratiske Konvolusjonsmodellen, som kan brukes på andre sett med eksperimentelle data. Visuell behandling er sannsynligvis lik hvordan hjernen behandler lukter, berører eller lyder, sier forskerne, slik at arbeidet også kan belyse behandling av data fra disse områdene.

» Modeller jeg hadde jobbet med før dette ikke var helt kompatible med dataene, eller var ikke rent kompatible,» sier Rowekamp. «Så det var veldig tilfredsstillende da ideen om å kombinere kantgjenkjenning med følsomhet for tekstur begynte å lønne seg som et verktøy for å analysere og forstå komplekse visuelle data.»

men den mer umiddelbare applikasjonen kan være å forbedre objektgjenkjenningsalgoritmer for selvkjørende biler eller andre robotenheter. «Det ser ut til at hver gang vi legger til elementer av beregning som finnes i hjernen til datasynalgoritmer, forbedrer ytelsen deres,» sier Sharpee.

arbeidet ble finansiert Av National Science Foundation og National Eye Institute.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.