hur hjärnan känner igen vad ögat ser

8 juni 2017

hur hjärnan känner igen vad ögat ser

nytt Salk Institute-arbete som beskriver hjärnans visuella process kan förbättra självkörande bilar och peka på terapier för sensorisk försämring

8 juni 2017

LA JOLLA—om du tror att självkörande bilar inte kan komma hit snart nog är du inte ensam. Men att programmera datorer för att känna igen objekt är mycket tekniskt utmanande, särskilt eftersom forskare inte helt förstår hur våra egna hjärnor gör det.

nu har Salk Institute-forskare analyserat hur neuroner i en kritisk del av hjärnan, kallad V2, svarar på naturliga scener, vilket ger en bättre förståelse för synbehandling. Arbetet beskrivs i Nature Communications den 8 juni 2017.

”att förstå hur hjärnan känner igen visuella föremål är viktigt inte bara för synens skull utan också för att det ger ett fönster på hur hjärnan fungerar i allmänhet”, säger Tatyana Sharpee, docent i Salks Computational Neurobiology Laboratory och senior författare av papperet. ”Mycket av vår hjärna består av en upprepad beräkningsenhet, kallad en kortikal kolonn. I vision speciellt kan vi styra ingångar till hjärnan med utsökt precision, vilket gör det möjligt att kvantitativt analysera hur signaler omvandlas i hjärnan.”

även om vi ofta tar förmågan att se för givet, härrör denna förmåga från uppsättningar av komplexa matematiska omvandlingar som vi ännu inte kan reproducera i en dator, enligt Sharpee. Faktum är att mer än en tredjedel av vår hjärna uteslutande ägnas åt uppgiften att analysera visuella scener.

illustrationen till höger visar hur hjärnans V1-och V2-områden kan använda information om kanter och texturer för att representera föremål som nallebjörnen till vänster.

Klicka här för en högupplöst bild.

kredit: Salk Institute

vår visuella uppfattning börjar i ögat med ljusa och mörka pixlar. Dessa signaler skickas till baksidan av hjärnan till ett område som kallas V1 där de omvandlas för att motsvara kanterna i de visuella scenerna. På något sätt, som ett resultat av flera efterföljande omvandlingar av denna information, kan vi då känna igen ansikten, bilar och andra föremål och om de rör sig. Hur exakt detta erkännande händer är fortfarande ett mysterium, delvis för att neuroner som kodar objekt svarar på komplicerade sätt.

nu har Sharpee och Ryan Rowekamp, en postdoktoral forskningsassistent i Sharpees grupp, utvecklat en statistisk metod som tar dessa komplexa svar och beskriver dem på tolkningsbara sätt, som kan användas för att avkoda vision för datorsimulerad vision. För att utveckla sin modell använde teamet offentligt tillgängliga data som visar hjärnresponser från primater som tittar på filmer av naturliga scener (som skogslandskap) från databasen Collaborative Research in Computational Neuroscience (CRCNS).

”vi tillämpade vår nya statistiska teknik för att ta reda på vilka funktioner i filmen som orsakade V2-neuroner att ändra sina svar”, säger Rowekamp. ”Intressant nog fann vi att V2-neuroner svarade på kombinationer av kanter.”

från vänster: Tatyana Sharpee och Ryan Rowekamp

Klicka här för en högupplöst bild.

kredit: Salk Institute

teamet avslöjade att V2-neuroner bearbetar visuell information enligt tre principer: för det första kombinerar de kanter som har liknande orienteringar, vilket ökar robustheten i uppfattningen till små förändringar i positionen för kurvor som bildar objektgränser. För det andra, om en neuron aktiveras av en kant av en viss orientering och position, då orienteringen 90 grader från det kommer att vara undertryckande på samma plats, en kombination som kallas ”tvärorienteringsundertryckning.”Dessa tvärorienterade kantkombinationer monteras på olika sätt så att vi kan upptäcka olika visuella former. Teamet fann att korsorientering var avgörande för korrekt formdetektering. Den tredje principen är att relevanta mönster upprepas i rymden på sätt som kan hjälpa till att uppfatta texturerade ytor av träd eller vatten och gränser mellan dem, som i impressionistiska målningar.

forskarna införlivade de tre organisationsprinciperna i en modell som de namngav den kvadratiska Faltningsmodellen, som kan tillämpas på andra uppsättningar experimentella data. Visuell bearbetning kommer sannolikt att likna hur hjärnan bearbetar lukt, beröring eller ljud, säger forskarna, så arbetet kan också belysa behandling av data från dessa områden.

”modeller som jag hade arbetat med innan detta inte var helt kompatibla med data, eller var inte rent kompatibla”, säger Rowekamp. ”Så det var verkligen tillfredsställande när tanken på att kombinera kantigenkänning med känslighet för textur började löna sig som ett verktyg för att analysera och förstå komplexa visuella data.”

men den mer omedelbara applikationen kan vara att förbättra objektigenkänningsalgoritmer för självkörande bilar eller andra robotanordningar. ”Det verkar som att varje gång vi lägger till beräkningselement som finns i hjärnan till datorvisionsalgoritmer förbättras deras prestanda”, säger Sharpee.

arbetet finansierades av National Science Foundation och National Eye Institute.

Lämna ett svar

Din e-postadress kommer inte publiceras.