8 juni 2017
hur hjärnan känner igen vad ögat ser
nytt Salk Institute-arbete som beskriver hjärnans visuella process kan förbättra självkörande bilar och peka på terapier för sensorisk försämring
8 juni 2017
LA JOLLA—om du tror att självkörande bilar inte kan komma hit snart nog är du inte ensam. Men att programmera datorer för att känna igen objekt är mycket tekniskt utmanande, särskilt eftersom forskare inte helt förstår hur våra egna hjärnor gör det.
nu har Salk Institute-forskare analyserat hur neuroner i en kritisk del av hjärnan, kallad V2, svarar på naturliga scener, vilket ger en bättre förståelse för synbehandling. Arbetet beskrivs i Nature Communications den 8 juni 2017.
”att förstå hur hjärnan känner igen visuella föremål är viktigt inte bara för synens skull utan också för att det ger ett fönster på hur hjärnan fungerar i allmänhet”, säger Tatyana Sharpee, docent i Salks Computational Neurobiology Laboratory och senior författare av papperet. ”Mycket av vår hjärna består av en upprepad beräkningsenhet, kallad en kortikal kolonn. I vision speciellt kan vi styra ingångar till hjärnan med utsökt precision, vilket gör det möjligt att kvantitativt analysera hur signaler omvandlas i hjärnan.”
även om vi ofta tar förmågan att se för givet, härrör denna förmåga från uppsättningar av komplexa matematiska omvandlingar som vi ännu inte kan reproducera i en dator, enligt Sharpee. Faktum är att mer än en tredjedel av vår hjärna uteslutande ägnas åt uppgiften att analysera visuella scener.
vår visuella uppfattning börjar i ögat med ljusa och mörka pixlar. Dessa signaler skickas till baksidan av hjärnan till ett område som kallas V1 där de omvandlas för att motsvara kanterna i de visuella scenerna. På något sätt, som ett resultat av flera efterföljande omvandlingar av denna information, kan vi då känna igen ansikten, bilar och andra föremål och om de rör sig. Hur exakt detta erkännande händer är fortfarande ett mysterium, delvis för att neuroner som kodar objekt svarar på komplicerade sätt.
nu har Sharpee och Ryan Rowekamp, en postdoktoral forskningsassistent i Sharpees grupp, utvecklat en statistisk metod som tar dessa komplexa svar och beskriver dem på tolkningsbara sätt, som kan användas för att avkoda vision för datorsimulerad vision. För att utveckla sin modell använde teamet offentligt tillgängliga data som visar hjärnresponser från primater som tittar på filmer av naturliga scener (som skogslandskap) från databasen Collaborative Research in Computational Neuroscience (CRCNS).
”vi tillämpade vår nya statistiska teknik för att ta reda på vilka funktioner i filmen som orsakade V2-neuroner att ändra sina svar”, säger Rowekamp. ”Intressant nog fann vi att V2-neuroner svarade på kombinationer av kanter.”
teamet avslöjade att V2-neuroner bearbetar visuell information enligt tre principer: för det första kombinerar de kanter som har liknande orienteringar, vilket ökar robustheten i uppfattningen till små förändringar i positionen för kurvor som bildar objektgränser. För det andra, om en neuron aktiveras av en kant av en viss orientering och position, då orienteringen 90 grader från det kommer att vara undertryckande på samma plats, en kombination som kallas ”tvärorienteringsundertryckning.”Dessa tvärorienterade kantkombinationer monteras på olika sätt så att vi kan upptäcka olika visuella former. Teamet fann att korsorientering var avgörande för korrekt formdetektering. Den tredje principen är att relevanta mönster upprepas i rymden på sätt som kan hjälpa till att uppfatta texturerade ytor av träd eller vatten och gränser mellan dem, som i impressionistiska målningar.
forskarna införlivade de tre organisationsprinciperna i en modell som de namngav den kvadratiska Faltningsmodellen, som kan tillämpas på andra uppsättningar experimentella data. Visuell bearbetning kommer sannolikt att likna hur hjärnan bearbetar lukt, beröring eller ljud, säger forskarna, så arbetet kan också belysa behandling av data från dessa områden.
”modeller som jag hade arbetat med innan detta inte var helt kompatibla med data, eller var inte rent kompatibla”, säger Rowekamp. ”Så det var verkligen tillfredsställande när tanken på att kombinera kantigenkänning med känslighet för textur började löna sig som ett verktyg för att analysera och förstå komplexa visuella data.”
men den mer omedelbara applikationen kan vara att förbättra objektigenkänningsalgoritmer för självkörande bilar eller andra robotanordningar. ”Det verkar som att varje gång vi lägger till beräkningselement som finns i hjärnan till datorvisionsalgoritmer förbättras deras prestanda”, säger Sharpee.
arbetet finansierades av National Science Foundation och National Eye Institute.