June 8, 2017
hogyan ismeri fel az agy, amit a szem lát
New Salk Institute work felvázolja az agy vizuális folyamat javíthatja az önvezető autók és pont terápiák érzékszervi károsodás
June 8, 2017
LA JOLLA-ha úgy gondolja, hogy az önvezető autók nem tudnak elég hamar ideérni, nem vagy egyedül. De a számítógépek programozása az objektumok felismerésére technikailag nagyon nehéz, különösen azért, mert a tudósok nem értik teljesen, hogy a saját agyunk hogyan csinálja.
most a Salk Intézet kutatói elemezték, hogy az agy kritikus részében, a V2-nek nevezett neuronok hogyan reagálnak a természetes jelenetekre, így jobban megértik a látásfeldolgozást. A munka leírása Nature Communications június 8, 2017.
“annak megértése, hogy az agy hogyan ismeri fel a vizuális tárgyakat, nemcsak a látás érdekében fontos, hanem azért is, mert ablakot nyújt az agy általános működéséről” – mondja Tatyana Sharpee, Salk számítógépes Neurobiológiai Laboratóriumának docense és a cikk vezető szerzője. “Agyunk nagy része egy ismétlődő számítási egységből áll, amelyet kortikális oszlopnak neveznek. A látásban különösen az agyba történő bemeneteket finom pontossággal tudjuk szabályozni, ami lehetővé teszi kvantitatív elemzést arról, hogy a jelek hogyan alakulnak át az agyban.”
bár gyakran magától értetődőnek vesszük a látás képességét, ez a képesség olyan összetett matematikai transzformációk halmazából származik, amelyeket Sharpee szerint még nem tudunk reprodukálni egy számítógépen. Valójában agyunk több mint egyharmada kizárólag a vizuális jelenetek elemzésének feladata.
vizuális érzékelésünk a szemben kezdődik, világos és sötét pixelekkel. Ezeket a jeleket az agy hátsó részébe küldik a V1 nevű területre, ahol átalakulnak, hogy megfeleljenek a vizuális jelenetek éleinek. Valahogy, ennek az információnak a több későbbi átalakulása eredményeként felismerhetjük az arcokat, az autókat és más tárgyakat, és hogy mozognak-e. Hogy ez a felismerés pontosan hogyan történik, még mindig rejtély, részben azért, mert az objektumokat kódoló neuronok bonyolult módon reagálnak.
most Sharpee és Ryan Rowekamp, a Sharpee csoport posztdoktori kutatója kifejlesztett egy statisztikai módszert, amely ezeket az összetett válaszokat értelmezhető módon írja le, amely felhasználható a számítógépes szimulált látás dekódolására. Modelljük kidolgozásához a csapat nyilvánosan elérhető adatokat használt fel, amelyek a természetes jelenetek (például erdei tájak) filmjeit néző főemlősök agyi válaszait mutatják be a Collaborative Research in Computational Neuroscience (CRCNS) adatbázisból.
“új statisztikai technikánkat alkalmaztuk annak érdekében, hogy kitaláljuk, a film mely jellemzői okozzák a V2 neuronok válaszának megváltoztatását” – mondja Rowekamp. “Érdekes módon azt találtuk, hogy a V2 neuronok reagálnak az élek kombinációira.”
a csapat kiderítette, hogy a V2 neuronok három alapelv szerint dolgozzák fel a vizuális információkat: első, kombinálják a hasonló orientációjú éleket, növelve az észlelés robusztusságát az objektumhatárokat képező görbék helyzetének kis változásaihoz. Másodszor, ha egy idegsejtet egy adott orientáció és pozíció éle aktivál, akkor a 90 fokos orientáció ugyanazon a helyen elnyomó lesz, ezt a kombinációt “keresztorientáció elnyomásnak” nevezik.”Ezek a keresztorientált élkombinációk különféle módon vannak összeállítva, hogy lehetővé tegyék számunkra a különféle vizuális formák észlelését. A csapat megállapította, hogy a keresztorientáció elengedhetetlen a pontos alakérzékeléshez. A harmadik alapelv az, hogy a releváns minták megismétlődnek a térben oly módon, hogy segítsenek érzékelni a fák vagy a víz texturált felületeit és a köztük lévő határokat, mint az impresszionista festményeknél.
a kutatók beépítették a három szervezési alapelvet egy olyan modellbe, amelyet másodfokú konvolúciós modellnek neveztek el, amely más kísérleti adatkészletekre is alkalmazható. A vizuális feldolgozás valószínűleg hasonló ahhoz, ahogyan az agy feldolgozza a szagokat, az érintést vagy a hangokat, mondják a kutatók, így a munka tisztázhatja az adatok feldolgozását ezekről a területekről is.
” azok a modellek, amelyeken korábban dolgoztam, nem voltak teljesen kompatibilisek az adatokkal, vagy nem voltak tisztán kompatibilisek ” – mondja Rowekamp. “Tehát igazán kielégítő volt, amikor az élfelismerés és a textúra iránti érzékenység ötvözésének ötlete kezdett kifizetődni, mint eszköz a komplex vizuális adatok elemzésére és megértésére.”
de az azonnali alkalmazás lehet az önvezető autók vagy más roboteszközök objektum-felismerési algoritmusainak fejlesztése. “Úgy tűnik, hogy minden alkalommal, amikor az agyban található számítási elemeket hozzáadunk a számítógépes látás algoritmusokhoz, teljesítményük javul”-mondja Sharpee.
a munkát a National Science Foundation és a National Eye Institute finanszírozta.