8 giugno 2017
Come il cervello riconosce ciò che l’occhio vede
Nuovo Salk Institute di lavoro che delinea cervello visivo processo potrebbe migliorare il self-driving cars e punto di terapie per le disabilità sensoriali
8 giugno 2017
LA JOLLA—Se si pensa di auto-guida di auto non possono arrivare qui abbastanza presto, non siete soli. Ma programmare i computer per riconoscere gli oggetti è molto impegnativo dal punto di vista tecnico, soprattutto perché gli scienziati non capiscono appieno come lo fanno i nostri cervelli.
Ora, i ricercatori del Salk Institute hanno analizzato come i neuroni in una parte critica del cervello, chiamata V2, rispondono alle scene naturali, fornendo una migliore comprensione dell’elaborazione della visione. Il lavoro è descritto in Nature Communications l ‘ 8 giugno 2017.
“Capire come il cervello riconosce gli oggetti visivi è importante non solo per il bene della visione, ma anche perché fornisce una finestra su come funziona il cervello in generale”, afferma Tatyana Sharpee, professore associato nel laboratorio di neurobiologia computazionale di Salk e autore senior del documento. “Gran parte del nostro cervello è composto da un’unità computazionale ripetuta, chiamata colonna corticale. Nella visione, in particolare, possiamo controllare gli input al cervello con una precisione squisita, che consente di analizzare quantitativamente come i segnali vengono trasformati nel cervello.”
Anche se spesso diamo per scontata la capacità di vedere, questa capacità deriva da insiemi di complesse trasformazioni matematiche che non siamo ancora in grado di riprodurre in un computer, secondo Sharpee. In effetti, più di un terzo del nostro cervello è dedicato esclusivamente al compito di analizzare le scene visive.
La nostra percezione visiva inizia negli occhi con pixel chiari e scuri. Questi segnali vengono inviati alla parte posteriore del cervello in un’area chiamata V1 dove vengono trasformati per corrispondere ai bordi nelle scene visive. In qualche modo, come risultato di diverse trasformazioni successive di queste informazioni, possiamo quindi riconoscere volti, auto e altri oggetti e se si stanno muovendo. Come esattamente questo riconoscimento accade è ancora un mistero, in parte perché i neuroni che codificano gli oggetti rispondono in modi complicati.
Ora, Sharpee e Ryan Rowekamp, un associato di ricerca post-dottorato nel gruppo di Sharpee, hanno sviluppato un metodo statistico che prende queste risposte complesse e le descrive in modi interpretabili, che potrebbero essere utilizzati per aiutare a decodificare la visione per la visione simulata al computer. Per sviluppare il loro modello, il team ha utilizzato dati pubblicamente disponibili che mostrano le risposte cerebrali dei primati che guardano film di scene naturali (come i paesaggi forestali) dal database Collaborative Research in Computational Neuroscience (CRCNS).
“Abbiamo applicato la nostra nuova tecnica statistica per capire quali caratteristiche del film stavano causando ai neuroni V2 di cambiare le loro risposte”, afferma Rowekamp. “È interessante notare che abbiamo scoperto che i neuroni V2 rispondevano a combinazioni di bordi.”
Il team ha rivelato che i neuroni V2 elaborano le informazioni visive secondo tre principi: in primo luogo, combinano bordi che hanno orientamenti simili, aumentando la robustezza della percezione a piccoli cambiamenti nella posizione delle curve che formano i confini degli oggetti. In secondo luogo, se un neurone viene attivato da un bordo di un particolare orientamento e posizione, allora l’orientamento a 90 gradi da quello sarà soppressivo nella stessa posizione, una combinazione chiamata “soppressione dell’orientamento incrociato”.”Queste combinazioni di bordi trasversali sono assemblate in vari modi per consentirci di rilevare varie forme visive. Il team ha scoperto che l’orientamento incrociato era essenziale per il rilevamento accurato della forma. Il terzo principio è che i modelli rilevanti si ripetono nello spazio in modi che possono aiutare a percepire superfici strutturate di alberi o acqua e confini tra di loro, come nei dipinti impressionisti.
I ricercatori hanno incorporato i tre principi organizzativi in un modello che hanno chiamato il modello convoluzionale quadratico, che può essere applicato ad altri set di dati sperimentali. È probabile che l’elaborazione visiva sia simile a come il cervello elabora odori, tocchi o suoni, dicono i ricercatori, quindi il lavoro potrebbe chiarire anche l’elaborazione dei dati da queste aree.
“I modelli su cui avevo lavorato prima non erano del tutto compatibili con i dati o non erano perfettamente compatibili”, afferma Rowekamp. “Quindi è stato davvero soddisfacente quando l’idea di combinare il riconoscimento dei bordi con la sensibilità alla texture ha iniziato a dare i suoi frutti come strumento per analizzare e comprendere dati visivi complessi.”
Ma l’applicazione più immediata potrebbe essere quella di migliorare gli algoritmi di riconoscimento degli oggetti per auto a guida autonoma o altri dispositivi robotici. “Sembra che ogni volta che aggiungiamo elementi di calcolo che si trovano nel cervello agli algoritmi di visione artificiale, le loro prestazioni migliorano”, afferma Sharpee.
Il lavoro è stato finanziato dalla National Science Foundation e dal National Eye Institute.