Clear Sky Science · it

Modellare l’attenzione e il binding nel cervello tramite gating ricorrente bidirezionale

· Torna all'indice

Come il cervello sa dove guardare

Ogni istante, i tuoi occhi bombardano il cervello con molte più informazioni di quante potresti mai notare consciamente. Eppure riesci senza sforzo a individuare un amico in mezzo alla folla, seguire un’auto in movimento o cercare le chiavi su un tavolo ingombro. Questa capacità di concentrarsi su ciò che conta, collegare le caratteristiche giuste e ignorare le distrazioni si chiama attenzione. L’articolo descritto qui presenta un nuovo modello computazionale ispirato al cervello che mira a spiegare come una così ampia varietà di abilità attentionali possa emergere da un singolo meccanismo di fondo.

Figure 1
Figure 1.

Un unico modello per molti tipi di messa a fuoco

L’attenzione non è una sola cosa. A volte ci concentriamo su un punto nello spazio, come un riflettore. Altre volte ci sintonizziamo su una caratteristica, come un colore specifico, e a volte ci fissiamo su oggetti interi, mantenendo insieme le loro parti anche quando si muovono o sono parzialmente nascosti. Gli autori sostengono che invece di sistemi separati e specializzati, tutte queste forme di attenzione potrebbero emergere da uno stesso schema di circuito nel percorso visivo del cervello. Costruiscono un modello che imita il flusso visivo ventrale, l’insieme di regioni cerebrali che trasforma i pixel grezzi sulla retina in oggetti riconoscibili. Nel loro progetto, un percorso sposta l’informazione verso l’alto, estraendo caratteristiche visive, mentre un altro percorso invia segnali verso il basso, decidendo quali caratteristiche dovrebbero essere rafforzate o indebolite.

Gate che comunicano in entrambe le direzioni

Al centro del modello c’è ciò che gli autori chiamano gating ricorrente bidirezionale. Immagina una pila di stadi di elaborazione visiva, dai semplici contorni alle forme complesse. In ciascuno stadio, il segnale che procede in avanti trasporta ciò che è presente nell’immagine, mentre un segnale in senso inverso e laterale veicola ciò che è rilevante per il compito corrente. Questi segnali si incontrano in “gate” che moltiplicativamente aumentano o diminuiscono l’attività delle caratteristiche su più istanti temporali. Poiché le connessioni sono ricorrenti, il modello può affinare la propria messa a fuoco nel tempo, proprio come fai tu quando intravedi per la prima volta una scena disordinata e poi gradualmente individui un bersaglio. Questa architettura viene addestrata con tecniche standard di machine learning su due obiettivi di base—classificare cosa è presente e segmentare dove si trova—eppure non viene esplicitamente istruita su come implementare l’attenzione.

Imparare a cercare, seguire e ignorare le distrazioni

Una volta addestrato, il modello viene testato su una batteria di compiti classici di attenzione normalmente somministrati a esseri umani e animali. Utilizzando immagini composte da cifre scritte a mano e da fotografie naturali di animali, impara a riconoscere oggetti nel disordine, raggruppare elementi indicati da un segnale, seguire oggetti in movimento e svolgere ricerche visive basate su suggerimenti visivi o su indizi simbolici come frecce. Può evidenziare un singolo elemento anomalo in una griglia, spostare l’attenzione da un oggetto all’altro senza rimanere “bloccato” sullo stesso e tracciare un bersaglio nel tempo ignorando i distrattori. Notevolmente, molti di questi comportamenti compaiono anche quando il modello riceve solo feedback sulla risposta finale, non su dove avrebbe dovuto guardare, suggerendo che strategie attentive possano emergere come effetto collaterale dell’apprendimento a risolvere compiti rilevanti.

Rispecchiare la percezione umana e i segnali cerebrali

Gli autori si chiedono poi se il modello si comporti come gli umani anche in modi più sottili. In test controllati usando semplici patch a pattern, il modello mostra una sensibilità migliorata quando un suggerimento indica la posizione corretta, e la sua performance diminuisce quando sono presenti molti distrattori—parallelo ai risultati umani sulla sensibilità al contrasto e sul carico percettivo. “Cade” anche in una classica illusione percettiva in cui un occludente visibile rende più facile riconoscere una forma frammentata, suggerendo che rappresenti figura e sfondo in modo simile al cervello. Guardando dentro la rete, le unità negli strati più profondi mostrano aumenti di risposta quando il loro oggetto preferito è attenzionato, senza cambiare la loro sintonizzazione di base, analogamente ai neuroni nella corteccia visiva dei primati. Gruppi distinti di unità si comportano come rivelatori di caratteristiche e come cellule di “proprietà del bordo” che aiutano a decidere quale lato di un bordo appartiene alla figura e quale allo sfondo.

Figure 2
Figure 2.

Perché questo è importante per cervelli e macchine

Il lavoro suggerisce che molte caratteristiche distintive dell’attenzione biologica—orientarsi verso segnali, filtrare il disordine irrilevante, cercare bersagli, unire caratteristiche in oggetti coerenti e persino alcuni fallimenti della consapevolezza—possono tutte emergere da un unico principio architetturale: il gating ricorrente tra un percorso delle caratteristiche e un percorso dell’attenzione. In termini semplici, il modello mostra come un sistema che ripesa ripetutamente ciò che vede, in base agli obiettivi e al contesto correnti, possa imparare a “prestare attenzione” senza essere esplicitamente programmato per farlo. Questo offre ai neuroscienziati un quadro concreto e verificabile per comprendere attenzione e binding nel cervello, e fornisce ai ricercatori di intelligenza artificiale un’alternativa ispirata biologicamente ai progetti odierni in gran parte feedforward.

Citazione: Salehi, S., Lei, J., Benjamin, A.S. et al. Modeling attention and binding in the brain through bidirectional recurrent gating. Nat Commun 17, 4072 (2026). https://doi.org/10.1038/s41467-026-72146-9

Parole chiave: attenzione visiva, binding delle caratteristiche, reti neurali ricorrenti, neuroscienze computazionali, IA ispirata al cervello