Varje dag känner vi igen mönster utan ansträngning: ett rött ljus betyder stopp, en full gata innebär att sakta ner, en viss hållning kan betyda att ett husdjur är på väg att hoppa. Bakom dessa färdigheter ligger hjärnans förmåga att upptäcka dolda, eller ”latenta”, strukturer i världen och återanvända dem i många olika uppgifter. Denna artikel ställer en bedrägligt enkel fråga: vad gör ett visst mönster av populationsaktivitet i hjärnan bättre än ett annat för att snabbt och korrekt lösa många relaterade uppgifter?
De dolda vredena bakom neurala koder Figure 1.
Författarna studerar hjärnaktivitet på populationsnivå och behandlar fyrandet hos många neuroner som punkter i ett högdimensionellt rum. De fokuserar på uppgifter som delar en underliggande uppsättning latenta variabler — till exempel ett objekts form, storlek och position, eller ett djurs läge och hastighet. En efterföljande neuron eller krets läser ut dessa mönster med en enkel linjär regel, som att dra ett plan genom punktmolnet för att skilja ”kategori A” från ”kategori B”. Istället för att simulera varje neuron i detalj härleder författarna en analytisk formel som förutsäger hur väl en sådan avläsning generaliserar till nya exempel, givet geometrin hos den neurala aktiviteten. Anmärkningsvärt nog finner de att prestationen styrs av bara fyra statistiska mått som fångar hur starkt neuronerna reflekterar de latenta variablerna, hur tydligt olika variabler separeras, hur brus är organiserat och hur många effektiva dimensioner aktiviteten upptar.
Fyra enkla ingredienser för god generalisering
Den första ingrediensen är den övergripande korrelationen mellan enskilda neuroner och de latenta variablerna: när små förändringar i de dolda variablerna ger tydliga skift i neuronala responser har efterföljande avläsningar mer signal att arbeta med. Den andra och tredje ingrediensen beskriver ”faktorisering”: idealiskt sett kodas olika latenta variabler längs oberoende riktningar, och slumpmässigt brus driver i riktningar som är ortogonala mot dessa signalas. Det gör det lättare för en enda linjär gräns att överföras över många uppgifter som alla beror på samma dolda struktur. Den fjärde ingrediensen är effektiv dimension, som fångar hur många riktningar i aktivitetsrummet populationen faktiskt använder. Högre dimensionalitet tenderar att späda ut brus över fler riktningar och förbättra tillförlitligheten, men måste vägas mot hur tydligt signalen ligger i linje med beteendemässigt relevanta variabler.
Test av teorin i artificiella och biologiska hjärnor Figure 2.
För att pröva sin teori applicerar författarna den först på artificiella neurala nätverk. I flerskiktsperceptroner tränade på många relaterade klassificeringsproblem, och i ett djupt nätverk tränat för att spåra musekroppsdelar i video, mäter de de fyra geometriska kvantiteterna i varje lager. De förutsagda felen stämmer väl överens med den faktiska prestationen hos enkla avläsare tränade på dessa interna representationer. De vänder sig sedan till riktig hjärndata. Inspelningar från makakens visuella områden visar att när signalerna rör sig från ögonen genom högre visuell kortex utvecklas geometrin på ett sätt som minskar generaliseringsfelet: korrelationerna med latenta variabler ökar, störningsvariabilitet pressas bort från signalriktningarna och vissa former av dimensionalitet omformas. Hos råttor som lär sig en spatial alterneringsuppgift förbättras både beteende och avläsningsprestation över dagar av träning, samtidigt som geometrin i hippocampala och prefrontala aktivitet ändras i systematiska sätt som speglar teorins förutsägelser.
Hur inlärning skriver om det neurala rummet
Eftersom deras formel länkar geometri direkt till prestation kan författarna fråga hur en ”optimal” neural kod bör se ut i olika stadier av inlärning. I början, när bara några få träningsexempel finns tillgängliga, är de bästa koderna lågdimensionella och starkt inriktade mot de mest informativa latenta variablerna, vilket effektivt komprimerar bort mindre användbara egenskaper. När erfarenheten ackumuleras skiftar den optimala lösningen: representationen av uppgiftsrelevant struktur expanderar till fler dimensioner och den täta korrelationen mellan enskilda neuroner och individuella variabler slappnar faktiskt av. Med andra ord tycks hjärnan börja med en fokuserad, lågdimensionell skiss av uppgiften och successivt fylla i en rikare, mer distribuerad karta när den lär sig.
Varför detta spelar roll för förståelsen av hjärnor och maskiner
För en lekman är huvudbudskapet att populationsaktivitet i hjärnan inte bara är en röra av spikar; den har en form, och den formen är betydelsefull. Genom att identifiera fyra mätbara geometriska egenskaper som kontrollerar hur väl enkla avläsare kan generalisera över relaterade uppgifter erbjuder detta arbete ett gemensamt språk för att jämföra biologiska och artificiella neurala nätverk. Det tyder på att när djur och maskiner lär sig omorganiserar de sin interna aktivitet från kompakta, högt inriktade koder till högre-dimensionella, bättre faktoriserade sådana som ändå skyddar uppgiftsrelevant information från brus. Detta geometriska perspektiv bidrar till att förklara hur samma hjärnkretsar flexibelt kan återanvända dold struktur i många situationer och stödja den till synes ansträngningslösa generalisering som ligger till grund för vardaglig intelligens.
Citering: Wakhloo, A.J., Slatton, W. & Chung, S. Neural population geometry and optimal coding of tasks with shared latent structure.
Nat Neurosci29, 682–692 (2026). https://doi.org/10.1038/s41593-025-02183-y
Nyckelord: neural population geometry, latent variable coding, multitask learning, disentangled representations, generalization in neural networks