Jak mózg odnajduje ukryte reguły w zaszumionym świecie
Każdego dnia bez wysiłku dostrzegamy wzory: czerwone światło oznacza zatrzymanie, zatłoczona ulica wymaga zwolnienia, określona postawa zwiastuje, że zwierzę zaraz skoczy. Za tymi umiejętnościami stoi zdolność mózgu do wydobywania ukrytej, czyli „utajonej”, struktury świata i ponownego jej wykorzystania w wielu różnych zadaniach. W artykule postawiono pozornie proste pytanie: co sprawia, że jeden wzorzec aktywności populacji neuronów jest lepszy od innego, jeśli chodzi o szybkie i dokładne rozwiązywanie wielu powiązanych zadań?
Ukryte pokrętła stojące za kodami neuronalnymi Figure 1.
Autorzy badają aktywność mózgu na poziomie populacyjnym, traktując wyładowania wielu neuronów jako punkty w przestrzeni o wysokim wymiarze. Koncentrują się na zadaniach, które dzielą wspólny zestaw zmiennych utajonych — na przykład kształt, rozmiar i położenie obiektu albo pozycja i prędkość zwierzęcia. Neuron lub obwód „czytający” te wzorce używa prostej liniowej reguły, przypominającej narysowanie płaszczyzny przecinającej chmurę punktów, by oddzielić „kategorię A” od „kategorii B”. Zamiast symulować każdy neuron ze szczegółami, autorzy wyprowadzają analityczną formułę przewidującą, jak dobrze taki odczyt uogólni się na nowe przykłady, biorąc pod uwagę geometrię aktywności. Co zaskakujące, wydajność zależy tylko od czterech statystyk, które opisują, jak silnie neurony odzwierciedlają zmienne utajone, jak wyraźnie różne zmienne są rozdzielone, jak zorganizowany jest szum oraz ile efektywnych wymiarów zajmuje aktywność.
Cztery proste składniki dobrej generalizacji
Pierwszym składnikiem jest ogólna korelacja między poszczególnymi neuronami a zmiennymi utajonymi: gdy niewielkie zmiany w tych ukrytych zmiennych powodują wyraźne przesunięcia w odpowiedziach neuronów, odczyty mają więcej sygnału do wykorzystania. Drugi i trzeci składnik opisują „faktoryzację”: najlepiej, gdy różne zmienne utajone są kodowane wzdłuż niezależnych kierunków, a losowy szum dryfuje w kierunkach ortogonalnych do tych osi sygnału. Ułatwia to jednej liniowej granicy przenoszenie się między wieloma zadaniami, które wszystkie zależą od tej samej ukrytej struktury. Czwarty składnik to efektywna wymiarowość, która mierzy, ile kierunków w przestrzeni aktywności populacja rzeczywiście wykorzystuje. Wyższa wymiarowość zwykle rozprasza szum na więcej kierunków, poprawiając niezawodność, ale musi być zrównoważona z tym, jak wyraźnie sygnał jest powiązany z ważnymi dla zachowania zmiennymi.
Testowanie teorii w sztucznych i biologicznych mózgach Figure 2.
Aby sprawdzić swoją teorię, autorzy najpierw zastosowali ją do sztucznych sieci neuronowych. W perceptronach wielowarstwowych trenowanych na wielu powiązanych problemach klasyfikacji oraz w głębokiej sieci uczonej śledzenia części ciała myszy na wideo zmierzyli cztery wielkości geometryczne na każdej warstwie. Przewidywane błędy bardzo dobrze odpowiadały rzeczywistej wydajności prostych odczytów uczonych na tych wewnętrznych reprezentacjach. Następnie sięgnęli po dane z prawdziwych mózgów. Rejestracje z obszarów wzrokowych makaków pokazują, że w miarę przechodzenia sygnałów od oczu przez wyższy kora wzrokową geometria ewoluuje tak, że zmniejsza błąd uogólniania: korelacje ze zmiennymi utajonymi rosną, zmienność będąca zakłóceniem jest odsuwana od kierunków sygnału, a pewne formy wymiarowości są przekształcane. U szczurów uczących się zadania naprzemienności przestrzennej zarówno zachowanie, jak i wydajność odczytów poprawiają się w ciągu dni treningu, a geometria aktywności hipokampa i kory przedczołowej zmienia się w systematyczny sposób, który odzwierciedla przewidywania teorii.
Jak uczenie przepisuje przestrzeń neuronalną
Ponieważ ich formuła łączy geometrię bezpośrednio z wydajnością, autorzy mogą zapytać, jak powinien wyglądać „optymalny” kod neuronowy na różnych etapach uczenia. Na początku, gdy dostępnych jest tylko kilka przykładów treningowych, najlepsze kody są niskowymiarowe i silnie wyrównane z najbardziej informacyjnymi zmiennymi utajonymi, efektywnie kompresując mniej przydatne cechy. W miarę gromadzenia doświadczenia optymalne rozwiązanie się przesuwa: reprezentacja struktury istotnej dla zadania rozrasta się na więcej wymiarów, a silna korelacja między pojedynczymi neuronami a poszczególnymi zmiennymi ulega rozluźnieniu. Innymi słowy, mózg zdaje się zaczynać od skupionego, niskowymiarowego szkicu zadania i stopniowo wypełniać go bogatszą, bardziej rozproszoną mapą w miarę uczenia się.
Dlaczego to ma znaczenie dla rozumienia mózgów i maszyn
Dla czytelnika niebędącego specjalistą kluczowy przekaz jest taki: aktywność populacji neuronów to nie tylko plątanina impulsów — ma ona kształt, a ten kształt ma znaczenie. Identyfikując cztery mierzalne cechy geometryczne, które kontrolują, jak dobrze proste odczyty uogólniają się między powiązanymi zadaniami, praca ta proponuje wspólny język do porównywania biologicznych i sztucznych sieci neuronowych. Sugeruje, że w miarę jak zwierzęta i maszyny się uczą, reorganizują swoją wewnętrzną aktywność z kompaktowych, silnie wyrównanych kodów na kody o wyższej wymiarowości i lepszej faktoryzacji, które nadal chronią informacje istotne dla zadania przed szumem. Ten geometryczny punkt widzenia pomaga wyjaśnić, jak te same obwody mózgowe potrafią elastycznie ponownie wykorzystywać ukrytą strukturę w wielu sytuacjach, wspierając pozornie bezwysiłkową generalizację, która leży u podstaw codziennej inteligencji.
Cytowanie: Wakhloo, A.J., Slatton, W. & Chung, S. Neural population geometry and optimal coding of tasks with shared latent structure.
Nat Neurosci29, 682–692 (2026). https://doi.org/10.1038/s41593-025-02183-y
Słowa kluczowe: geometria populacji neuronów, kodowanie zmiennych utajonych, uczenie wielozadaniowe, rozplątane reprezentacje, generalizacja w sieciach neuronowych