Clear Sky Science · fr

Géométrie des populations neuronales et codage optimal des tâches avec structure latente partagée

· Retour à l’index

Comment le cerveau découvre des règles cachées dans un monde bruyant

Chaque jour, nous repérons sans effort des motifs : un feu rouge signifie « arrêt », une rue animée incite à ralentir, une certaine posture annonce qu’un animal est sur le point de bondir. Derrière ces compétences se trouve la capacité du cerveau à extraire une structure cachée, ou « latente », dans le monde et à la réutiliser pour de nombreuses tâches. Cet article pose une question apparemment simple : qu’est‑ce qui rend un motif d’activité de population neuronal meilleur qu’un autre pour résoudre rapidement et précisément de nombreuses tâches apparentées ?

Les réglages cachés du code neuronal
Figure 1
Figure 1.

Les auteurs étudient l’activité cérébrale au niveau de la population, en considérant le déclenchement de nombreux neurones comme des points dans un espace de haute dimension. Ils se concentrent sur des tâches qui partagent un ensemble sous‑jacent de variables latentes — par exemple la forme, la taille et la position d’un objet, ou la position et la vitesse d’un animal. Un neurone ou circuit aval lit ces motifs avec une règle linéaire simple, comparable à tracer un plan à travers le nuage de points pour séparer la « catégorie A » de la « catégorie B ». Plutôt que de simuler chaque neurone en détail, les auteurs dérivent une formule analytique qui prédit dans quelle mesure un tel décodage généralisera à de nouveaux exemples, en fonction de la géométrie de l’activité neuronale. De façon remarquable, ils montrent que la performance est régie par seulement quatre statistiques qui capturent à quel point les neurones reflètent les variables latentes, la netteté de la séparation entre variables, l’organisation du bruit et le nombre de dimensions effectives occupées par l’activité.

Quatre ingrédients simples d’une bonne généralisation

Le premier ingrédient est la corrélation globale entre neurones individuels et variables latentes : lorsque de petites variations des variables cachées provoquent des déplacements clairs dans les réponses neuronales, les décodages en aval disposent de plus de signal exploitable. Les deuxième et troisième ingrédients décrivent la « factorisation » : idéalement, différentes variables latentes sont codées selon des directions indépendantes, et le bruit aléatoire dérive dans des directions orthogonales à ces axes de signal. Cela facilite la transférabilité d’un unique seuil linéaire à de nombreuses tâches qui dépendent de la même structure cachée. Le quatrième ingrédient est la dimensionalité effective, qui rend compte du nombre de directions réellement utilisées par la population dans l’espace d’activité. Une plus grande dimensionalité tend à diluer le bruit sur davantage de directions, améliorant la fiabilité, mais elle doit être mise en balance avec la clarté de l’alignement du signal sur les variables pertinentes pour le comportement.

Tester la théorie dans des cerveaux artificiels et biologiques
Figure 2
Figure 2.

Pour vérifier leur théorie, les auteurs l’appliquent d’abord à des réseaux neuronaux artificiels. Dans des perceptrons multicouches entraînés sur de nombreux problèmes de classification apparentés, et dans un réseau profond entraîné à suivre des parties du corps de souris dans des vidéos, ils mesurent les quatre quantités géométriques à chaque couche. Les erreurs prédites correspondent étroitement aux performances réelles de décodages simples entraînés sur ces représentations internes. Ils se tournent ensuite vers des données cérébrales réelles. Des enregistrements dans des aires visuelles de macaques montrent que, lorsque les signaux passent des yeux vers des régions visuelles supérieures, la géométrie évolue de manière à réduire l’erreur de généralisation : les corrélations avec les variables latentes augmentent, la variabilité parasite est repoussée hors des directions de signal et certaines formes de dimensionalité sont remodelées. Chez des rats apprenant une tâche d’alternance spatiale, le comportement et la performance des décodages s’améliorent au fil des jours d’entraînement, tandis que la géométrie de l’activité hippocampique et préfrontale change de façon systématique, reflétant les prédictions de la théorie.

Comment l’apprentissage réécrit l’espace neuronal

Parce que leur formule relie directement la géométrie à la performance, les auteurs peuvent demander à quoi devrait ressembler un code neuronal « optimal » à différents stades de l’apprentissage. Au début, lorsque seuls quelques exemples d’entraînement sont disponibles, les meilleurs codes sont de faible dimension et fortement alignés sur les variables latentes les plus informatives, comprimant effectivement les caractéristiques moins utiles. À mesure que l’expérience s’accumule, la solution optimale change : la représentation de la structure pertinente pour la tâche s’étend à davantage de dimensions, et la forte corrélation entre neurones individuels et variables isolées se relâche en réalité. Autrement dit, le cerveau semble commencer par un croquis focalisé et de faible dimension de la tâche, puis enrichit progressivement une carte plus distribuée au fil de l’apprentissage.

Pourquoi cela compte pour comprendre les cerveaux et les machines

Pour un lecteur non spécialiste, le message clé est que l’activité de population neuronale n’est pas un simple enchevêtrement de décharges ; elle a une forme, et cette forme importe. En identifiant quatre caractéristiques géométriques mesurables qui contrôlent la capacité des décodages simples à généraliser entre tâches apparentées, ce travail propose un langage commun pour comparer réseaux neuronaux biologiques et artificiels. Il suggère que, à mesure que les animaux et les machines apprennent, ils réorganisent leur activité interne depuis des codes compacts et fortement alignés vers des représentations de plus grande dimension, mieux factorisées, tout en protégeant l’information pertinente pour la tâche contre le bruit. Cette vision géométrique aide à expliquer comment les mêmes circuits cérébraux peuvent réutiliser de façon flexible une structure cachée dans de nombreuses situations, soutenant la généralisation apparemment sans effort qui sous‑tend l’intelligence quotidienne.

Citation: Wakhloo, A.J., Slatton, W. & Chung, S. Neural population geometry and optimal coding of tasks with shared latent structure. Nat Neurosci 29, 682–692 (2026). https://doi.org/10.1038/s41593-025-02183-y

Mots-clés: géométrie des populations neuronales, codage par variables latentes, apprentissage multitâche, représentations désentrelacées, généralisation dans les réseaux neuronaux