Clear Sky Science · ja

共有された潜在構造を持つ課題の最適符号化と神経母集団の幾何学

· 一覧に戻る

雑音の多い世界で脳はどうやって隠れた規則を見つけるのか

私たちは毎日、赤信号は止まる、混雑した通りは減速、ある姿勢はペットが跳びかかろうとしていることを意味するといったパターンをいとも簡単に見抜いています。こうした能力の背後には、世界の隠れた(「潜在的な」)構造を発見し、それを多様な課題に再利用する脳の力があります。本稿は一見単純に思える問いを投げかけます:多くの関連課題を素早く正確に解くうえで、ある母集団の神経活動パターンが別のパターンより優れているのはなぜか?

神経符号の背後にある隠れたつまみ
Figure 1
Figure 1.

著者らは多数のニューロンの発火を高次元空間内の点として扱い、母集団レベルでの脳活動を検討します。対象とするのは、ある基底となる潜在変数の集合を共有する課題です。たとえば物体の形状・サイズ・位置や動物の位置・速度などです。下流のニューロンや回路は、これらのパターンを単純な線形規則で読み出します。これは点の雲に平面を引いて「カテゴリA」と「カテゴリB」を分けるような操作に相当します。すべてのニューロンを細かくシミュレーションする代わりに、著者らは神経活動の幾何学からそのような読み出しが新しい例へどれだけ一般化するかを予測する解析式を導き出します。驚くべきことに、性能は潜在変数をニューロンがどれだけ強く反映するか、異なる変数がどれだけ明瞭に分離されるか、雑音がどのように配列されるか、活動が占める実効次元数という4つの統計量だけで支配されることがわかります。

良好な一般化のための4つの単純な要素

第一の要素は個々のニューロンと潜在変数間の全体的な相関です:潜在変数のわずかな変化が神経応答に明確な変化をもたらすと、下流の読み出しはより大きな信号を利用できます。第二と第三の要素は「因子分解(ファクタライゼーション)」を示します:理想的には異なる潜在変数は独立した方向に沿って符号化され、ランダムな雑音はこれらの信号軸に対して直交する方向に偏るべきです。これにより、同じ隠れた構造に依存する多くの課題に対して単一の線形境界が転移しやすくなります。第四の要素は実効次元性で、母集団が実際に使用する活動空間の方向数を表します。次元性が高いほど雑音はより多くの方向に分散され信頼性が向上する傾向がありますが、信号が行動上重要な変数とどれだけ明確に整合するかとのバランスが必要です。

人工脳と生物脳で理論を検証する
Figure 2
Figure 2.

理論を検証するために、著者らはまず人工ニューラルネットワークに適用します。多数の関連分類問題で訓練された多層パーセプトロンや、ビデオ中のマウスの体部位を追跡する深層ネットワークにおいて、各層で4つの幾何学的量を測定します。予測誤差は、それらの内部表現上で訓練された単純な読み出し器の実際の性能とよく一致しました。次に実際の脳データへと移ります。マカクの視覚野からの記録では、入力から高次視覚野へ信号が進むにつれて幾何学が進化し、一般化誤差が減少することが示されます:潜在変数との相関が増し、雑音性の変動が信号方向から押し出され、特定の形の次元性が再構成されます。空間交互課題を学習するラットでは、行動と読み出し性能の両方が訓練日数とともに改善し、海馬と前頭前野の活動の幾何学も理論の予測を反映する体系的な変化を示しました。

学習が神経空間を書き換える仕組み

彼らの式は幾何学を直接性能に結びつけるため、著者らは学習の異なる段階で「最適な」神経符号がどのように見えるべきかを問うことができます。訓練例が少ない初期段階では、最良の符号は低次元で最も情報量の多い潜在変数に強く整合しており、あまり有用でない特徴を効果的に圧縮して切り捨てます。経験が蓄積するにつれ、最適解は移行します:課題に関連する構造の表現はより多くの次元へと拡張し、個々のニューロンと単一変数との強い相関はむしろ緩んでいきます。言い換えれば、脳はまず焦点を絞った低次元のスケッチでタスクを始め、学ぶにつれてより豊かで分散した地図を徐々に埋めていくように見えます。

脳と機械を理解するうえでの意義

一般読者への核心的なメッセージは、母集団レベルの脳活動は単なるスパイクの絡まりではなく、形(形状)を持ち、その形が重要だということです。単純な読み出しが関連する課題群にわたってどれだけ一般化できるかを制御する4つの計測可能な幾何学的特徴を特定することで、本研究は生物学的および人工的ニューラルネットワークを比較するための共通言語を提供します。動物や機械が学習するにつれて、内部活動をコンパクトで高度に整列した符号から高次元でより良く因子分解された符号へと再編成しつつ、雑音から課題関連情報を守ることを示唆しています。この幾何学的視点は、同じ脳回路が多くの状況で隠れた構造を柔軟に再利用し、日常の知性の基礎にある一見容易な一般化を支えている理由を説明するのに役立ちます。

引用: Wakhloo, A.J., Slatton, W. & Chung, S. Neural population geometry and optimal coding of tasks with shared latent structure. Nat Neurosci 29, 682–692 (2026). https://doi.org/10.1038/s41593-025-02183-y

キーワード: 神経母集団の幾何学, 潜在変数符号化, マルチタスク学習, 分離された表現, ニューラルネットワークの一般化