Beyin Gürültülü Bir Dünyada Gizli Kuralları Nasıl Bulur
Her gün, kırmızı bir ışığın durmayı, kalabalık bir sokağın yavaşlamayı, belirli bir duruşun bir evcil hayvanın atlayacağına işaret ettiğini kolaylıkla fark ederiz. Bu becerilerin arkasında beynin dünyadaki gizli veya “gizil” yapıları ortaya çıkarma ve bunları farklı görevlerde yeniden kullanma yeteneği yatar. Bu makale görünürde basit bir soruyu sorar: birçok ilişkili görevi hızlı ve doğru çözerken bir popülasyon beyin aktivitesi düzeni başka bir düzene göre neden daha iyidir?
Sinirsel Kodların Arkasındaki Gizli Ayarlar Figure 1.
Yazarlar, birçok nöronun ateşlenmesini yüksek boyutlu bir uzaydaki noktalar olarak ele alarak beyin aktivitesini popülasyon düzeyinde inceliyor. Şekil, boyut ve konum gibi bir nesnenin özellikleri ya da bir hayvanın yeri ve hızı gibi ortak bir gizil değişken kümesini paylaşan görevler üzerine odaklanıyorlar. Aşağı akıştaki bir nöron ya da devre, bu desenleri basit doğrusal bir kural ile okur; tıpkı nokta bulutundan “kategori A” ile “kategori B”yi ayıran bir düzlem çizmek gibi. Her bir nöronu ayrıntılı simüle etmek yerine, yazarlar sinirsel aktivitenin geometrisi verildiğinde böyle bir okumanın yeni örneklere ne kadar iyi genelleyeceğini tahmin eden analitik bir formül türetiyor. Dikkat çekici biçimde, performansın yalnızca gizil değişkenleri nöronların ne kadar güçlü yansıttığını, farklı değişkenlerin ne kadar net ayrıldığını, gürültünün nasıl düzenlendiğini ve aktivitenin kaç etkili boyut kapladığını yakalayan dört istatistikle belirlendiğini buluyorlar.
İyi Bir Genellemenin Dört Basit Öğesi
Birinci öğe, bireysel nöronlar ile gizil değişkenler arasındaki genel korelasyondur: gizli değişkenlerdeki küçük değişiklikler nöronal yanıtlarda belirgin kaymalara neden olduğunda, aşağı akış okumalarının üzerinde çalışacak daha fazla sinyali olur. İkinci ve üçüncü öğeler “faktorizasyon”u tanımlar: ideal olarak farklı gizil değişkenler bağımsız yönler boyunca kodlanır ve rastgele gürültü bu sinyal eksenlerine dik yönlerde seyreder. Bu, aynı gizli yapıya dayanan birçok göreve tek bir doğrusal sınırın aktarılmasını kolaylaştırır. Dördüncü öğe, popülasyonun gerçekten kullandığı etkin kaç yön olduğunu yakalayan etkin boyutsallıktır. Daha yüksek boyutsallık gürültüyü daha fazla yöne seyreltme eğiliminde olup güvenilirliği artırır, ancak sinyalin davranışsal olarak ilgili değişkenlerle ne kadar net hizalandığı ile dengelenmelidir.
Yapay ve Biyolojik Beyinlerde Teoriyi Test Etmek Figure 2.
Teorilerini sınamak için yazarlar önce bunu yapay sinir ağlarına uyguluyor. Çok katmanlı algılayıcılarda birçok ilişkili sınıflandırma problemi üzerinde eğitilmiş ve video içindeki fare vücut parçalarını izlemek üzere eğitilmiş derin bir ağda, her katmanda dört geometrik niceliği ölçüyorlar. Öngörülen hatalar, bu iç temsiller üzerinde eğitilmiş basit okuyucuların gerçek performanslarıyla yakından uyuşuyor. Ardından gerçek beyin verilerine dönüyorlar. Makak görsel alanlarından yapılan kayıtlar, sinyaller gözlerden daha üst görsel kortekse ilerledikçe geometrinin genelleme hatasını azaltacak şekilde evrildiğini gösteriyor: gizil değişkenlerle korelasyonlar artıyor, ilgisiz değişkenlerin değişkenliği sinyal yönlerinden uzaklaştırılıyor ve belirli boyutsallık biçimleri yeniden şekilleniyor. Uzamsal dönüşümlü bir görevi öğrenen sıçanlarda hem davranış hem de okuma performansı günler içinde iyileşirken, hipokampal ve prefrontal aktivitenin geometrisi teorinin öngörüleriyle paralel sistematik değişiklikler gösteriyor.
Öğrenme Sinirsel Uzayı Nasıl Yeniden Yazar
Formülleri geometriyi doğrudan performansa bağladığı için yazarlar öğrenmenin farklı aşamalarında “optimal” bir sinir kodunun nasıl görünmesi gerektiğini sorabiliyorlar. Erken aşamada, yalnızca birkaç eğitim örneği mevcutken, en iyi kodlar düşük boyutlu ve en bilgilendirici gizil değişkenlerle güçlü şekilde hizalanmış olur; bu da daha az yararlı özellikleri etkili biçimde sıkıştırıp dışarıda bırakır. Deneyim arttıkça optimal çözüm kayar: görevle ilgili yapının temsili daha fazla boyuta genişler ve tekil nöronlarla bireysel değişkenler arasındaki sıkı korelasyon aslında gevşer. Başka bir deyişle, beyin göreve odaklanmış, düşük boyutlu bir taslakla başlıyor ve öğrenme ilerledikçe daha zengin, daha dağıtık bir harita dolduruyor gibi görünür.
Bu Neden Beyinleri ve Makineleri Anlamak İçin Önemli
Bir genel okuyucuya asıl mesaj şudur: popülasyon beyin aktivitesi yalnızca bir tiz patikası yumağı değildir; bir şekli vardır ve bu şekil önem taşır. Basit okuyucuların ilişkili görevler arasında ne kadar iyi genelleyeceğini kontrol eden dört ölçülebilir geometrik özelliği tanımlayarak, bu çalışma biyolojik ve yapay sinir ağlarını karşılaştırmak için ortak bir dil sunuyor. Hayvanlar ve makineler öğrenirken içsel aktivitelerini sıkı, yüksek hizalanmış kodlardan görevle ilgili bilgiyi gürültüden korumaya devam eden daha yüksek boyutlu, daha iyi faktorizasyonlu kodlara nasıl yeniden düzenlediklerini öne sürüyor. Bu geometrik bakış, aynı beyin devrelerinin birçok durumda gizli yapıyı esnek biçimde yeniden kullanabilmesini ve günlük zekânın temelini oluşturan zahmetsiz görünümlü genellemenin nasıl mümkün olduğunu açıklamaya yardımcı oluyor.
Atıf: Wakhloo, A.J., Slatton, W. & Chung, S. Neural population geometry and optimal coding of tasks with shared latent structure.
Nat Neurosci29, 682–692 (2026). https://doi.org/10.1038/s41593-025-02183-y
Anahtar kelimeler: sinirsel popülasyon geometrisi, gizil değişken kodlaması, çoklu görev öğrenimi, ayrıştırılmış temsil, sinir ağlarında genelleme