Clear Sky Science · it
Una toolbox open source basata sul deep learning per analisi automatizzate della risposta uditiva del tronco encefalico (ABRA)
Perché test dell’udito migliori sono importanti
Con l’aumento della durata della vita, la perdita dell’udito sta diventando uno dei problemi di salute più diffusi a livello mondiale. Non si limita a rendere le conversazioni più difficili; oggi è collegata anche a problemi di memoria e alla demenza in età avanzata. Per capire e curare la perdita uditiva, gli scienziati fanno affidamento su un particolare tipo di registrazione elettrica dall’orecchio e dal tronco encefalico chiamata risposta uditiva del tronco encefalico, o ABR. Queste registrazioni sono potenti ma tradizionalmente richiedono agli esperti di ispezionare a occhio tracciati irregolari, un processo lento e soggettivo. Questo articolo presenta ABRA, una toolbox software gratuita e automatizzata che usa tecniche moderne di intelligenza artificiale per leggere questi segnali in modo rapido e coerente.

Dal click nell’orecchio alle onde sullo schermo
Quando un suono breve viene emesso nell’orecchio, piccole cellule sensoriali nell’orecchio interno e le fibre nervose collegate si attivano in un rapido impulso. Questa attività risale lungo il tronco encefalico e può essere rilevata da elettrodi posti sulla testa. Il risultato è un tracciato ABR: una serie di piccole onde che appaiono nei primi millesimi di secondo dopo il suono. Nei topi, la prima grande onda riflette l’attività del nervo uditivo ed è particolarmente sensibile a danni iniziali nella coclea, inclusa la perdita delle connessioni (sinapsi) tra fibre nervose e cellule ciliate. I ricercatori analizzano queste onde per stimare quanto deve essere forte un suono per essere percepito (la soglia) e quanto sono forti e rapide le risposte nervose. Piccoli spostamenti in queste misure possono rivelare danni nascosti prima che emergano nei test uditivi standard.
Il problema della lettura manuale
Sebbene i test ABR siano registrazioni oggettive, il modo in cui vengono analizzati spesso non lo è. Laboratori diversi usano software diversi e anche revisori esperti possono non essere d’accordo su dove esattamente un’onda inizi, raggiunga il picco o finisca, specialmente quando i segnali sono deboli o rumorosi. Marcature manuali di migliaia di tracciati provenienti da grandi esperimenti possono richiedere molte ore e rendono difficile confrontare i risultati tra studi. Alcuni gruppi hanno provato metodi computerizzati basati su regole o tecniche di machine learning tradizionali, ma questi hanno flessibilità limitata e possono non gestire bene la grande varietà di impostazioni di registrazione, ceppi di topo e tipi di danno uditivo impiegati nella ricerca moderna.
Una nuova toolbox automatizzata
ABRA (Auditory Brainstem Response Analyzer) affronta queste sfide combinando modelli di deep learning con un’interfaccia facile da usare. Gli autori hanno addestrato reti neurali convoluzionali, un tipo di intelligenza artificiale che eccelle nel riconoscere pattern complessi, su più di ventimila registrazioni ABR raccolte in tre laboratori indipendenti di ricerca sull’udito. Nonostante le differenze nell’attrezzatura, nelle impostazioni sonore e nei modelli di topo — inclusi animali che invecchiano più rapidamente o sono stati esposti a rumori forti — gli stessi modelli hanno imparato a rilevare caratteristiche chiave delle onde e a distinguere risposte che riflettono davvero l’udito da quelle che sono solo rumore di fondo. ABRA include due strumenti principali: uno che individua il timing e l’ampiezza della prima onda ABR e un altro che decide, attraverso una serie di livelli sonori, quale livello rappresenta la vera soglia uditiva.

Preciso quanto gli esperti, dozzine di volte più veloce
Per valutare le prestazioni di ABRA, il team ha confrontato le sue misure automatiche con migliaia di etichette fatte da esseri umani. Per la prima onda dell’ABR, le stime di ABRA su timing e ampiezza sono quasi sempre rientrate in una frazione di millisecondo e in una frazione di microvolt rispetto alle marcature degli esperti, con gli errori maggiori solo quando il segnale stesso era a malapena visibile. Per la rilevazione della soglia, sono stati testati diversi tipi di modelli di machine learning e l’approccio di deep learning ha superato i metodi più semplici su tutte le misure di accuratezza. Nei confronti diretti, ABRA concordava con i valutatori umani esperti più o meno quanto due esperti concordavano tra loro e eguagliava o superava un metodo consolidato di cross-correlazione utilizzato in un altro popolare pacchetto ABR. In modo cruciale, l’analisi di 90 set di dati di topi richiedeva agli esperti circa un’ora manualmente ma meno di un minuto con ABRA, un’accelerazione di circa 75 volte.
Cosa significa per la ricerca sull’udito
ABRA trasforma ciò che era un passaggio lento e soggettivo negli esperimenti sull’udito in un processo rapido, standardizzato e condivisibile. Essendo open source, disponibile gratuitamente online e in grado di leggere più formati di file comuni, può essere integrato in molti flussi di lavoro esistenti senza particolari competenze di programmazione. I modelli attuali sono addestrati su dati di topi e sono convalidati soprattutto per la prima onda ABR, quindi casi molto insoliti o altre specie potrebbero ancora richiedere la revisione di esperti o un riaddestramento futuro. Anche così, la toolbox dimostra come l’intelligenza artificiale possa interpretare segnali biologici complessi, aiutando gli scienziati a studiare come l’udito si deteriora con l’età, il rumore o la malattia — e supportando infine gli sforzi per proteggere sia l’udito sia la salute del cervello.
Citazione: Erra, A., Miller, C.M., Chen, J. et al. An open-source deep learning-based toolbox for automated auditory brainstem response analyses (ABRA). Sci Rep 16, 9855 (2026). https://doi.org/10.1038/s41598-026-38045-1
Parole chiave: perdita uditiva, risposta uditiva del tronco encefalico, deep learning, analisi automatizzata del segnale, neuroscienze nei topi