Clear Sky Science · de
Eine Open-Source-Toolbox auf Deep-Learning-Basis zur automatisierten Analyse des auditorischen Hirnstammpotenzials (ABRA)
Warum bessere Hörtests wichtig sind
Mit der längeren Lebenserwartung wird Hörverlust zu einem der häufigsten Gesundheitsprobleme weltweit. Er erschwert nicht nur das Gesprächsverständnis; inzwischen steht er auch in Verbindung mit Gedächtnisproblemen und Demenz im höheren Alter. Um Hörverlust zu verstehen und zu behandeln, nutzen Wissenschaftler eine spezielle elektrische Messung vom Ohr und Hirnstamm, das sogenannte auditorische Hirnstammpotenzial (ABR). Diese Aufzeichnungen sind aussagekräftig, erforderten aber traditionell, dass Expertinnen und Experten die wellenförmigen Linien von Hand beurteilen — ein langsamer und subjektiver Prozess. Dieser Artikel stellt ABRA vor, eine freie, automatisierte Software-Toolbox, die moderne Künstliche Intelligenz verwendet, um diese Signale schnell und konsistent auszuwerten.

Von Klicks im Ohr zu Wellen auf dem Bildschirm
Wenn ein kurzer Ton ins Ohr gespielt wird, feuern winzige Sinneszellen in der Innenohrschnecke und die daran anschließenden Nervenfasern in einem schnellen Impuls. Diese Aktivität wandert den Hirnstamm hinauf und lässt sich mit Elektroden am Kopf erfassen. Das Ergebnis ist eine ABR-Spur: eine Abfolge kleiner Wellen, die in den ersten wenigen Tausendstelsekunden nach dem Ton auftreten. Bei Mäusen spiegelt die erste große Welle die Aktivität des Hörnervs wider und ist besonders empfindlich für frühe Schädigungen in der Cochlea, einschließlich des Verlusts der Verbindungen (Synapsen) zwischen Nervenfasern und Haarzellen. Forschende lesen diese Wellen, um abzuschätzen, wie laut ein Ton sein muss, um gehört zu werden (die Schwelle), und wie stark und schnell die Nervenantworten sind. Kleine Verschiebungen in diesen Messgrößen können verborgene Schäden aufdecken, bevor sie in Standard-Hörtests sichtbar werden.
Das Problem der manuellen Auswertung
Obwohl ABR-Tests objektive Aufzeichnungen liefern, ist die Art ihrer Auswertung häufig nicht objektiv. Verschiedene Labore nutzen unterschiedliche Software, und selbst erfahrene Gutachter können sich darüber uneinig sein, wo eine Welle beginnt, ihren Gipfel erreicht und endet — besonders bei schwachen oder verrauschten Signalen. Tausende Spuren aus großen Experimenten manuell zu markieren, kann viele Stunden dauern und erschwert den Vergleich von Ergebnissen zwischen Studien. Einige Gruppen haben regelbasierte Computerverfahren oder traditionelle Machine-Learning-Methoden ausprobiert, doch diese bieten nur begrenzte Flexibilität und kommen mit der großen Vielfalt an Aufnahmebedingungen, Mausstämmen und Hörschäden in der modernen Forschung oft schlecht zurecht.
Eine neue automatisierte Toolbox
ABRA (Auditory Brainstem Response Analyzer) begegnet diesen Herausforderungen, indem es Deep-Learning-Modelle mit einer benutzerfreundlichen Oberfläche kombiniert. Die Autorinnen und Autoren trainierten konvolutionale neuronale Netze, eine Form der Künstlichen Intelligenz, die besonders gut komplexe Muster erkennt, mit mehr als zwanzigtausend ABR-Aufzeichnungen aus drei unabhängigen Hörforschungslaboren. Trotz unterschiedlicher Geräte, Toneinstellungen und Mausstämme — einschließlich Tieren mit vorgezogener Alterung oder Lärmbelastung — lernten die Modelle, Schlüsselfeatures der Wellen zu erkennen und echte Hörantworten von Hintergrundrauschen zu unterscheiden. ABRA enthält zwei Hauptwerkzeuge: eines, das Zeitpunkt und Amplitude der ersten ABR-Welle genau bestimmt, und ein weiteres, das über eine Reihe von Lautstärkestufen hinweg entscheidet, welche Stufe die tatsächliche Hörschwelle markiert.

So genau wie Expertinnen — Dutzende Male schneller
Um die Leistungsfähigkeit von ABRA zu bewerten, verglich das Team seine automatischen Messungen mit tausenden menschlicher Labels. Für die erste ABR-Welle lagen ABRAs Schätzungen von Zeitpunkt und Größe fast immer innerhalb winziger Bruchteile einer Millisekunde und Bruchteile eines Mikrovolts gegenüber den Expertenmarkierungen; die größten Abweichungen traten nur auf, wenn das Signal selbst kaum sichtbar war. Zur Schwellenerkennung wurden mehrere Arten von Machine-Learning-Modellen getestet, wobei der Deep-Learning-Ansatz einfachere Methoden in allen Genauigkeitsmaßen übertraf. In Direktvergleichen stimmte ABRA mit Expertinnen und Experten ungefähr so oft überein wie zwei Expertinnen bzw. Experten untereinander und erreichte die gleiche oder bessere Leistung als ein etabliertes Kreuzkorrelationsverfahren aus einem anderen bekannten ABR-Paket. Entscheidend ist, dass die Auswertung von 90 Maussätzen für Expertinnen und Experten manuell etwa eine Stunde dauerte, mit ABRA jedoch in weniger als einer Minute möglich war — eine Beschleunigung um etwa das 75-Fache.
Was das für die Hörforschung bedeutet
ABRA verwandelt einen früher langsamen, subjektiven Schritt in Hörexperimenten in einen schnellen, standardisierten und teilbaren Prozess. Da es Open Source ist, frei online verfügbar und mehrere gängige Dateiformate lesen kann, lässt es sich in viele bestehende Arbeitsabläufe integrieren, ohne spezielle Programmierkenntnisse vorauszusetzen. Die aktuellen Modelle sind auf Mausdaten trainiert und am besten für die erste ABR-Welle validiert, sodass sehr ungewöhnliche Fälle oder andere Spezies weiterhin eine Expertenprüfung oder künftiges Retraining erfordern können. Dennoch zeigt die Toolbox, wie Künstliche Intelligenz komplexe biologische Signale verständlich machen kann, Wissenschaftlern hilft zu untersuchen, wie Hören durch Alter, Lärm oder Krankheit versagt — und letztlich Bemühungen unterstützt, sowohl Gehör als auch Hirngesundheit zu schützen.
Zitation: Erra, A., Miller, C.M., Chen, J. et al. An open-source deep learning-based toolbox for automated auditory brainstem response analyses (ABRA). Sci Rep 16, 9855 (2026). https://doi.org/10.1038/s41598-026-38045-1
Schlüsselwörter: Hörverlust, auditorisches Hirnstammpotenzial, Deep Learning, automatisierte Signalanalyse, Maus-Neurowissenschaften