Eine der größten Herausforderungen für moderne Hörgeräte ist die Aufgabe, eine Stimme aus vielen herauszufiltern und gezielt zu verstärken. Damit das in Zukunft noch besser gelingt, haben Forscher den Hörvorgang im Gehirn entschlüsselt.  

Unser Gehirn hat die bemerkenswerte Fähigkeit, eine Stimme aus vielen herauszuhören. Das hilft zum Beispiel dabei, selbst in einer lauten Umgebung den Gesprächspartner zu verstehen. „Die Fähigkeit, uns auf einer Cocktailparty auf die Person neben uns zu konzentrieren, während wir den Umgebungslärm ausblenden, ist außergewöhnlich. Aber wir haben bislang kaum verstanden, wie es funktioniert“, so Dr. Nima Mesgarani, Studienleiter am Mortimer B. Zuckerman Mind Brain Behavior Institut der Columbia Universität. In einer Studie hat Mesgarani zusammen mit einem Team von Neuroingenieuren diese Verständnislücke weitgehend geschlossen. Die Erkenntnisse der Forscher könnten für die weitere Verbesserung der Hörgerätetechnologie von entscheidender Bedeutung sein.  

Die Basis des Studiendesigns bildet die Funktionsweise des Hörsinns. Der auditorische Cortex ist das Abhörzentrum des Gehirns. Dort kommen elektrische Signale aus dem Innenohr an, die zunächst ein Durcheinander von Schallwellen aus der Außenwelt darstellen. Aufgabe des Hörzentrums ist es, sinnvolle Geräusche aus diesem Durcheinander herauszusuchen. Bereits 2012 hatten die Forscher herausgefunden, dass sich die Gehirnströme einer Person verändern, wenn sie einem bestimmten Sprecher zuhört. Sie wussten auch, dass die Bereiche des auditorischen Cortex in einer Hierarchie angeordnet sind und dass in jedem Stadium eine immer komplexere Dekodierung der eintreffenden Signale stattfindet. Wie die Stimme eines bestimmten Sprechers auf diesem Weg verarbeitet wird, blieb jedoch unbekannt. 

Dieses Verständnis lieferten jetzt Daten, die bei Gehirnoperationen von Epilepsiepatienten gewonnen wurden. Dafür hatten die Wissenschaftler direkt in den betreffenden Gehirnregionen der Patienten Elektroden platziert, um ihre Gehirnwellen zu überwachen und aufzuzeichnen, während diese sich Aufnahmen verschiedener Sprecher anhörten. Die Forscher interessierten sich insbesondere für zwei Teile der Hierarchie des auditorischen Cortex: die Gyri temporales transversi (die so genannten Heschl´schen Querwindungen, die den primären auditorischen Cortex bilden), und den Gyrus temporalis superior, in dem auch ein sensorisches Sprachzentrum sitzt.  Informationen aus dem Ohr gelangen zuerst zu den Heschl´schen Querwindungen, durchlaufen sie und gelangen später zum Sprachzentrum. 

Mithilfe der Elektroden konnte das Team eine klare Unterscheidung zwischen den Rollen der beiden Gehirnregionen bei der Interpretation von Geräuschen erkennen. Die Daten zeigten, dass in den Heschl´schen Querwindungen eine reichhaltige und mehrdimensionale Darstellung der Klangmischung erzeugt wird, während im Sprachzentrum eine Gewichtung und Auswahl stattfindet. Im Sprachzentrum wird demnach zudem ein auditives Objekt gebildet, das helfe, einen Sprecher selbst dann zu identifizieren, wenn konkurrierende Stimmen im Raum sind. 

Wie können die Erkenntnisse helfen, noch bessere Hörgeräte zu entwickeln?

Moderne Hörgeräte arbeiten mit sehr kleinen und dabei äußerst leistungsfähigen speziellen Computerchips, die in der Lage sind, in Echtzeit viele Rechenprozesse abzubilden. Die in dieser Studie gewonnenen Informationen, davon sind die Wissenschaftler überzeugt, könnten als Grundlage für Algorithmen dienen, die den biologischen Prozess der Hörverarbeitung künstlich nachbilden.

Quelle: Zuckerman Institute, Columbia University