Beim Verstehen von Sprache übernehmen Sprachassistenzsysteme wie Alexa oder Siri längst Aufgaben unseres Gehörs und Gehirns. Können sie auch bei nachlassendem Hörsinn helfen, wenn wir einen "Klarsprecher" im Ohr für akustisch schwierige Situation benötigen? Wie nah dran sind wir am Hörgerät als Sprach-Kommandozentrale im Ohr, etwa mit Sprach-Übersetzungs-Funktion als Babelfisch?
Der Vortrag gibt einen Einblick in die laufende Forschung und Glanzpunkte des Exzellenzclusters "Hearing4All" und spannt einen Bogen von der Biophysik des gestörten Hörens bis zur Hör-Rehabilitation und zu Hör-Assistenz-Systemen im täglichen Leben.
Das Zusammenspiel aus Hörexperimenten, Hör-Theorie und Methoden des maschinellen Lernens hilft dabei, eine Präzisions-Diagnostik zu erreichen und den Gewinn an Sprachverstehen durch eine Hörgeräte-Versorgung oder ein Hörimplantat genau vorherzusagen. Der Babelfisch liegt zwar noch nicht in der Labor-Schublade, aber intelligente Hörgeräte werden ihm immer ähnlicher!