In der Vergangenheit wurde bei Richtmikrofonen für Hörsysteme davon ausgegangen, dass die Sprache immer von vorne kommt. Es ist jedoch seit geraumer Zeit bekannt, dass dies nicht ganz korrekt ist (Walden et al., 2004). Die Daten aus dieser Studie haben gezeigt, dass von 1586 berichteten Beobachtungen 318 (20 %) Sprache als „nicht von vorne“ aufzeichneten.  Außerdem berichteten sie, dass bei 1006 Beobachtungen Störgeräusche auftraten. Bei 239 (24 %) kam die Sprache „nicht von vorne“.

Wenn Sprache bei 20 % bis 24 % der Hörzeit nicht von vorne kommt, ist es eine erhebliche Zeitspanne, in der herkömmliche nach vorne gerichtete Mikrofone nicht optimal sind. Sie sind vielleicht sogar etwas problematisch (Wu et al., 2014).  Wu et al. untersuchten die Auswirkung verschiedener Mikrofonsysteme auf die Spracherkennung und die Präferenzwerte hörgeschädigter Hörer beim Zuhören in einem Auto. Die Ergebnisse zeigten einen Vorteil und eine Vorliebe für die rückwärts gerichtete Verarbeitung im Vergleich zur omnidirektionalen Verarbeitung. Darüber hinaus wurde festgestellt, dass typische adaptive Richtmikrofone im Vergleich zu omnidirektionalen Mikrofonen das Sprachverstehen und die Präferenzen beeinträchtigen.

Man könnte argumentieren, dass der Zuhörer, sobald er Sprache aus einer anderen Richtung als von vorne wahrnimmt, einfach seinen Kopf in Richtung des Sprechers drehen würde, aber das ist nicht immer möglich. Ein Autofahrer hat beispielsweise nicht die Möglichkeit, sich umzudrehen, um sich einem hinten sitzenden Sprecher zuzuwenden. Der vor Kurzem aktualisierte Log-It-All Algorithmus kann bestimmen, wie viel Zeit ein Hörgeräteträger in Situationen verbringt, in denen Sprache nicht von vorne an ihn gerichtet ist.

Log It All ist eine Unitron eigene Hörsystemfunktion, die ursprünglich entwickelt wurde, um die Zeit zu erfassen, die Zuhörer in sieben verschiedenen Hörumgebungen verbringen. Hörakustiker konnten Log It All als Hilfsmittel verwenden, um festzustellen, ob das Hörsystem, das ihr Kunde trug, für seine individuellen Bedürfnisse geeignet war. Menschen, die mehr Zeit in komplexen Hörumgebungen verbringen, wie zum Beispiel bei Gesprächen in großen Gruppen oder bei Gesprächen in geräuschvoller Umgebung, profitieren möglicherweise mehr von der Premium-Technologie. Log It All klassifiziert ihre individuelle Hörumgebung genau und liefert reale Daten, die bei der Fehlersuche und der Bewertung der Wirksamkeit der Anpassung helfen. 

Die Möglichkeiten von Log It All wurden nun erweitert, um die Richtung der Zielsprache in komplexen Hörumgebungen zu erfassen: Gespräch in großer Gruppe, Gespräch im Störgeräusch und Störgeräusch ohne Sprachanteile. Das sind die Umgebungen, in denen AutoFocus 360 das Hören von Sprache von links, rechts, hinten oder vorne optimieren kann. Das Wissen über die prozentuale Zeitspanne, in der Sprache in diesen Hörumgebungen von der bestimmten Person nicht von vorne gehört wird, liefert dem Hörakustiker unschätzbare Informationen über die akustische Welt des Zuhörers.

Log-It-All-Daten wurden von 6998 Anpassungen/Folgeterminen gesammelt, die zwischen dem 1. November 2021 und dem 14. Februar 2022 in 37 Ländern stattfanden. Weitere Informationen über die Anpassungen finden Sie in Log It All und die Richtung der Sprache (Hayes, 2022). 

Die erste interessante Frage, die nach 6998 Anpassungen mit realen Nutzungsdaten zu beantworten ist, ist einfach: „In welchen Hörumgebungen verbringen die Menschen insgesamt ihre Zeit?“  Siehe nachfolgende Abbildung 1.

Abbildung 1 zeigt, dass Hörsystemträger im Durchschnitt den größten Teil ihrer Zeit entweder in ruhigen Hörsituationen oder in kleinen Gruppen verbringen. Ein weiteres gemeinsames Merkmal der Log It All Daten für große Gruppen ist die große Schwankungsbreite bei den einzelnen Personen. Obwohl die durchschnittlichen Log It All Daten für fast alle Gruppen von Hörsystemträgern einem einheitlichen Muster folgen, gibt es immer große Unterschiede zwischen den einzelnen Personen. Deshalb ist Log It All so wichtig. Wenn wir eine individuelle Anpassung mit dem Durchschnitt vergleichen, können sie sehr unterschiedlich sein. Die Betrachtung einzelner Daten kann zu einer besseren Prognose für verschiedene Technologieebenen führen.

Die komplexesten Hörumgebungen befinden sich im blau schattierten Bereich von Abbildung 1.  Die durchschnittliche Zeit, die entweder in Gespräch in großer Gruppe oder in Gespräch im Störgeräusch verbracht wird, beträgt jeweils etwa 10 %. Nur geräuschvolle Umgebung ist etwas geringer mit rund 6 %. Das untere Ende der Balken kann jedoch jeweils nur 3 % oder 4 % betragen, das obere Ende sogar 19 % bis 23 %. Wenn wir uns auf die Situationen konzentrieren, in denen Menschen die größten Herausforderungen haben, nämlich Gespräch im Störgeräusch und Gespräch in großer Gruppe, so ergibt sich eine mögliche Spanne von 7 % bis 42 % der Zeit. 

Wir stellten die Frage: „Wie viel Prozent der Zeit wird in unserer Stichprobe von vorne, von der Seite oder von hinten gesprochen?“ Siehe Abbildung 2.

Bei der Betrachtung der Box- und Whisker-Diagramme interessiert uns vor allem der mittlere Prozentsatz der Zeit, in der aus jeder der aufgezeichneten Richtungen gesprochen wird. In dieser Stichprobe können wir sehen, dass der Mittelwert für Sprache von vorne 30 % der Zeit ausmacht. Die kombinierten Mittelwerte für Sprache von links und rechts machen 21 % der Zeit aus. Sprache von hinten beträgt 4 % der Zeit. Der Mittelwert ohne Ziel betrug 33 % der Zeit. Anders gesagt, der Mittelwert der Zeit, in der von vorne gesprochen wird, liegt bei 30 %, während in 25 % der Zeit von der Seite oder von hinten gesprochen wird.

Bitte beachten Sie, dass es sich hierbei um die relative Position der Hörsysteme handelt, nicht um die des Hörers, ob von vorne, von der Seite oder von hinten.  Wenn also Sprache von der Seite oder von hinten kommt und der Hörgeräteträger seinen Kopf dem Sprecher zuwendet, würde Log It All diese Sprache als von vorne kommend erkennen. Wenn wir also davon ausgehen (wie wir es in der Vergangenheit getan haben), dass die Hörgeräteträger ständig der Sprachquelle zugewandt sind, würde sich in diesen Ergebnissen eine starke Verzerrung der Sprache von vorne zeigen. Dennoch gibt es nur einen Unterschied von 5 % zwischen dem mittleren Prozentsatz der Zeit, in der die Sprache von vorne kam, und den anderen drei Richtungen zusammen.

Wir müssen uns auch fragen, „Warum wird so viel Zeit im Zustand ohne Ziel verbracht?“  Der Mittelwert der Zeit ohne Ziel betrug 33 %. In Anbetracht der Tatsache, dass eine der drei Hörumgebungen, in denen die Sprachrichtung aufgezeichnet wird, nur Störgeräusch ist, ist es nicht unerwartet, dass der Zustand ohne Sprachrichtung häufig aufgezeichnet wurde. Indem wir die Korrelation zwischen der Zeit, die nur im Störgeräusch verbracht wurde, und dem Prozentsatz der Resultate ohne Zielrichtung ermitteln, können wir den Einfluss der Hörumgebung auf die Resultate ohne Zielrichtung klären.

Abbildung 3 zeigt den prozentualen Anteil der Zeit für den Zustand kein „Ziel“ bei jeder Anpassung im Vergleich zum prozentualen Anteil der Zeit im Störgeräusch.

Das Bild in Abbildung 3 ist ziemlich eindeutig: Die Zeit, die Menschen im Störgeräusch verbringen, in der keine Sprache zu hören ist, korreliert sehr gut mit dem prozentualen Anteil der Zeit, in der sie sich in der Situation ohne Ziel befinden. Der Korrelationskoeffizient der Person (r = 0,676) bestätigt dies. Mit anderen Worten, es gibt Situationen, in denen Sprache und Störgeräusch nebeneinander existieren, die Log It All als kein Ziel in Abbildung 3 klassifiziert, aber die überwältigende Mehrheit der Zeit, in der Log It All kein Ziel beobachtet, ist darauf zurückzuführen, dass wirklich kein Sprachziel vorhanden ist, da sich das Hörsystem in einer rein geräuschvollen Umgebung befindet.

In diesem Whitepaper haben wir drei verschiedene Fragen beantwortet. Wie viel Zeit verbringen Hörgeräteträger durchschnittlich in verschiedenen Hörumgebungen? Wie oft kommt die Sprache in der Zeit, in der sie sich in komplexen Hörumgebungen aufhalten und Log It All die Richtungen der Sprache aufzeichnet, von vorne? Und zum Schluss, warum wird ein großer prozentualer Anteil der Zeit in einem Zustand ohne Ziel verbracht? Von den drei Fragen ist das wichtigste Ergebnis in der zweiten impliziert: Wenden sich die Menschen immer der Richtung der Sprache zu? Die Antwort ist eindeutig ein klares Nein. Die Zuhörer schauen fast genauso oft (25 % der Zeit) nicht in die Richtung der Sprache, wie sie es tun (30 % der Zeit). Folglich ist es sinnvoll, diesen Menschen Hörsysteme anzubieten, die sich ihrem nicht-frontalen Zuhörverhalten anpassen.

Walden, B. E., Surr, R. K., Cord, M. T., & Dyrlund, O. (2004). Predicting hearing aid microphone preference in everyday listening. J Am Acad Audiol, 15(5), 365-396. https://doi.org/10.3766/jaaa.15.5.4

Wu, Y.-H., Aksan, N., Rizzo, M., Stangl, E., Zhang, X., & Bentler, R. . (2014). Measuring listening effort: Driving simulator versus simple dual-task paradigm. Ear & Hearing, 35(6), 623-632. https://doi.org/10.1097/aud.0000000000000079