Todos los audífonos modernos pueden proporcionar algún grado de cambio automático de programas basado en la clasificación acústica. Lo más simple de estos dispositivos ha estado disponible casi desde principio de siglo y ¡es difícil creer que han pasado 19 años desde entonces! ¿alguna vez te has preguntado cómo los sistemas de clasificación influyen en el rendimiento de los audífonos? Aunque hay personas que prefieren controlar de manera manual sus audífonos, la mayoría preferiría ponérselos y olvidarse de ellos, permitiendo que los audífonos se adapten automáticamente a sus entornos auditivos cambiantes. Esto desplaza mucha responsabilidad en la precisión de la clasificación de la que es capaz el dispositivo.
Conforme los audífonos se van sofisticando, su rendimiento ha mejorado constantemente. Pero también lo ha hecho la complejidad de los esquemas de clasificación acústica subyacentes que ha hecho que sea posible. Con el lanzamiento de Indigo en 2005, Unitron introdujo un nuevo tipo de sistema de clasificación. Fue nuestro primer clasificador entrenado usando inteligencia artificial para distinguir entre cuatro escenas acústicas diferentes: escucha tranquila, habla en ruido, ruido y música.
Con la introducción de nuestro clasificador conversacional en la plataforma North, hemos ganado confianza en nuestra habilidad de clasificar correctamente siete entornos de escucha diferentes en los que usamos los datos extraídos del clasificador para dirigir Log it All, que fue una primicia en la industria lanzada por Unitron. Mientras que el registro de datos te dice lo que hace el audífono a lo largo del tiempo, Log it All te dice cuánto tiempo el usuario pasa en cada uno de los 7 entornos, mostrando una visión general del estilo de vida auditivo del usuario, ayudándote a individualizar la experiencia del paciente en cada entorno. Sin embargo, para que Log it All tenga valor, tenemos que asegurarnos que el clasificador está categorizando detalladamente estos entornos de escucha.
La clasificación es incluso más importante para una buena experiencia de usuario. Perfectamente puedes ajustar parámetros para cada entorno de escucha en la primera adaptación, pero si el clasificador que dirige el cambio de programa automático detecta mal el entorno auditivo, nada de lo anterior tendría importancia. Por ejemplo, si el clasificador piensa que el usuario está escuchando música, cuando en realidad está teniendo una conversación en un entorno tranquilo, el rendimiento del audífono será inferior, porque estará optimizado para un entorno auditivo incorrecto.
En consecuencia, una clasificación precisa es un componente totalmente crítico para el éxito de los audífonos modernos. En Unitron, queríamos saber: ¿lo hemos conseguido correctamente? ¿Hemos entrenado correctamente nuestro clasificador para que detecte con precisión el entorno acústico correcto en el que el paciente pasa su tiempo?
Para responder nuestras preguntas, llevamos a cabo un estudio de benchmarking (comparación entre marcas) para nuestro clasificador conversacional en la University of South Florida con el Dr. David Eddins y el Dr. Erol Ozmeral.
Los clasificadores automáticos muestrean los entornos acústicos actuales y generan probabilidades para cada uno de los destinos de escucha disponibles en el programa automático. El audífono cambiará al programa de escucha para el que se haya generado mayor probabilidad. Cambiará de nuevo cuando el entorno acústico cambie lo suficiente como para que otro entorno genere una probabilidad más alta.
Sin embargo, no todos los esquemas de clasificación trabajan igual. Lo que los hace únicos es la filosofía de los ingenieros que los crean. Son estas filosofías las que dirigen sus elecciones acerca de los que distingue los aspectos de un entorno acústico dado del resto. Considera esto: dos fabricantes de audífonos podrían estar expuestos al mismo entorno acústico y clasificarlo de manera diferente. ¿Por qué pasa esto? Pasa porque los diseñadores de los dos sistemas asignaros distintas ponderaciones a varios aspectos de los entornos acústicos. Por tanto, los dispositivos estaban midiendo diferentes aspectos de los entornos y tomando decisiones diferentes sobre los valores detectados. Por eso, pueden llegar a diferentes conclusiones sobre el mismo entorno acústico.
Por ejemplo, considera estos enfoques representativos de la clasificación acústica en los audífonos:
- (Kates, 1995) describió un sistema basado en un análisis agregado de modulación envolvente y prestaciones espectrales para clasificar ruidos de fondo entre 11 tipos: hogar, murmullo, cena, platos, ruido gaussiano, impresora, tráfico, mecanografía, hombre hablando, sirena y ventilación.
- (Nordqvist & Leijon, 2004) usó modelos de Markov escondidos para desarrollar un sistema de clasificación robusto para audífonos incluyendo tres clases: habla con ruido de tráfico de fondo, habla entre murmullos y habla clara.
- (Büchler, Allegro, Launer, & Dillier, 2005) clasificó el habla clara, el habla en ruido, el ruido y la música usando múltiples enfoques. Los autores explicaron varios tipos de extracción de prestaciones y luego los comparaban entre los seis diferentes clasificadores de complejidad de baja a moderada, requerida para el uso de audífonos.
- (Lamarche, Giguere, Gueaieb, Aboulnasr, & Othman, 2010) probaron dos sistemas: Distancia Mínima y clasificadores Bayesianos. En cada caso, el clasificador puede adaptarse a los entornos únicos de los oyentes y sintonizarse así mismo de manera acorde. Eligen prestaciones distintivas que son buenas para distinguir entre entornos de Habla, Ruido y Música, incluyendo Profundidad de modulaciones de amplitud, rangos de Modulación de frecuencia (0 – 4 Hz y 4 – 16 Hz) y variación Temporal de frecuencias instantáneas. Encontraron que ambos métodos funcionaban bien, pero intentaron combinar diferentes tipos cuando fusionaban 3 tipos a 2.
Si bien esta lista no es exhaustiva, muestra muchos de los enfoques disponibles para ingenieros y científicos que desarrollan estos algoritmos. Aunque las filosofías de las empresas de audífonos son de su propiedad, es aún posible comparar estos esquemas entre ellos y con un estándar de oro para evaluar qué sistemas diferentes se tienen que ofertar. Finalmente, hemos desarrollado un enfoque de benchmarking (de comparativas) basado en replicar entornos de escucha reales en un ajuste controlado y repetible. El enfoque y algunos de los resultados se describirán en este artículo.
Elegimos comparar los clasificadores aplicando 2 tipos de comparación. Primero, comparamos todos los clasificadores de audífonos tomando como estándar de oro el humano. Después, comparamos los resultados de los clasificadores para 5 empresas de audífono y entre sí. Ambos enfoques devolvieron información útil.
Llevamos a cabo todas las mediciones en el Auditory & Speech Sciences Laboratory de la University of South Florida. La sala de sonido se muestra en la Figura 1.
La silla en el centro de la sala está rodeada de una matriz de 64 altavoces que funcionan de manera independiente. Aunque la sala es una cámara tratada de prueba de sonido tradicional, se pueden montar en las paredes y el techo paneles de plexiglás para crear un entorno de reverberación más natural. Las personas participantes están sentadas en la silla del centro de la sala mientras evalúan los entornos de escucha. Obtuvimos información de los audífonos en conjuntos de tres dispositivos a la vez que se usa un sistema antropomórfico de Klangfinder (Figura 2).
Al sustituir a los participantes del centro de la sala por el Klangfinder, era posible replicar todas las condiciones para todos los sujetos y todos los audífonos en una única localización.
Empezamos el ejercicio de medida creando un parkour de sonido (un tipo de curso de obstáculos acústicos para poner los clasificadores a través de sus pasos). Definimos el parkour en múltiples dimensiones, como se muestra en el encabezado y en la columna de la izquierda de la Tabla 1. Cada fila de la Tabla 1 describe la composición de un archivo individual de sonido que dura 2 minutos y representa un entorno de escucha específico. Esta iteración del parkour contiene 26 entornos de escucha (archivos de sonido). El entorno de escucha más simple se llama escucha en silencio (en la fila de arriba). No hay habla, solo el sonido suave de un ventilador funcionando de manera constante con un nivel general de 40 dB SPL. No hay casi modulación ni contrastes temporales o espectrales, solo un ruido suave y repetitivo.
Conforme vas bajando en la tabla, los entornos de escucha se vuelven más complejos. Por ejemplo, en la columna de la izquierda verás que hemos añadido más personas hablando y diferentes tipos de ruido de fondo. También experimentamos con diferentes niveles de música y ruido de fondo con habla en los entornos más complejos.
También hay un componente de direccionalidad del habla, ruido y elementos musicales. Conforme añadimos más oradores, su orientación relativa al frente de los audífonos se actualiza para reflejar dónde un orador normalmente se situaría de pie o sentado en ese entorno. Este paso incorpora cualquier impacto de procesamiento de direccionalidad. Por ejemplo, nota la orientación de los oradores (izquierda, derecha y de frente) en el entorno del metro. Esta “distribución del orador” es lo que experimentarías en una plataforma del metro en el metro de Londres cuando te sientas entre dos acompañantes con otra persona en frente de ti llevando a cabo una conversación. El componente direccional también se usa para el ruido y la música en los archivos de sonido. Repeticiones múltiples del parkour de sonido han sido usadas, de las que la Tabla 1 (descargar Tabla 1) es un ejemplo representativo.
Cada archivo de sonido fue puesto en bucle durante 8 horas para cada conjunto de audífonos en el Klangfinder. No había manera directa de leer las probabilidades del clasificador desde la mayoría de los dispositivos. En su lugar, confiamos en los resultados del datalogging con 8 horas de un solo archivo para determinar cómo el clasificador de cada fabricante registra ese entorno de escucha particular. Dado que el datalogging del tiempo pasado en un entorno de escucha concreto está impulsado muy probablemente por las probabilidades del clasificador a lo largo del tiempo, poner en bucle un único archivo de sonido de 8 horas/sesión era la manera más lógica de obtener resultados estables del clasificador.
Antes de mirar los resultados obtenidos de manera indirecta de 5 fabricantes de audífonos usando el resultado del datalogging, será instructivo mirar resultados más detallados de los audífonos Unitron. Es posible para los Doctores Eddins y Ozmeral leer las probabilidades del clasificador desde nuestro audífono de manera instantánea varias veces por segundo mientras se están generado. Las Figuras 3 y 4 muestran las probabilidades actuales de los clasificadores según lo determinado por un par de audífonos Unitron usando este enfoque. El primer caso, Figura 3, muestra el valor de 60 segundos de las probabilidades del clasificador para dos entornos de escucha muy simples.
En la parte de arriba de la Figura 3 podemos ver 60 segundos del playback original. La primera mitad de esta figura muestra los últimos 30 segundos del archivo grabado WAV del entorno con el ventilador suave (la fila de arriba de la Tabla 1). La segunda mitad muestra los primeros 30 segundos de la grabación de 2 minutos del archivo con la conversación en silencio con un único orador (segunda fila de la Tabla 1). Estos entornos de escucha simples demuestran cómo el clasificador genera probabilidades que casi de manera exclusiva representan un único entorno acústico de escucha.
La parte de debajo de la figura está sincronizada con las grabaciones, y muestran la distribución de las probabilidades para cada uno de los siete entornos de escucha posibles en el clasificador de Unitron. Los primeros 30 segundos tiene una probabilidad del 100% de que sea un entorno de escucha en silencio. Dado que es una grabación de un ventilador suave medido a sólo 40 dB SPL en una sala de sonido tratada, la clasificación es correcta. El audífono pasaría estos 30 segundos en el entorno de escucha en silencio de SoundNav.
A los 30 segundos, la grabación cambia de manera repentina de un ventilador suave a 40 dB SPL a un único locutor a 55 DB SPL. Del segundo 30 al 37 aproximadamente, las probabilidades del clasificador están en transición. Ten en cuenta cómo la probabilidad de conversación en silencio inmediatamente empieza a crecer conforme la probabilidad de escucha en silencio cae. Las dos probabilidades se cruzan una con otra durante aproximadamente 35 segundos. En esta zona de transición, SoundNav cambia el audífono del entorno de escucha en silencio al entorno de conversación en silencio. El clasificador de hecho detecta el cambio casi de manera inmediata, pero nuestros desarrolladores toman de manera consciente la decisión de no tener la reacción del dispositivo tan rápida para cada uno de los pequeños cambios en el entorno acústico. Los cambios rápidos podrían llevar a una reducción de la calidad de sonido en los entornos de escucha dinámicos ya que SoundNav intenta mantener al día con todas las fluctuaciones ambientales.
Por el segundo 40 y por los últimos 20 segundos de la grabación, la probabilidad de un entorno de escucha de conversación en silencio es de casi el 100%.
Las dos barras verticales a la izquierda y la derecha de las secciones de proporción del clasificador muestran la proporción del tiempo pasado en cada uno de los siete entornos de escucha posibles para el par archivos WAV de dos minutos. La barra roja de la izquierda son los dos minutos enteros del archivo WAV del ventilador suave y la barra roja y azul en la derecha muestra la proporción de tiempo pasado en cada uno de los siete entornos de escucha durante los dos minutos del archivo WAV de conversación en silencio. La sección en rojo claro representa la transición de tiempo al principio de la grabación de conversación en silencio.
La Figura 4 es un ejemplo de lo que pasa en un entorno de escucha más complejo.
Aquí podemos ver el impacto de las probabilidades de dos entornos de escucha muchos más complejos. En ambos casos, el oyente está conduciendo en el coche con tres interlocutores. A la izquierda (los 30 primeros segundos) el coche está mucho más tranquilo con un nivel general de unos 70 dB y un -10 dB SNR. Los niveles generales son mucho más difíciles en los segundos 30 segundos en una señal general de 80 dB con -15 dB SNR. Estos niveles pueden parecer casi imposibles SNRs para un usuario de audífonos, pero el ruido del coche es distintivito en casi toda la energía está a niveles de frecuencia muy bajos (por debajo de 1000 Hz). Por tanto, las SNRs parecen extremas, pero casi toda la frecuencia alta de habla está claramente audible para ambos archivos WAV.
Conforme el coche cambia de velocidades y los interlocutores empiezas y paran, las probabilidades del clasificador varían de mana amplia a lo largo de la combinación de tres entornos de escucha diferentes. Durante los primeros 30 segundos más suaves, la probabilidad más alta es la de conversación en grupo pequeño, con una media del 50% al 60%. Como se puede esperar, la conversación en ruido también se detecta, variando de un 0% a un 50%. La conversación entre mucha gente tiene una probabilidad más pequeña pero aún perceptible flotando alrededor del 15% - 20%. Una vez el nivel general sube y la SNR empeora, el sonido del ruido del coche se vuelve predominante. Conforme aumenta la velocidad del coche, la probabilidad del clasificador converge al entorno de conversación en ruido y la conversación en un grupo pequeño cae bajo del 20%.
Tómate un momento para reflejar en estos dos ejemplos. El primero es fácil. Tener comparados por marcas los audífonos de muchos fabricantes, está claro que cada uno reaccionaría similar a ambos entornos de escucha mostrados en la Figura 3.
¿Pero qué hay de los entornos mostrados en la Figura 4? Aquí es donde la filosofía juega su papel. Hay muchas cosas pasando en estos entornos de escucha y los desarrolladores tienen que tomar decisiones sobre qué hacer. Por ejemplo, ¿qué es más importante? ¿Eliminar el ruido del coche o realzar el habla? ¿A qué punto está el nivel general muy alto y no merece la pena preocuparse por el habla? ¿Se basa esa decisión en el nivel general o en la SNR? El parkour de sonido está diseñado para mirar todas estas posibilidades extraer qué decisiones relevantes se han llevado a cabo.
La Tabla 1 enumera los archivos de sonido que representan varios entornos de escucha generales que un usuario de audífonos puede encontrar en la vida real. ¿Cómo sabíamos que los archivos representaban de manera concisa los entornos de escucha diseñados? Teníamos 17 normoyentes que definieron para nosotros qué entornos de escucha pensaban que estaban mejor representados por cada archivo de sonido. (Se aceptaban respuestas múltiples.) Los archivos de sonidos fueron reproducidos en un orden aleatorio para nuestros oyentes. Escucharon cada archivo de sonido tres veces y describieron el entorno para cada repetición de cada archivo de sonido. Después pusimos en común todas las respuestas para compararlas con los clasificadores de los audífonos.
En la Tabla 2 mostramos las descripciones de nuestros oyentes humanos en comparación con los siete entornos de escucha de nuestro clasificador:
Aunque había algún solapamiento en terminología específica, había diferencias interesantes en la interpretación de lo que significaban los nombres. Había tres nombres para entornos de escucha usados tanto por los oyentes como por el clasificador: “tranquilo”, “ruido” y “música”. Sin embargo, la interpretación de cada término era a menudo bastante específica. “Tranquilo” fue usado muy frecuentemente por nuestros oyentes y a penas excedía un 3% para cualquier entorno de escucha. Por ejemplo, al archivo de sonido del ventilador en la parte de arriba de la Tabla 1 se le dio una probabilidad del 100% de “tranquilo” por nuestro clasificador mientras que el nivel general fue un mero 40 dB SPL, pero nuestros oyentes le llamaron “ruido” un 92% de las veces. También resulta interesante que nuestros oyentes nos dieron solo una probabilidad de “ruido” superior al 27% en solo otros dos entornos de escucha, los cuales ambos de ellos eran bastante altos. Todos los archivos de sonido realmente ruidosos contenían habla y por consiguiente se les dio la probabilidad más alta de “conversación en ruido” por nuestros oyentes. Lo mismo era verdad para el clasificador, a excepción que hizo una distinción en base al tipo de ruido, ya sea múltiples oradores de fondo o ruido de un motor como trenes, coches o tráfico. Ni los oyentes ni el clasificador detectaron “música” a menudo y solo lo percibían cuando era mucho más alta que el resto. Pero los oyentes ofrecieron una categoría distinta de “conversación en música” combinada con “conversación en ruido” en siete entornos donde el clasificador detectó “mucha gente” (que la había, pero el clasificador ignoró la música a favor de optimizar el habla).
La principal diferencia entre los oyentes y el clasificador no era que detectaban cosas diferentes, sino que priorizaban aspectos diferentes de los archivos de sonido o que hacían distinciones ligeramente más precisas en algunos casos. Por ejemplo, uno podía discutir con facilidad que un ventilador suave a 40 dB SPL es tanto tranquilo como un ruido. Ambas son interpretaciones correctas de un mismo entorno de escucha.
Los siguientes resultados muestran cómo los productos premium de cinco fabricantes, incluyendo Unitron, clasifican varios entornos de escucha frente a nuestros normoyentes jóvenes. Este ejercicio no trata de averiguar quién está en lo cierto; más bien, es una oportunidad de ver cómo comparan los diferentes clasificadores. Los resultados mostraron que algunos audífonos son mejores en la clasificación que otros y las diferentes filosofías entre las empresas tienden a revelar a ellas mismas.
Empecemos de nuevo con un ejemplo simple. La Figura 5 muestra cómo los jóvenes normoyentes y los cinco audífonos clasificaron un orador masculino desde el frente a 55 dB SPL.
Los diferentes fabricantes tienen diferentes esquemas de clasificación que usan distintos nombres para los entornos de escucha que clasifican. Usando sus descripciones de lo que cada uno de los destinos de escucha estaba destinado, agrupamos los títulos en cuatro categorías principales: tranquilo, conversación en ruido, ruido y música (como se muestra en la leyenda de la Figura 5). Estas cuatro categorías generales aparecen en todos los audífonos que testamos bajo un nombre u otro, pero usamos los nombres genéricos en nuestros resultados para mantener el anonimato de los fabricantes y los audífonos involucrados. Nuestros normoyentes clasificaron este archivo de sonido como escucha tranquila cerca del 98% de las veces. Los cinco audífonos hicieron lo mismo.
La Figura 6 es un poco más compleja que la Figura 5. Hay de nuevo un único orador directamente en frente del oyente, pero el nivel general del archivo de sonido es ahora de 80dB SPL con un SNR nominal de 0 dB. El ruido de fondo es un metro del Metro de Londres y los niveles variaban en función que los trenes iban llegando o partiendo.
Nuestros normoyentes clasificaron el archivo como conversación en ruido sobre el 83% de las veces. También dijeron que era ruido en un 4% de las ocasiones y tranquilo en un 10%. Teniendo en cuenta las diferencias de nivel conforme llegaban y partían los trenes, es justo decir que Unitron y el Competidor D fueron los que más cerca estaban de lo que nos dijo el joven normoyente. Le seguía el Competidor A, sin embargo, los Competidores B y C eran muy diferentes.
El fondo se vuelve incluso más complejo en la Figura 7. Aquí los oyentes estaban evaluando un orador único de frente y de fondo una zona de comidas en un centro comercial casi a la hora de comer. El nivel general era un poco más bajo de 70 dB SPL a una SNR de 0 dB. Este es un entorno de fondo complejo de mucha gente llevando muchas conversaciones a la vez y también con el sonido de las cocinas sirviendo comida y la gente caminando por ahí.
En este caso, nuestros normoyentes informaron en un 47% de los casos conversación en ruido y sobre un 50% solo ruido. El otro 3% era música. Esta vez, los resultados del clasificador varían enormemente entre los fabricantes. Mientras que todos los clasificadores ofrecían alguna combinación de conversación en ruido y ruido, los porcentajes para los Competidores A y C estaban completamente contrarios de los Competidores B y D.
Esto podría ser el ejemplo perfecto de las diferencias filosóficas en las que el Científico de Audiología de Unitron, Leonard Cornelisse llama “el punto de abandono”. Define el punto de abandono como el nivel de señal y/o SNR donde los usuarios de audífonos “dejan de” intentar seguir la conversación porque la situación se vuelve muy difícil. Por debajo del punto de abandono, el oyente trabajará para seguir lo que se está diciendo y lo reportará como conversación en ruido, esperando que el audífono enfatice la claridad del habla. Pero una vez se cruza el punto de abandono, el oyente informa que es muy difícil seguir el habla o que está muy fuerte como para oír de manera cómoda y que les gustaría que el audífono enfatizara la comodidad sobre la claridad. Cada clasificador se construye haciendo esa decisión en algún punto y es una decisión puramente acústica. (A menos que el oyente cambie de manera manual al programa para anularlo).
Lo que extraemos de la Figura 7 es que los Competidores A y C asumen un punto de abandono más alto que los competidores B y D. Tanto Unitron como los normoyentes indicaron que este entorno está bastante acertado en la línea de punto de abandono con una división cerca del 50-50 entre conversación en ruido y ruido. Este es quizás el ejemplo más retador de filosofía impactando en rendimiento. Dado que el punto de abandono para personas sin adaptar a veces varía ampliamente, ¿quién puede decir cuál de estas empresas lo conseguirá de manera totalmente acertada para un oyente en particular?
El ejemplo final es para escuchar música. En la Figura 8, vemos los resultados para música reproducida sola (sin ningún otro sonido de fondo) a un nivel de 65 dB SPL. No es un nivel alto para escuchar música y no replica una actuación en directo. Más bien, está más cerca del nivel en el cual un usuario de audífono puede escuchar música mientras cocina o lee un libro, pero un poco más fuerte que una música de fondo.
En este caso, los normoyentes, Unitron, el Competidor A y el C han indicado que esto era puramente un entorno de escucha de música. Los Competidores B y D lo clasificaron de manera diferente en al menos un 33% y 20% de las veces, respectivamente. La clasificación errónea más común en este era para habla en ruido y este es el único caso en el que un error claro e indefendible tuvo lugar. Malentender música por conversación en ruido equivale a ajustar un audífono para exactamente justo el tipo contrario del rendimiento que preferías. Es generalmente una práctica aceptada ajustar el entorno de música para una reproducción de banda ancha ligeramente procesada. Pero la conversación en ruido normalmente recibe una una gran dosis de micrófono direccional y cancelación de ruido, entre otras cosas, para reducir la amplificación en frecuencias bajas. Para ser justos, esta pérdida no era común para ninguno de los cinco clasificadores.
La escena de clasificación de sonido de los audífonos es un tema que consigue muy poca atención. Sin embargo, es uno de los componentes más importantes de la arquitectura de los audífonos. Ejecutándose de manera discreta en un segundo plano, los clasificadores toman todas las decisiones sobre qué conjunto de parámetros de procesadores son más válidos en cualquier entorno de escucha dado e impacta enormemente en cómo los usuarios oyen.
Las decisiones de clasificación se basan tanto en la filosofía como en los acústicos. Por tanto, no todos los clasificadores son iguales en todas las situaciones. La mayoría del tiempo, en concreto en las situaciones de escucha simple, casi todos los principales audífonos convergerán en resultados altamente consistentes que corresponden con cómo un normoyente clasificaría el entorno. Pero una vez el entorno de escucha se vuelve más complejo, las diferencias en filosofía, y en ocasiones en rendimiento, se vuelven más obvias.
Con SoundNav, un clasificador entrenado usando inteligencia artificial, los resultados de Unitron son altamente consistentes con nuestros jóvenes normoyentes.
Me gustaría agradecer las contribuciones del Dr. Ozmeral y el Dr. Eddins que trabajaron de cerca con nosotros para desarrollar el parkour de sonido y realizar la recopilación de datos en su laboratorio en la University of South Florida.
Büchler, M., Allegro, S., Launer, S., & Dillier, S. (2005). Sound classification in hearing aids inspired by auditory scene analysis. EURASIP Journal on Applied Signal Processing, 18, 2991–3002.
Kates, J. M. (1995). Classification of background noises for hearing-aid applications. J Acoust Soc Am, 97(1), 461-470.
Lamarche, L., Giguere, C., Gueaieb, W., Aboulnasr, T., & Othman, H. (2010). Adaptive environment classification system for hearing aids. J Acoust Soc Am, 127(5), 3124-3135. doi:10.1121/1.3365301
Nordqvist, P., & Leijon, A. (2004). An efficient robust sound classification algorithm for hearing aids. J Acoust Soc Am, 115(6), 3033-3041.