stringtranslate.com

Envolvente temporal y estructura fina

La envolvente temporal (ENV) y la estructura fina temporal (TFS) son cambios en la amplitud y frecuencia del sonido percibido por los humanos a lo largo del tiempo. Estos cambios temporales son responsables de varios aspectos de la percepción auditiva, incluida la sonoridad , la percepción del tono y el timbre y la audición espacial .

Los sonidos complejos, como el habla o la música, son descompuestos por el sistema auditivo periférico de los humanos en bandas de frecuencia estrechas. Las señales de banda estrecha resultantes transmiten información en diferentes escalas de tiempo que van desde menos de un milisegundo a cientos de milisegundos. Se ha propuesto una dicotomía entre señales lentas de "envolvente temporal" y señales más rápidas de "estructura fina temporal" para estudiar varios aspectos de la percepción auditiva (por ejemplo, volumen , percepción de tono y timbre , análisis de escenas auditivas , localización de sonidos ) en dos escalas de tiempo distintas en cada banda de frecuencia. [1] [2] [3] [4] [5] [6] [7] Durante las últimas décadas, una gran cantidad de estudios psicofísicos, electrofisiológicos y computacionales basados ​​en esta dicotomía envoltura/estructura fina han examinado el papel de estas señales temporales en la identificación y comunicación de sonidos, cómo estas señales temporales son procesadas por el sistema auditivo periférico y central, y los efectos del envejecimiento y el daño coclear en el procesamiento auditivo temporal. Aunque la dicotomía envoltura/estructura fina ha sido debatida y aún quedan preguntas sobre cómo se codifican realmente las señales de estructura fina temporales en el sistema auditivo, estos estudios han dado lugar a una serie de aplicaciones en varios campos, incluido el procesamiento del habla y el audio, la audiología clínica y la rehabilitación de la pérdida auditiva neurosensorial mediante audífonos o implantes cocleares .

Definición

Salidas de filtros cocleares simulados centrados en 364, 1498 y 4803 Hz (de abajo hacia arriba) en respuesta a un segmento de una señal de voz, el sonido “en” en “sense”. Estas salidas de filtro son similares a las formas de onda que se observarían en lugares de la membrana basilar sintonizados a 364, 1498 y 4803 Hz. Para cada frecuencia central, la señal puede considerarse como una envolvente de variación lenta (E BM ) impuesta sobre una estructura fina temporal más rápida (TFS BM ). La envolvente para cada señal de banda se muestra mediante la línea gruesa.

Las nociones de envoltura temporal y estructura fina temporal pueden tener significados diferentes en muchos estudios. Es importante hacer una distinción entre la descripción física (es decir, acústica) y biológica (o perceptual) de estas señales ENV y TFS.

Representación esquemática de los tres niveles de señales de envoltura temporal (ENV) y estructura fina temporal (TFS) transmitidas por una señal de banda limitada procesada por el sistema auditivo periférico.

Cualquier sonido cuyos componentes de frecuencia cubran un rango estrecho (llamado señal de banda estrecha) puede considerarse como una envolvente (ENV p , donde p denota la señal física) superpuesta a una portadora que oscila más rápidamente, la estructura fina temporal (TFS p ). [8]

Muchos sonidos de la vida cotidiana, incluidos el habla y la música, son de banda ancha; los componentes de frecuencia se extienden en un amplio rango y no hay una forma bien definida de representar la señal en términos de ENV p y TFS p . Sin embargo, en una cóclea que funciona normalmente , las señales de banda ancha complejas se descomponen mediante el filtrado en la membrana basilar (BM) dentro de la cóclea en una serie de señales de banda estrecha. [9] Por lo tanto, la forma de onda en cada lugar de la BM puede considerarse como una envolvente (ENV BM ) superpuesta a una portadora que oscila más rápidamente, la estructura fina temporal (TFS BM ). [10] La ENV BM y la TFS BM dependen del lugar a lo largo de la BM. En el extremo apical, que está sintonizado a frecuencias bajas (audio), ENV BM y TFS BM varían relativamente lentamente con el tiempo, mientras que en el extremo basal, que está sintonizado a frecuencias altas, tanto ENV BM como TFS BM varían más rápidamente con el tiempo. [10]

Tanto ENV BM como TFS BM están representados en los patrones temporales de potenciales de acción en el nervio auditivo [11], estos se denotan ENV n y TFS n . TFS n está representado de manera más prominente en neuronas sintonizadas a frecuencias bajas, mientras que ENV n está representado de manera más prominente en neuronas sintonizadas a frecuencias altas (audio). [11] [12] Para una señal de banda ancha, no es posible manipular TFS p sin afectar ENV BM y ENV n , y no es posible manipular ENV p sin afectar TFS BM y TFS n . [13] [14]

Procesamiento de envolvente temporal (ENV)

Aspectos neurofisiológicos

Ejemplos de señales moduladas en amplitud y frecuencia sinusoidalmente

La representación neuronal de la envolvente del estímulo, ENV n , se ha estudiado típicamente utilizando modulaciones ENV p bien controladas , es decir, sonidos modulados en amplitud (AM) sinusoidalmente. El filtrado coclear limita el rango de frecuencias AM codificadas en fibras individuales del nervio auditivo . En el nervio auditivo, la fuerza de la representación neuronal de AM disminuye con el aumento de la frecuencia de modulación. A nivel del núcleo coclear , varios tipos de células muestran una mejora de la información ENV n . Las células multipolares pueden mostrar una sintonización de paso de banda a tonos AM con frecuencias AM entre 50 y 1000 Hz. [15] [16] Algunas de estas células muestran una excelente respuesta a ENV n y proporcionan entradas de banda lateral inhibidoras a otras células en el núcleo coclear dando un correlato fisiológico de liberación del enmascaramiento de comodulación, un fenómeno por el cual la detección de una señal en un enmascarador se mejora cuando el enmascarador tiene fluctuaciones de envolvente correlacionadas a través de la frecuencia (ver la sección a continuación). [17] [18]

Las respuestas a las señales de la envoltura temporal del habla u otros sonidos complejos persisten a lo largo de la vía auditiva, hasta llegar a los diversos campos de la corteza auditiva en muchos animales. En la corteza auditiva primaria , las respuestas pueden codificar frecuencias AM mediante bloqueo de fase hasta aproximadamente 20-30 Hz, [19] [20] [21] [22] mientras que frecuencias más rápidas inducen respuestas sostenidas y a menudo sintonizadas. [23] [24] Se ha demostrado una representación topográfica de la frecuencia AM en la corteza auditiva primaria de macacos despiertos. [25] Esta representación es aproximadamente perpendicular al eje del gradiente tonotópico, lo que es coherente con una organización ortogonal de las características espectrales y temporales en la corteza auditiva. La combinación de estas respuestas temporales con la selectividad espectral de las neuronas A1 da lugar a los campos receptivos espectrotemporales que a menudo capturan bien las respuestas corticales a sonidos modulados complejos. [26] [27] En los campos corticales auditivos secundarios, las respuestas se vuelven temporalmente más lentas y espectralmente más amplias, pero aún son capaces de sincronizarse con las características salientes del habla y los sonidos musicales. [28] [29] [30] [31] La sintonización con frecuencias AM por debajo de aproximadamente 64 Hz también se encuentra en la corteza auditiva humana [32] [33] [34] [35] como lo revelan las técnicas de imágenes cerebrales ( fMRI ) y los registros corticales en pacientes epilépticos ( electrocorticografía ). Esto es consistente con los estudios neuropsicológicos de pacientes con daño cerebral [36] y con la noción de que el sistema auditivo central realiza alguna forma de descomposición espectral del ENV p de los sonidos entrantes. Se ha demostrado que los rangos en los que las respuestas corticales codifican bien las señales de la envoltura temporal del habla son predictivos de la capacidad humana para comprender el habla. En el giro temporal superior (GTS) humano, se ha encontrado una organización espacial anteroposterior de ajuste de modulación espectrotemporal en respuesta a los sonidos del habla, estando el GTS posterior ajustado para sonidos del habla que varían rápidamente en el tiempo con modulaciones espectrales bajas y el GTS anterior ajustado para sonidos del habla que varían lentamente en el tiempo con modulaciones espectrales altas. [37]

Un aspecto inesperado del bloqueo de fase en la corteza auditiva se ha observado en las respuestas provocadas por estímulos acústicos complejos con espectrogramas que presentan envolventes relativamente lentas (<20 Hz), pero que son transportados por modulaciones rápidas de hasta cientos de hercios. El habla y la música, así como diversos estímulos de ruido modulado, tienen esa estructura temporal. [38] Para estos estímulos, las respuestas corticales se bloquean en fase tanto con la envolvente como con la estructura fina inducidas por interacciones entre armónicos no resueltos del sonido, reflejando así el tono del sonido y superando los límites inferiores típicos del bloqueo de fase cortical con las envolventes de unas pocas decenas de hercios. Esta relación paradójica [38] [39] entre el bloqueo de fase cortical lento y rápido con la “estructura fina” portadora se ha demostrado tanto en las cortezas auditiva [38] como visual [40] . También se ha demostrado que se manifiesta ampliamente en mediciones de los campos receptivos espectrotemporales de la corteza auditiva primaria, lo que les otorga una precisión temporal inesperadamente fina y una selectividad que bordea una resolución de 5 a 10 ms. [38] [40] Las causas subyacentes de este fenómeno se han atribuido a varios orígenes posibles, incluida la depresión y facilitación sináptica no lineal, y/o una red cortical de excitación talámica e inhibición cortical. [38] [41] [42] [43] Hay muchas razones funcionalmente significativas y perceptualmente relevantes para la coexistencia de estos dos modos de respuesta dinámica complementarios. Incluyen la capacidad de codificar con precisión los inicios y otros "eventos" rápidos en el ENV p de señales acústicas y sensoriales complejas, características que son críticas para la percepción de consonantes (habla) y sonidos percusivos (música), así como la textura de sonidos complejos. [38] [44]

Aspectos psicoacústicos

La percepción de ENV p depende de las frecuencias de AM que contiene la señal. Las frecuencias bajas de AM, en el rango de 1 a 8 Hz, se perciben como cambios en la intensidad percibida, es decir, fluctuaciones de volumen (una percepción que también puede ser evocada por la modulación de frecuencia, FM); a frecuencias más altas, la AM se percibe como aspereza, y la mayor sensación de aspereza se produce alrededor de los 70 Hz; [45] a frecuencias aún más altas, la AM puede evocar una percepción de tono débil correspondiente a la frecuencia de modulación. [46] Las tormentas de lluvia, el crepitar del fuego, el chirrido de los grillos o los caballos al galope producen "texturas de sonido" -el resultado colectivo de muchos eventos acústicos similares- cuya percepción está mediada por las estadísticas de ENV n . [47] [48]

El umbral de detección auditiva para AM en función de la frecuencia de AM, denominado función de transferencia de modulación temporal (TMTF), [49] es mejor para frecuencias de AM en el rango de 4 a 150 Hz y empeora fuera de ese rango [49] [50] [51] La frecuencia de corte de la TMTF brinda una estimación de la agudeza temporal (resolución temporal) para el sistema auditivo. Esta frecuencia de corte corresponde a una constante de tiempo de aproximadamente 1 a 3 ms para el sistema auditivo de humanos con audición normal.

Las fluctuaciones de envolvente correlacionadas a través de la frecuencia en un enmascarador pueden ayudar a la detección de una señal de tono puro, un efecto conocido como liberación de enmascaramiento de comodulación. [18]

La AM aplicada a una portadora dada puede interferir perceptualmente con la detección de una AM objetivo impuesta en la misma portadora, un efecto denominado enmascaramiento de modulación . [52] [53] Los patrones de enmascaramiento de modulación están ajustados (se produce un mayor enmascaramiento para las AM de enmascaramiento y objetivo cercanas en tasa de modulación), lo que sugiere que el sistema auditivo humano está equipado con canales selectivos de frecuencia para AM. Además, la AM aplicada a portadoras espectralmente remotas puede interferir perceptualmente con la detección de AM en un sonido objetivo, un efecto denominado interferencia de detección de modulación . [54] La noción de canales de modulación también está respaldada por la demostración de efectos de adaptación selectiva en el dominio de la modulación. [55] [56] [57] Estos estudios muestran que los umbrales de detección de AM se elevan selectivamente por encima de los umbrales de preexposición cuando la frecuencia de la portadora y la tasa de AM del adaptador son similares a las del tono de prueba.

Los oyentes humanos son sensibles a las señales AM de "segundo orden" relativamente lentas que corresponden a fluctuaciones en la intensidad de la AM. Estas señales surgen de la interacción de diferentes tasas de modulación, descritas previamente como "latidos" en el dominio de la frecuencia de la envolvente. La percepción de la AM de segundo orden se ha interpretado como resultado de mecanismos no lineales en la vía auditiva que producen un componente de distorsión audible en la frecuencia de batido de la envolvente en el espectro de modulación interna de los sonidos. [58] [59] [60]

Las diferencias de tiempo interaural en la envolvente proporcionan señales binaurales incluso en frecuencias altas donde no se puede utilizar TFS n . [61]

Modelos de procesamiento de envolventes normales

Diagrama de la parte común del modelo de percepción envolvente de Torsten Dau y EPSM.

El modelo informático más básico del procesamiento de ENV es el modelo de integrador con fugas . [62] [49] Este modelo extrae la envolvente temporal del sonido (ENV p ) mediante filtrado de paso de banda, rectificación de media onda (que puede ir seguida de una compresión de amplitud de acción rápida ) y filtrado de paso bajo con una frecuencia de corte entre aproximadamente 60 y 150 Hz. El integrador con fugas se utiliza a menudo con una estadística de decisión basada en la potencia de envolvente resultante, la relación máx./mín. o el factor de cresta. Este modelo tiene en cuenta la pérdida de sensibilidad auditiva para frecuencias de AM superiores a aproximadamente 60–150 Hz para portadoras de ruido de banda ancha. [49] Basado en el concepto de selectividad de frecuencia para AM, [53] el modelo de percepción de Torsten Dau [63] incorpora filtros de modulación de paso de banda ampliamente sintonizados (con un valor Q alrededor de 1) para tener en cuenta los datos de una amplia variedad de tareas psicoacústicas y, en particular, la detección de AM para portadores de ruido con diferentes anchos de banda, teniendo en cuenta sus fluctuaciones de envolvente intrínsecas. Este modelo se ha ampliado para tener en cuenta la liberación del enmascaramiento de comodulación (ver las secciones anteriores). [64] Se han estimado las formas de los filtros de modulación [65] y un "modelo de espectro de potencia de envolvente" (EPSM) basado en estos filtros puede tener en cuenta los patrones de enmascaramiento de AM y la discriminación de profundidad de AM. [66] El EPSM se ha ampliado a la predicción de la inteligibilidad del habla [67] y para tener en cuenta los datos de una amplia variedad de tareas psicoacústicas. [68] También se ha desarrollado un modelo de procesamiento basado en la fisiología que simula las respuestas del tronco encefálico para tener en cuenta la detección de AM y los patrones de enmascaramiento de AM. [69]

Procesamiento de estructura fina temporal (TFS)

Aspectos neurofisiológicos

Bloqueo de fase registrado en una neurona del núcleo coclear en respuesta a un estímulo acústico sinusoidal a la mejor frecuencia de la célula (en este caso, 240 Hz). El estímulo se encontraba aproximadamente 20 dB por encima de la mejor frecuencia de la neurona. Las salidas neuronales (potenciales de acción) se muestran en el trazo superior y la forma de onda del estímulo en el trazo inferior.

Se ha estudiado la representación neuronal de la estructura fina temporal, TFS n , utilizando estímulos con TFS p bien controlado : tonos puros, tonos complejos armónicos y tonos de frecuencia modulada (FM).

Las fibras del nervio auditivo pueden representar sonidos de baja frecuencia a través de sus descargas bloqueadas en fase (es decir, información TFS n ). El límite superior de frecuencia para el bloqueo de fase depende de la especie. Es de aproximadamente 5 kHz en el gato, 9 kHz en la lechuza común y solo 4 kHz en el conejillo de Indias. No conocemos el límite superior del bloqueo de fase en humanos, pero las estimaciones indirectas actuales sugieren que es de aproximadamente 4-5 kHz. [70] El bloqueo de fase es una consecuencia directa del proceso de transducción con un aumento en la probabilidad de apertura del canal de transducción que ocurre con un estiramiento de los estereocilios y una disminución en la apertura del canal que ocurre cuando se empuja en la dirección opuesta. Esto ha llevado a algunos a sugerir que el bloqueo de fase es un epifenómeno. El límite superior parece estar determinado por una cascada de filtros de paso bajo a nivel de la célula pilosa interna y la sinapsis del nervio auditivo . [71] [72]

La información TFS n en el nervio auditivo se puede utilizar para codificar la frecuencia (de audio) de sonidos de baja frecuencia, incluidos tonos simples y estímulos más complejos, como tonos de frecuencia modulada o vocales de estado estable (ver función y aplicaciones al habla y la música).

El sistema auditivo hace un cierto esfuerzo para preservar esta información TFS n con la presencia de sinapsis gigantes (bulbos terminales de Held) en el núcleo coclear ventral . Estas sinapsis contactan con células tupidas (esféricas y globulares) y transmiten fielmente (o mejoran) la información temporal presente en las fibras del nervio auditivo a estructuras superiores en el tronco encefálico . [73] Las células tupidas se proyectan a la oliva superior medial y las células globulares se proyectan al núcleo medial del cuerpo trapezoidal (MNTB). El MNTB también se caracteriza por sinapsis gigantes (cálices de Held) y proporciona inhibición sincronizada con precisión a la oliva superior lateral . La oliva superior medial y lateral y el MNTB están involucrados en la codificación de las diferencias de intensidad y tiempo interaurales. Existe una aceptación general de que la información temporal es crucial en la localización del sonido, pero aún es polémico si se utiliza la misma información temporal para codificar la frecuencia de sonidos complejos.

La idea de que el TFS n es importante para la representación de los componentes de frecuencia de sonidos complejos sigue planteando varios problemas. El primer problema es que la información temporal se deteriora a medida que pasa por las sucesivas etapas de la vía auditiva (probablemente debido al filtrado dendrítico de paso bajo). Por lo tanto, el segundo problema es que la información temporal debe extraerse en una etapa temprana de la vía auditiva. Hasta el momento no se ha identificado ninguna etapa de ese tipo, aunque existen teorías sobre cómo se puede convertir la información temporal en información de frecuencia (véase la sección Modelos de procesamiento normal: Limitaciones).

Aspectos psicoacústicos

A menudo se supone que muchas capacidades perceptivas dependen de la capacidad del sistema auditivo monoaural y binaural para codificar y utilizar las señales TFS n evocadas por componentes en sonidos con frecuencias inferiores a aproximadamente 1–4 kHz. Estas capacidades incluyen la discriminación de frecuencia, [74] [4] [75] [76] la discriminación de la frecuencia fundamental de los sonidos armónicos, [75] [4] [76] la detección de FM a frecuencias inferiores a 5 Hz, [77] el reconocimiento de melodías para secuencias de tonos puros y tonos complejos, [74] [4] la lateralización y localización de tonos puros y tonos complejos, [78] y la segregación de sonidos armónicos concurrentes (como los sonidos del habla). [79] Parece que las señales TFS n requieren una representación tonotópica ( de lugar ) correcta para ser procesadas de forma óptima por el sistema auditivo. [80] Además, se ha demostrado la percepción del tono musical para tonos complejos con todos los armónicos por encima de 6 kHz, lo que demuestra que no depende completamente del bloqueo de fase neuronal con las señales TFS BM (es decir, TFS n ). [81]

En cuanto a la detección de FM, la visión actual supone que en el sistema auditivo normal, FM se codifica a través de señales TFS n cuando la tasa de FM es baja (<5 Hz) y cuando la frecuencia portadora está por debajo de aproximadamente 4 kHz, [77] [82] [83] [84] y a través de señales ENV n cuando la FM es rápida o cuando la frecuencia portadora es superior a 4 kHz. [77] [85] [86] [87] [84] Esto está respaldado por grabaciones de una sola unidad en el tronco encefálico inferior. [73] Según este punto de vista, las señales TFS n no se utilizan para detectar FM con tasas superiores a aproximadamente 10 Hz porque el mecanismo de decodificación de la información TFS n es "lento" y no puede rastrear cambios rápidos en la frecuencia. [77] Varios estudios han demostrado que la sensibilidad auditiva a FM lenta a baja frecuencia portadora está asociada con la identificación del habla tanto para individuos con audición normal como para individuos con discapacidad auditiva cuando la recepción del habla está limitada por degradaciones acústicas (p. ej., filtrado) o sonidos del habla concurrentes. [88] [89] [90] [91] [92] Esto sugiere que la inteligibilidad robusta del habla está determinada por el procesamiento preciso de las señales TFS n .

Modelos de procesamiento normal: limitaciones

La separación de un sonido en ENV p  y TFS p parece inspirada en parte por cómo se sintetizan los sonidos y por la disponibilidad de una forma conveniente de separar un sonido existente en ENV y TFS, a saber, la transformada de Hilbert . Existe el riesgo de que esta visión del procesamiento auditivo [93] esté dominada por estos conceptos físicos/técnicos, de manera similar a cómo el mapeo coclear de frecuencia a lugar se conceptualizó durante mucho tiempo en términos de la transformada de Fourier . Fisiológicamente, no hay indicación de una separación de ENV y TFS en el sistema auditivo para etapas hasta el núcleo coclear . Solo en esa etapa parece que las vías paralelas, que potencialmente mejoran la información ENV n o TFS n (o algo similar), pueden implementarse a través de las características de respuesta temporal de diferentes tipos de células del núcleo coclear. [73] Por lo tanto, puede ser útil simular mejor los tipos de células del núcleo coclear para comprender los verdaderos conceptos para el procesamiento paralelo creado a nivel del núcleo coclear. Estos conceptos pueden estar relacionados con la separación de ENV y TFS, pero es poco probable que se realicen como la transformada de Hilbert.

Un modelo computacional del sistema auditivo periférico [94] [95] puede utilizarse para simular las respuestas de las fibras del nervio auditivo a sonidos complejos como el habla, y cuantificar la transmisión (es decir, la representación interna) de las señales ENV n y TFS n . En dos estudios de simulación, [96] [97] la información de la tasa media y del tiempo de pico se cuantificó en la salida de dicho modelo para caracterizar, respectivamente, la tasa a corto plazo de activación neuronal (ENV n ) y el nivel de sincronización debido al bloqueo de fase (TFS n ) en respuesta a los sonidos del habla degradados por vocoders. [98] [99] Las mejores predicciones del modelo de inteligibilidad del habla vocodificada se encontraron cuando se incluyeron las señales ENV n y TFS n , lo que proporciona evidencia de que las señales TFS n son importantes para la inteligibilidad cuando las señales ENV p del habla se degradan.

En un nivel más fundamental, se utilizó un modelo computacional similar para demostrar que la dependencia funcional de las diferencias de frecuencia apenas perceptibles en los humanos con respecto a la frecuencia de tonos puros no se tenía en cuenta a menos que se incluyera información temporal (en particular, la mayoría de las frecuencias medias y altas, incluso por encima del límite nominal en el bloqueo de fase fisiológica). [100] [101] Sin embargo, una salvedad de la mayoría de los modelos TFS es que el rendimiento óptimo del modelo con información temporal generalmente sobreestima el rendimiento humano.

Una visión alternativa es suponer que la información TFS n a nivel del nervio auditivo se convierte en información de frecuencia-lugar (ENV n ) en una etapa posterior del sistema auditivo (por ejemplo, el tronco encefálico inferior). Varios estudios de modelado propusieron que los mecanismos neuronales para decodificar TFS n se basan en la correlación de las salidas de lugares adyacentes. [102] [103] [104] [105] [106]

Papel en el habla y la percepción musical

Papel de la envoltura temporal en la percepción del habla y de la música

Espectros de modulación de amplitud (izquierda) y espectros de modulación de frecuencia (derecha), calculados sobre un corpus de oraciones en inglés o francés. [107]

La ENV p desempeña un papel fundamental en muchos aspectos de la percepción auditiva, incluida la percepción del habla y la música. [2] [7] [108] [109] El reconocimiento del habla es posible utilizando señales relacionadas con la ENV p , incluso en situaciones en las que la información espectral original y la TFS p están muy degradadas. [110] De hecho, cuando la TFS p espectralmente local de una oración se combina con la ENV p de una segunda oración, solo se escuchan las palabras de la segunda oración. [111] Las frecuencias ENV p más importantes para el habla son las inferiores a unos 16 Hz, que corresponden a fluctuaciones a la velocidad de las sílabas. [112] [107] [113] Por otro lado, el contorno de frecuencia fundamental (" tono ") de los sonidos del habla se transmite principalmente a través de señales TFS p , [107] aunque se puede percibir cierta información sobre el contorno a través de fluctuaciones rápidas de la envolvente correspondientes a la frecuencia fundamental. [2] En el caso de la música, las frecuencias ENV lentas transmiten información sobre el ritmo y el tempo, mientras que las frecuencias más rápidas transmiten las propiedades de inicio y fin del sonido (ataque y decaimiento, respectivamente) que son importantes para la percepción del timbre. [114]

Papel del TFS en la percepción del habla y de la música

Se cree que la capacidad de procesar con precisión la información de TFS p desempeña un papel en nuestra percepción del tono (es decir, la altura percibida de los sonidos), una sensación importante para la percepción de la música, así como en nuestra capacidad de comprender el habla, especialmente en presencia de ruido de fondo. [4]

Papel del TFS en la percepción del tono

Aunque los mecanismos de recuperación de tono en el sistema auditivo aún son un tema de debate, [76] [115] la información TFS n puede usarse para recuperar el tono de tonos puros de baja frecuencia [75] y estimar las frecuencias individuales de los armónicos de bajo número (aproximadamente del 1.º al 8.º) de un sonido complejo, [116] frecuencias de las cuales se puede recuperar la frecuencia fundamental del sonido según, por ejemplo, modelos de coincidencia de patrones de percepción de tono. [117] También se ha sugerido un papel de la información TFS n en la percepción de tono de sonidos complejos que contienen armónicos intermedios (aproximadamente del 7.º al 16.º) [118] y puede explicarse mediante modelos temporales o espectrotemporales [119] de percepción de tono. Las señales TFS n degradadas transmitidas por los dispositivos de implante coclear también pueden ser parcialmente responsables de la percepción musical deteriorada de los receptores de implantes cocleares. [120]

Papel de las señales TFS en la percepción del habla

Se cree que las señales TFS p son importantes para la identificación de hablantes y para la identificación de tonos en idiomas tonales . [121] Además, varios estudios de vocoder han sugerido que las señales TFS p contribuyen a la inteligibilidad del habla en silencio y ruido. [98] Aunque es difícil aislar las señales TFS p de las señales ENV p , [109] [122] hay evidencia de estudios en oyentes con problemas auditivos de que la percepción del habla en presencia de ruido de fondo puede explicarse en parte por la capacidad de procesar con precisión TFS p , [92] [99] aunque la capacidad de "escuchar en las caídas" de enmascaradores fluctuantes no parece depender de señales TFS p periódicas . [123]

Papel en la percepción del sonido ambiental

Los sonidos ambientales pueden definirse en términos generales como sonidos no verbales ni musicales en el entorno del oyente que pueden transmitir información significativa sobre los objetos y eventos circundantes. [124] Los sonidos ambientales son altamente heterogéneos en términos de sus características acústicas y tipos de fuente, y pueden incluir vocalizaciones humanas y animales, eventos relacionados con el agua y el clima, sonidos de señalización mecánica y electrónica. Dada la gran variedad de fuentes de sonido que dan lugar a sonidos ambientales, tanto ENV p como TFS p desempeñan un papel importante en su percepción. Sin embargo, las contribuciones relativas de ENV p y TFS p pueden diferir considerablemente para sonidos ambientales específicos. Esto se refleja en la variedad de medidas acústicas que se correlacionan con diferentes características perceptivas de objetos y eventos. [125] [126] [127]

Los primeros estudios destacaron la importancia de los patrones temporales basados ​​en la envolvente en la percepción de eventos ambientales. Por ejemplo, Warren y Verbrugge demostraron que los sonidos construidos de una botella de vidrio que se dejaba caer al suelo se percibían como si rebotasen cuando las regiones de alta energía en cuatro bandas de frecuencia diferentes se alineaban temporalmente, lo que producía picos de amplitud en la envolvente. [128] Por el contrario, cuando la misma energía espectral se distribuía aleatoriamente entre las bandas, los sonidos se escuchaban como si se rompieran. Estudios más recientes que utilizaron simulaciones de vocoder del procesamiento de implantes cocleares demostraron que muchos sonidos con patrones temporales se pueden percibir con poca información espectral original, basándose principalmente en señales temporales. [126] [127] Sonidos como pasos, caballos galopando, helicópteros volando, jugar al ping-pong, aplausos, mecanografía se identificaron con una alta precisión del 70% o más con un solo canal de ruido de banda ancha modulado por envolvente o con solo dos canales de frecuencia. En estos estudios, las medidas acústicas basadas en la envolvente, como el número de ráfagas y picos en la envolvente, fueron predictivas de las capacidades de los oyentes para identificar sonidos basados ​​principalmente en pistas ENV p . Por otro lado, la identificación de sonidos ambientales breves sin un patrón temporal fuerte en ENV p puede requerir un número mucho mayor de canales de frecuencia para ser percibidos. Sonidos como la bocina de un automóvil o el silbato de un tren se identificaron mal incluso con hasta 32 canales de frecuencia. [126] Los oyentes con implantes cocleares, que transmiten información de la envolvente para bandas de frecuencia específicas, pero no transmiten TFS p , tienen capacidades considerablemente reducidas para la identificación de sonidos ambientales comunes. [129] [130] [131]

Además, los sonidos ambientales individuales suelen escucharse en el contexto de escenas auditivas más amplias en las que los sonidos de múltiples fuentes pueden superponerse en el tiempo y la frecuencia. Cuando se escuchan dentro de una escena auditiva, la identificación precisa de los sonidos ambientales individuales depende de la capacidad de separarlos de otras fuentes de sonido o flujos auditivos en la escena auditiva, lo que implica una mayor dependencia de las señales ENV p y TFS p (consulte Función en el análisis de escenas auditivas).

Papel en el análisis de la escena auditiva

El análisis de la escena auditiva se refiere a la capacidad de percibir por separado sonidos provenientes de diferentes fuentes. Cualquier diferencia acústica puede potencialmente conducir a una segregación auditiva, [132] y por lo tanto, cualquier señal basada en ENV p o TFS p es probable que ayude a segregar fuentes de sonido en competencia. [133] Dichas señales involucran percepciones como el tono. [134] [135] [136] [137] Las señales TFS p binaurales que producen diferencias de tiempo interaurales no siempre han resultado en una segregación clara de la fuente, particularmente con fuentes presentadas simultáneamente, aunque se ha informado de una segregación exitosa de sonidos secuenciales, como el ruido o el habla. [138]

Efectos de la edad y la pérdida auditiva en el procesamiento de la envolvente temporal

Aspectos del desarrollo

En la infancia, los umbrales de detección de AM conductuales [139] y los umbrales de enmascaramiento hacia adelante o hacia atrás [139] [140] [141] observados en niños de 3 meses son similares a los observados en adultos. Los estudios electrofisiológicos realizados en bebés de 1 mes utilizando tonos puros de AM de 2000 Hz indican cierta inmadurez en la respuesta de seguimiento de envolvente (EFR). Aunque los bebés dormidos y los adultos sedados muestran el mismo efecto de la tasa de modulación en la EFR, las estimaciones de los bebés fueron generalmente peores que las de los adultos. [142] [143] Esto es consistente con los estudios conductuales realizados con niños en edad escolar que muestran diferencias en los umbrales de detección de AM en comparación con los adultos. Los niños muestran sistemáticamente peores umbrales de detección de AM que los adultos hasta los 10-11 años. Sin embargo, la forma del TMTF (el punto de corte) es similar a la de los adultos para niños más pequeños de 5 años. [144] [145] Los factores sensoriales versus no sensoriales para esta larga maduración aún son debatidos, [146] pero los resultados generalmente parecen depender más de la tarea o de la complejidad del sonido para bebés y niños que para adultos. [147] Con respecto al desarrollo del procesamiento ENV p del habla , los estudios con vocoder sugieren que bebés de tan solo 3 meses pueden discriminar un cambio en consonantes cuando se conserva la información ENV p más rápida de las sílabas (< 256 Hz), pero menos cuando solo está disponible la ENV p más lenta (< 8 Hz). [148] Los niños mayores de 5 años muestran habilidades similares a los adultos para discriminar cambios de consonantes basados ​​en señales ENV p (< 64 Hz). [149]

Aspectos neurofisiológicos

En general, se cree que los efectos de la pérdida auditiva y la edad en la codificación neuronal son menores para las respuestas de envoltura que varían lentamente (es decir, ENV n ) que para la estructura fina temporal que varía rápidamente (es decir, TFS n ). [150] [151] Se ha observado una codificación ENV n mejorada después de la pérdida auditiva inducida por ruido en las respuestas auditivas periféricas de neuronas individuales [152] y en las respuestas evocadas centrales del mesencéfalo auditivo. [153] La mejora en la codificación ENV n de sonidos de banda estrecha ocurre en todo el rango de frecuencias de modulación codificadas por neuronas individuales. [154] Para los sonidos de banda ancha, el rango de frecuencias de modulación codificadas en respuestas deterioradas es más amplio de lo normal (se extiende a frecuencias más altas), como se esperaba de la selectividad de frecuencia reducida asociada con la disfunción de las células ciliadas externas. [155] La mejora observada en las respuestas de la envoltura neuronal es consistente con una percepción auditiva mejorada de las modulaciones después del daño coclear, que comúnmente se cree que resulta de la pérdida de la compresión coclear que ocurre con la disfunción de las células ciliadas externas debido a la edad o la sobreexposición al ruido. [156]  Sin embargo, la influencia de la disfunción de las células ciliadas internas (por ejemplo, un crecimiento de la respuesta más superficial para el daño leve a moderado y un crecimiento más pronunciado para el daño grave) puede confundir los efectos de la disfunción de las células ciliadas externas en el crecimiento de la respuesta general y, por lo tanto, en la codificación ENV n . [152] [157] Por lo tanto, no es sorprendente que los efectos relativos de la disfunción de las células ciliadas externas y de las células ciliadas internas se hayan predicho con modelos para crear diferencias individuales en la inteligibilidad del habla en función de la fuerza de la codificación de la envoltura del habla en relación con el ruido.

Aspectos psicoacústicos

Para las portadoras sinusoidales, que no tienen fluctuaciones de envolvente intrínseca (ENV p ), la TMTF es aproximadamente plana para frecuencias de AM de 10 a 120 Hz, pero aumenta (es decir, el umbral empeora) para frecuencias de AM más altas, [51] [158] siempre que las bandas laterales espectrales no sean audibles. La forma de la TMTF para las portadoras sinusoidales es similar para personas jóvenes y mayores con umbrales audiométricos normales, pero las personas mayores tienden a tener umbrales de detección más altos en general, lo que sugiere una "eficiencia de detección" más pobre para las señales ENV n en las personas mayores. [159] [160] Siempre que la portadora sea completamente audible, la capacidad de detectar AM no suele verse afectada negativamente por la pérdida auditiva coclear y, a veces, puede ser mejor que lo normal, tanto para las portadoras de ruido [161] [162] como para las portadoras sinusoidales, [158] [163] quizás porque el reclutamiento de sonoridad (un crecimiento anormalmente rápido de la sonoridad con el aumento del nivel de sonido) "magnifica" la cantidad percibida de AM (es decir, las señales ENV n ). En consonancia con esto, cuando la AM es claramente audible, un sonido con una profundidad de AM fija parece fluctuar más para un oído afectado que para un oído normal. Sin embargo, la capacidad de detectar cambios en la profundidad de AM puede verse afectada por la pérdida auditiva coclear. [163] El habla que se procesa con un vocoder de ruido de modo que principalmente la información de la envolvente se entrega en múltiples canales espectrales también se utilizó para investigar el procesamiento de la envolvente en la discapacidad auditiva. En este caso, las personas con problemas de audición no pudieron utilizar dicha información de la envolvente tan bien como las personas con audición normal, incluso después de tener en cuenta los factores de audibilidad. [164] Experimentos adicionales sugieren que la edad afecta negativamente el procesamiento binaural de ENV p al menos en frecuencias de audio bajas. [165]

Modelos de procesamiento deficiente de la envoltura temporal

El modelo de percepción del procesamiento de ENV [63] que incorpora filtros AM selectivos (paso de banda) explica muchas consecuencias perceptivas de la disfunción coclear, incluyendo una mayor sensibilidad a la AM para portadores sinusoidales y de ruido, [166] [167] enmascaramiento directo anormal (la tasa de recuperación del enmascaramiento directo es generalmente más lenta de lo normal para oyentes con discapacidades), [168] efectos de interferencia más fuertes entre AM y FM [82] e integración temporal mejorada de AM. [167] El modelo de Torsten Dau [63] se ha ampliado para explicar la discriminación de patrones AM complejos por parte de personas con discapacidad auditiva y los efectos de los sistemas de reducción de ruido. [169] El rendimiento de las personas con discapacidad auditiva se capturó mejor cuando el modelo combinó la pérdida de compresión de amplitud periférica resultante de la pérdida del mecanismo activo en la cóclea [166] [167] [168] con un aumento del ruido interno en el dominio ENVn. [166] [167] [82] Los modelos fenomenológicos que simulan la respuesta del sistema auditivo periférico mostraron que la sensibilidad alterada a la AM en individuos que experimentan tinnitus crónico con audiogramas clínicamente normales podría predecirse por una pérdida sustancial de fibras del nervio auditivo con frecuencias espontáneas bajas y cierta pérdida de fibras del nervio auditivo con frecuencias espontáneas altas. [170]

Efectos de la edad y la pérdida auditiva en el procesamiento de TFS

Aspectos del desarrollo

Muy pocos estudios han evaluado sistemáticamente el procesamiento de TFS en bebés y niños. La respuesta de seguimiento de frecuencia (FFR), que se cree que refleja la actividad neuronal bloqueada por fase, parece ser similar a la de los adultos en bebés de un mes de edad cuando se utiliza un tono puro (centrado en 500, 1000 o 2000 Hz) modulado a 80 Hz con una profundidad de modulación del 100 %. [142]

En cuanto a los datos de comportamiento, los bebés de seis meses requieren transiciones de frecuencia más grandes para detectar un cambio de FM en un tono de 1 kHz en comparación con los adultos. [171] Sin embargo, los bebés de 4 meses pueden discriminar dos barridos de FM diferentes, [172] y son más sensibles a las señales de FM barridas de 150 Hz a 550 Hz que a frecuencias más bajas. [173] En los niños en edad escolar, el rendimiento en la detección de cambios de FM mejora entre los 6 y los 10 años y la sensibilidad a la baja tasa de modulación (2 Hz) es pobre hasta los 9 años. [174]

En el caso de los sonidos del habla, solo un estudio con vocoder ha explorado la capacidad de los niños en edad escolar de confiar en las señales TFSp para detectar cambios consonánticos, mostrando las mismas capacidades para los niños de 5 años que para los adultos. [149]

Aspectos neurofisiológicos

Los estudios psicofísicos han sugerido que el procesamiento degradado de TFS debido a la edad y la pérdida auditiva puede ser la base de algunos déficits supraumbral, como la percepción del habla; [10] sin embargo, sigue habiendo debate sobre los correlatos neuronales subyacentes. [150] [151] La fuerza del bloqueo de fase con la estructura fina temporal de las señales (TFS n ) en condiciones de escucha tranquilas sigue siendo normal en las respuestas periféricas de una sola neurona después de la pérdida auditiva coclear. [152] Aunque estos datos sugieren que la capacidad fundamental de las fibras del nervio auditivo para seguir las fluctuaciones rápidas del sonido permanece intacta después de la pérdida auditiva coclear, los déficits en la fuerza del bloqueo de fase surgen en el ruido de fondo. [175] Este hallazgo, que es consistente con la observación común de que los oyentes con pérdida auditiva coclear tienen más dificultades en condiciones ruidosas, resulta de la selectividad de frecuencia coclear reducida asociada con la disfunción de las células ciliadas externas. [156]  Aunque solo se han observado efectos limitados de la edad y la pérdida auditiva en términos de la fuerza de codificación TFS n de los sonidos de banda estrecha, se han observado déficits más dramáticos en la calidad de codificación TFS n en respuesta a sonidos de banda ancha, que son más relevantes para la escucha cotidiana. Una pérdida dramática de tonotopicidad puede ocurrir después de la pérdida auditiva inducida por ruido, donde las fibras del nervio auditivo que deberían responder a frecuencias medias (p. ej., 2-4 kHz) tienen respuestas TFS dominantes a frecuencias más bajas (p. ej., 700 Hz). [176]  Cabe destacar que la pérdida de tonotopicidad generalmente ocurre solo para la codificación TFS n pero no para la codificación ENV n , lo que es consistente con mayores déficits perceptivos en el procesamiento TFS. [10] Es probable que esta degradación tonotópica tenga implicaciones importantes para la percepción del habla y pueda explicar la codificación degradada de las vocales después de la pérdida auditiva inducida por ruido en la que la mayor parte de la cóclea responde solo al primer formante, eliminando la representación tonotópica normal del segundo y tercer formantes.

Aspectos psicoacústicos

Varios estudios psicofísicos han demostrado que las personas mayores con audición normal y las personas con pérdida auditiva neurosensorial a menudo muestran un desempeño deteriorado para tareas auditivas que se supone que dependen de la capacidad del sistema auditivo monoaural y binaural para codificar y utilizar señales TFS n , como: discriminación de frecuencia de sonido, [76] [177] [178] discriminación de la frecuencia fundamental de sonidos armónicos, [76] [177] [178] [179] detección de FM a frecuencias inferiores a 5 Hz, [180] [ 181] [91] reconocimiento de melodías para secuencias de tonos puros y sonidos complejos, [182] lateralización y localización de tonos puros y tonos complejos, [78] [183] ​​[165] y segregación de sonidos armónicos concurrentes (como sonidos del habla). [79] Sin embargo, sigue sin estar claro en qué medida los déficits asociados con la pérdida auditiva reflejan un procesamiento TFS n más deficiente o una selectividad de frecuencia coclear reducida. [182]

Modelos de procesamiento deteriorado

La calidad de la representación de un sonido en el nervio auditivo está limitada por la refractariedad, la adaptación, la saturación y la sincronización reducida (bloqueo de fase) a altas frecuencias, así como por la naturaleza estocástica de los potenciales de acción. [184] Sin embargo, el nervio auditivo contiene miles de fibras. Por lo tanto, a pesar de estos factores limitantes, las propiedades de los sonidos están razonablemente bien representadas en la respuesta nerviosa de la población en un amplio rango de niveles [185] y frecuencias de audio (ver Teoría de Volley ).

La codificación de la información temporal en el nervio auditivo puede verse alterada por dos mecanismos principales: reducción de la sincronía y pérdida de sinapsis y/o fibras del nervio auditivo. [186] Se ha explorado el impacto de la codificación temporal alterada en la percepción auditiva humana utilizando herramientas de procesamiento de señales inspiradas en la fisiología. La reducción de la sincronía neuronal se ha simulado mediante la vibración de las fases de los componentes de frecuencia múltiple en el habla, [187] aunque esto tiene efectos no deseados en el dominio espectral. La pérdida de fibras o sinapsis del nervio auditivo se ha simulado suponiendo (i) que cada fibra aferente funciona como un muestreador estocástico de la forma de onda del sonido, con mayor probabilidad de activación para características de sonido de mayor intensidad y sostenidas que para características de menor intensidad o transitorias, y (ii) que la deaferenciación se puede modelar reduciendo el número de muestreadores. [184] Sin embargo, esto también tiene efectos no deseados en el dominio espectral. Tanto el jittering como el submuestreo estocástico degradan la representación del TFS n más que la representación del ENV n . Tanto el jittering como el submuestreo estocástico perjudican el reconocimiento del habla en entornos ruidosos sin degradar el reconocimiento en silencio, lo que respalda el argumento de que el TFS n es importante para reconocer el habla en entornos ruidosos. [3] Tanto el jittering como el submuestreo estocástico imitan los efectos del envejecimiento en la percepción del habla. [188]

Transmisión mediante audífonos e implantes cocleares

Transmisión de envolvente temporal

Las personas con pérdida auditiva coclear suelen tener un rango dinámico más pequeño de lo normal entre el nivel del sonido más débil detectable y el nivel en el que los sonidos se vuelven incómodamente fuertes. [189] [190] Para comprimir el amplio rango de niveles de sonido que se encuentran en la vida cotidiana en el pequeño rango dinámico de la persona con discapacidad auditiva, los audífonos aplican compresión de amplitud , que también se llama control automático de ganancia (AGC). El principio básico de dicha compresión es que la cantidad de amplificación aplicada al sonido entrante disminuye progresivamente a medida que aumenta el nivel de entrada. Por lo general, el sonido se divide en varios "canales" de frecuencia, y el AGC se aplica de forma independiente en cada canal. Como resultado de la compresión del nivel, el AGC reduce la cantidad de fluctuación de la envolvente en la señal de entrada (ENV p ) en una cantidad que depende de la tasa de fluctuación y la velocidad con la que cambia la amplificación en respuesta a los cambios en el nivel de sonido de entrada. [191] [192] El AGC también puede cambiar la forma de la envolvente de la señal. [193] Los implantes cocleares son dispositivos que estimulan eléctricamente el nervio auditivo, creando así la sensación de sonido en una persona que de otro modo sería profundamente o totalmente sorda. El rango dinámico eléctrico es muy pequeño, [194] por lo que los implantes cocleares suelen incorporar AGC antes de que la señal se filtre en múltiples canales de frecuencia. [195] Las señales de canal se someten luego a una compresión instantánea para mapearlas en el rango dinámico limitado para cada canal. [196]

Los implantes cocleares se diferencian de los audífonos en que toda la audición acústica se reemplaza con estimulación eléctrica directa del nervio auditivo, que se logra a través de un conjunto de electrodos colocados dentro de la cóclea. Por lo tanto, aquí, otros factores además del procesamiento de la señal del dispositivo también contribuyen en gran medida a la audición general, como la etiología, la salud del nervio, la configuración de los electrodos y la proximidad al nervio, y el proceso de adaptación general a un modo de audición completamente nuevo. [197] [198] [199] [200] Casi toda la información en los implantes cocleares se transmite por las fluctuaciones de la envolvente en los diferentes canales. Esto es suficiente para dar una percepción razonable del habla en silencio, pero no en condiciones ruidosas o reverberantes. [201] [202] [203] [204] [121] [110] [205] [206] [207] [208] El procesamiento en implantes cocleares es tal que el TFSp se descarta a favor de trenes de pulsos de frecuencia fija modulados en amplitud por el ENVp dentro de cada banda de frecuencia. Los usuarios de implantes son sensibles a estas modulaciones del ENVp, pero el rendimiento varía según el sitio de estimulación, el nivel de estimulación y entre individuos. [209] [210] El TMTF muestra una forma de filtro de paso bajo similar a la observada en oyentes con audición normal. [210] [211] [212] El tono de voz o la información del tono musical, transmitida principalmente a través de señales de periodicidad débil en el ENVp, da como resultado una sensación de tono que no es lo suficientemente prominente como para sustentar la percepción musical, [213] [214] la identificación del sexo del hablante, [215] [216] los tonos léxicos, [217] [218] o las señales prosódicas. [219] [220] [221] Los oyentes con implantes cocleares son susceptibles a la interferencia en el dominio de modulación [222] [223] lo que probablemente contribuye a las dificultades para escuchar en ruido.

Transmisión de estructura fina temporal

Los audífonos suelen procesar los sonidos filtrándolos en múltiples canales de frecuencia y aplicando AGC en cada canal. Otros procesos de procesamiento de señales en los audífonos, como la reducción de ruido, también implican filtrar la entrada en múltiples canales. [224] El filtrado en canales puede afectar la TFS p de los sonidos dependiendo de características como la respuesta de fase y el retardo de grupo de los filtros. Sin embargo, estos efectos suelen ser pequeños. Los implantes cocleares también filtran la señal de entrada en canales de frecuencia. Por lo general, la ENV p  de la señal en cada canal se transmite a los electrodos implantados en forma de pulsos eléctricos de frecuencia fija que se modulan en amplitud o duración. La información sobre TFS p se descarta. Esto se justifica por la observación de que las personas con implantes cocleares tienen una capacidad muy limitada para procesar la información TFS p , incluso si se transmite a los electrodos, [225] quizás debido a un desajuste entre la información temporal y el lugar en la cóclea al que se entrega [76] Reducir este desajuste puede mejorar la capacidad de utilizar la información TFS p y, por lo tanto, conducir a una mejor percepción del tono. [226] Algunos sistemas de implantes cocleares transmiten información sobre TFS p en los canales de los implantes cocleares que están sintonizados a frecuencias de audio bajas, y esto puede mejorar la percepción del tono de los sonidos de baja frecuencia. [227]

Efectos del entrenamiento y plasticidad del procesamiento de la envolvente temporal

Se ha informado sobre el aprendizaje perceptivo resultante del entrenamiento para varias tareas de detección o discriminación auditiva de AM, [228] [229] [230] lo que sugiere que las respuestas de las neuronas auditivas centrales a las señales ENV p son plásticas y que la práctica puede modificar los circuitos de procesamiento de ENV n . [230] [231]

La plasticidad del procesamiento de ENV n se ha demostrado de varias maneras. Por ejemplo, la capacidad de las neuronas de la corteza auditiva para discriminar las señales de tiempo de inicio de voz para los fonemas se degrada después de una pérdida auditiva moderada (20-40 dB HL) inducida por un trauma acústico. [232] Curiosamente, la pérdida auditiva del desarrollo reduce las respuestas corticales a los estímulos AM lentos, pero no rápidos (100 Hz), en paralelo con el rendimiento conductual. [233] De hecho, una pérdida auditiva transitoria (15 días) que ocurre durante el "período crítico" es suficiente para elevar los umbrales AM en jerbos adultos. [234] Incluso la exposición a ruidos no traumáticos reduce la capacidad de sincronización de fase de las neuronas corticales, así como la capacidad conductual de los animales para discriminar entre diferentes sonidos AM. [235] El entrenamiento conductual o los protocolos de emparejamiento que involucran neuromoduladores también alteran la capacidad de las neuronas corticales para sincronizarse en fase con los sonidos AM. [236] [237] En los seres humanos, la pérdida auditiva puede dar lugar a una representación desequilibrada de las señales del habla: las señales ENV n se mejoran a costa de las señales TFS n (véase: Efectos de la edad y la pérdida auditiva en el procesamiento de la envolvente temporal). El entrenamiento auditivo puede reducir la representación de las señales ENV n del habla en los oyentes de edad avanzada con pérdida auditiva, que pueden alcanzar niveles comparables a los observados en los oyentes de edad avanzada con audición normal. [238] Por último, el entrenamiento musical intensivo induce efectos conductuales como una mayor sensibilidad a las variaciones de tono (para el tono lingüístico del mandarín) y una mejor sincronización de las respuestas del tronco encefálico al contorno f0 de los tonos léxicos para los músicos en comparación con los no músicos. [239]

Evaluación clínica de la sensibilidad al TFS

Se han desarrollado pruebas psicofísicas rápidas y fáciles de administrar para ayudar a los médicos en la detección de las capacidades de procesamiento de TFS y el diagnóstico de déficits de procesamiento auditivo temporal supraumbral asociados con daño coclear y envejecimiento. Estas pruebas también pueden ser útiles para audiólogos y fabricantes de audífonos para explicar y/o predecir el resultado de la adaptación de audífonos en términos de calidad percibida, inteligibilidad del habla o audición espacial. [240] [241] Estas pruebas pueden eventualmente usarse para recomendar la velocidad de compresión más apropiada en audífonos [242] o el uso de micrófonos direccionales. La necesidad de tales pruebas está corroborada por fuertes correlaciones entre los umbrales de detección de modulación espectrotemporal o FM lenta y la inteligibilidad del habla asistida en fondos competitivos para personas con discapacidad auditiva. [90] [243] Las pruebas clínicas se pueden dividir en dos grupos: las que evalúan las capacidades de procesamiento de TFS monoaural (prueba TFS1) y las que evalúan las capacidades binaurales (tono binaural, TFS-LF, TFS-AF).

TFS1: esta prueba evalúa la capacidad de discriminar entre un tono complejo armónico y su versión transpuesta en frecuencia (y por lo tanto, inarmónica). [244] [245] [246] [159] Tono binaural: estas pruebas evalúan la capacidad de detectar y discriminar el tono binaural y el reconocimiento de melodías utilizando diferentes tipos de tono binaural. [182] [247] TFS-LF: esta prueba evalúa la capacidad de discriminar tonos puros de baja frecuencia que son idénticos en los dos oídos de los mismos tonos que difieren en la fase interaural. [248] [249] TFS AF: esta prueba evalúa la frecuencia de audio más alta de un tono puro hasta la cual se puede discriminar un cambio en la fase interaural. [250]

Medidas objetivas que utilizan señales de envolvente y TFS

La distorsión de la señal, el ruido aditivo, la reverberación y las estrategias de procesamiento de audio, como la supresión de ruido y la compresión del rango dinámico, pueden afectar la inteligibilidad del habla y la calidad del habla y de la música. [251] [252] [253] [254] [255] Estos cambios en la percepción de la señal a menudo se pueden predecir midiendo los cambios asociados en la envolvente de la señal y/o la estructura fina temporal (TFS). Las mediciones objetivas de los cambios de la señal, cuando se combinan con procedimientos que asocian los cambios de la señal con diferencias en la percepción auditiva, dan lugar a métricas de rendimiento auditivo para predecir la inteligibilidad del habla y la calidad del habla.

Los cambios en la TFS se pueden estimar haciendo pasar las señales a través de un banco de filtros y calculando la coherencia [256] entre la entrada y la salida del sistema en cada banda. La inteligibilidad predicha a partir de la coherencia es precisa para algunas formas de ruido aditivo y distorsión no lineal, [251] [255] pero funciona mal para la supresión de ruido con máscara binaria ideal (IBM). [253] La calidad de la voz y la música para señales sujetas a ruido y distorsión por recorte también se han modelado utilizando la coherencia [257] o utilizando la coherencia promediada a lo largo de segmentos de señal cortos. [258]

Los cambios en la envolvente de la señal se pueden medir utilizando varios procedimientos diferentes. La presencia de ruido o reverberación reducirá la profundidad de modulación de una señal, y la medición multibanda de la profundidad de modulación de la envolvente de la salida del sistema se utiliza en el índice de transmisión de voz (STI) para estimar la inteligibilidad. [259] Si bien es preciso para aplicaciones de ruido y reverberación, el STI funciona mal para el procesamiento no lineal, como la compresión de rango dinámico. [260] Una extensión del STI estima el cambio en la modulación mediante la correlación cruzada de las envolventes de las señales de entrada y salida de voz. [261] [262] Un procedimiento relacionado, que también utiliza correlaciones cruzadas de envolvente, es la medida de inteligibilidad objetiva de tiempo corto (STOI), [253] que funciona bien para su aplicación prevista en la evaluación de la supresión de ruido, pero que es menos precisa para la distorsión no lineal. [263] También se han derivado métricas de inteligibilidad basadas en envolventes utilizando bancos de filtros de modulación [67] y utilizando patrones de modulación de tiempo-frecuencia de envolvente. [264] La correlación cruzada de envolvente también se utiliza para estimar la calidad del habla y la música. [265] [266]

Las mediciones de envolvente y TFS también se pueden combinar para formar métricas de inteligibilidad y calidad. Se ha derivado una familia de métricas para la inteligibilidad del habla, [263] la calidad del habla, [267] [268] y la calidad de la música [269] utilizando un modelo compartido de la periferia auditiva [270] que puede representar la pérdida auditiva. El uso de un modelo de la periferia deteriorada conduce a predicciones más precisas para los oyentes con discapacidad auditiva que el uso de un modelo con audición normal, y la métrica combinada de envolvente/TFS es generalmente más precisa que una métrica que utiliza solo la modulación de envolvente. [263] [267]

Véase también

Referencias

  1. ^ Viemeister NF, Plack CJ (1993). "Análisis del tiempo". Psicofísica humana . Springer Handbook of Auditory Research. Vol. 3. Springer, Nueva York, NY. págs. 116-154. doi :10.1007/978-1-4612-2728-1_4. ISBN 978-1-4612-7644-9.
  2. ^ abc Rosen S (junio de 1992). "Información temporal en el habla: aspectos acústicos, auditivos y lingüísticos". Philosophical Transactions of the Royal Society of London. Serie B, Ciencias Biológicas . 336 (1278): 367–73. Bibcode :1992RSPTB.336..367R. doi :10.1098/rstb.1992.0070. PMID  1354376.
  3. ^ ab Drullman R (enero de 1995). "Señales de estructura fina y envolvente temporal para la inteligibilidad del habla". Revista de la Sociedad Acústica de América . 97 (1): 585–92. Bibcode :1995ASAJ...97..585D. doi :10.1121/1.413112. PMID  7860835.
  4. ^ abcde Moore BC (diciembre de 2008). "El papel del procesamiento de la estructura fina temporal en la percepción del tono, el enmascaramiento y la percepción del habla para personas con audición normal y personas con discapacidad auditiva". Revista de la Asociación para la Investigación en Otorrinolaringología . 9 (4): 399–406. doi :10.1007/s10162-008-0143-x. PMC 2580810 . PMID  18855069. 
  5. ^ De Boer E (septiembre de 1956). «Tono de señales inarmónicas». Nature . 178 (4532): 535–6. Bibcode :1956Natur.178..535B. doi :10.1038/178535a0. PMID  13358790. S2CID  4241424.
  6. ^ Zeng FG, Nie K, Liu S, Stickney G, Del Rio E, Kong YY, Chen H (septiembre de 2004). "Sobre la dicotomía en la percepción auditiva entre la envolvente temporal y las señales de estructura fina". Revista de la Sociedad Acústica de América . 116 (3): 1351–4. Bibcode :2004ASAJ..116.1351Z. doi :10.1121/1.1777938. PMID  15478399.
  7. ^ ab Plomp R (1983). "Percepción del habla como señal modulada". Actas del 10º Congreso Internacional de Ciencias Fonéticas, Utrecht : 19–40.
  8. ^ Hilbert D (1912). Grundzüge einer allgemeinen theorie der linearen integralgleichungen. Bibliotecas de la Universidad de California. Leipzig, BG Teubner.
  9. ^ Ruggero MA (julio de 1973). "Respuesta al ruido de las fibras del nervio auditivo en el mono ardilla". Journal of Neurophysiology . 36 (4): 569–87. doi :10.1152/jn.1973.36.4.569. PMID  4197339.
  10. ^ abcd Moore BC (4 de mayo de 2014). Procesamiento auditivo de la estructura fina temporal: efectos de la edad y la pérdida auditiva . Nueva Jersey: World Scientific Publishing Company. ISBN 9789814579650.
  11. ^ por Joris PX, Louage DH, Cardoen L, van der Heijden M (junio de 2006). "Índice de correlación: una nueva métrica para cuantificar la codificación temporal". Hearing Research . 216–217: 19–30. doi :10.1016/j.heares.2006.03.010. PMID  16644160. S2CID  32416471.
  12. ^ Heinz MG, Swaminathan J (septiembre de 2009). "Cuantificación de la codificación de la envoltura y la estructura fina en las respuestas del nervio auditivo al habla quimérica". Revista de la Asociación para la Investigación en Otorrinolaringología . 10 (3): 407–23. doi :10.1007/s10162-009-0169-8. PMC 3084379 . PMID  19365691. 
  13. ^ Søndergaard PL, Decorsière R, Dau T (15 de diciembre de 2011). "Sobre la relación entre la envolvente multicanal y la estructura fina temporal". Actas del Simposio Internacional sobre Investigación Auditiva y Audiológica . 3 : 363–370.
  14. ^ Shamma S, Lorenzi C (mayo de 2013). "Sobre el equilibrio de la envolvente y la estructura fina temporal en la codificación del habla en el sistema auditivo temprano". Revista de la Sociedad Acústica de América . 133 (5): 2818–33. Bibcode :2013ASAJ..133.2818S. doi :10.1121/1.4795783. PMC 3663870 . PMID  23654388. 
  15. ^ Joris PX, Schreiner CE, Rees A (abril de 2004). "Procesamiento neuronal de sonidos modulados en amplitud". Physiological Reviews . 84 (2): 541–77. doi :10.1152/physrev.00029.2003. PMID  15044682.
  16. ^ Frisina RD (agosto de 2001). "Mecanismos de codificación neuronal subcortical para el procesamiento temporal auditivo". Hearing Research . 158 (1–2): 1–27. doi :10.1016/S0378-5955(01)00296-9. PMID  11506933. S2CID  36727875.
  17. ^ Pressnitzer D, Meddis R, Delahaye R, Winter IM (agosto de 2001). "Correlaciones fisiológicas de la liberación del enmascaramiento de la comodulación en el núcleo coclear ventral de los mamíferos". The Journal of Neuroscience . 21 (16): 6377–86. doi :10.1523/JNEUROSCI.21-16-06377.2001. PMC 6763188 . PMID  11487661. 
  18. ^ ab Hall JW, Haggard MP, Fernandes MA (julio de 1984). "Detección de ruido mediante análisis de patrones espectro-temporales". Revista de la Sociedad Acústica de América . 76 (1): 50–6. Bibcode :1984ASAJ...76R..50H. doi :10.1121/1.391005. PMID  6747111.
  19. ^ Eggermont JJ ​​(abril de 1994). "Funciones de transferencia de modulación temporal para estímulos AM y FM en la corteza auditiva del gato. Efectos del tipo de portadora, forma de onda moduladora e intensidad". Hearing Research . 74 (1–2): 51–66. doi :10.1016/0378-5955(94)90175-9. PMID  8040099. S2CID  4766840.
  20. ^ Bieser A, Müller-Preuss P (1996). "Corteza auditiva reactiva en el mono ardilla: respuestas neuronales a sonidos modulados en amplitud". Exp Brain Res . 108 (2): 273–84. doi :10.1007/BF00228100. PMID  8815035. S2CID  19565315.
  21. ^ Liang L, Lu T, Wang X (mayo de 2002). "Representaciones neuronales de modulaciones de amplitud y frecuencia sinusoidales en la corteza auditiva primaria de primates despiertos". Journal of Neurophysiology . 87 (5): 2237–61. doi :10.1152/jn.2002.87.5.2237. PMID  11976364. S2CID  3184199.
  22. ^ Schreiner CE, Urbas JV (enero de 1988). "Representación de la modulación de amplitud en la corteza auditiva del gato. II. Comparación entre campos corticales". Hearing Research . 32 (1): 49–63. doi :10.1016/0378-5955(88)90146-3. PMID  3350774. S2CID  8416108.
  23. ^ Lu T, Liang L, Wang X (noviembre de 2001). "Representaciones temporales y de frecuencia de señales que varían con el tiempo en la corteza auditiva de primates despiertos". Nature Neuroscience . 4 (11): 1131–8. doi :10.1038/nn737. PMID  11593234. S2CID  1417232.
  24. ^ Eggermont JJ ​​(noviembre de 1991). "Medidas de frecuencia y sincronización de la codificación de periodicidad en la corteza auditiva primaria del gato". Hearing Research . 56 (1–2): 153–67. doi :10.1016/0378-5955(91)90165-6. PMID  1769910. S2CID  4704094.
  25. ^ Baumann S, Joly O, Rees A, Petkov CI, Sun L, Thiele A, Griffiths TD (enero de 2015). "La topografía de la frecuencia y la representación temporal en las cortezas auditivas de los primates". eLife . 4 . doi : 10.7554/eLife.03256 . PMC 4398946 . PMID  25590651. 
  26. ^ Depireux DA, Elhilali M, eds. (15 de enero de 2014). Manual de técnicas modernas en la corteza auditiva (primera edición). Nova Science Pub Inc. ISBN 9781628088946.
  27. ^ Kowalski N, Depireux DA, Shamma SA (noviembre de 1996). "Análisis de espectros dinámicos en la corteza auditiva primaria del hurón. I. Características de las respuestas de una sola unidad a espectros de ondas en movimiento" (PDF) . Journal of Neurophysiology . 76 (5): 3503–23. doi :10.1152/jn.1996.76.5.3503. hdl : 1903/5688 . PMID:  8930289.
  28. ^ Mesgarani N, Chang EF (mayo de 2012). "Representación cortical selectiva del hablante atendido en la percepción del habla de múltiples hablantes". Nature . 485 (7397): 233–6. Bibcode :2012Natur.485..233M. doi :10.1038/nature11020. PMC 3870007 . PMID  22522927. 
  29. ^ John MS, Picton TW (marzo de 2000). "Respuestas auditivas humanas en estado estable a tonos modulados en amplitud: mediciones de fase y latencia". Hearing Research . 141 (1–2): 57–79. doi :10.1016/S0378-5955(99)00209-9. PMID  10713496. S2CID  12478710.
  30. ^ Atiani S, David SV, Elgueda D, Locastro M, Radtke-Schuller S, Shamma SA, Fritz JB (abril de 2014). "Selectividad emergente para estímulos relevantes para la tarea en la corteza auditiva de orden superior". Neuron . 82 (2): 486–99. doi :10.1016/j.neuron.2014.02.029. PMC 4048815 . PMID  24742467. 
  31. ^ Schreiner CE, Urbas JV (1986). "Representación de la modulación de amplitud en la corteza auditiva del gato I. El campo auditivo anterior (AAF)". Hearing Research . 21 (3): 227–41. doi :10.1016/0378-5955(86)90221-2. PMID  3013823. S2CID  4703229.
  32. ^ Giraud AL, Lorenzi C, Ashburner J, Wable J, Johnsrude I, Frackowiak R, Kleinschmidt A (septiembre de 2000). "Representación de la envoltura temporal de los sonidos en el cerebro humano". Journal of Neurophysiology . 84 (3): 1588–98. doi :10.1152/jn.2000.84.3.1588. PMID  10980029. S2CID  9020690.
  33. ^ Liégeois-Chauvel C, Lorenzi C, Trébuchon A, Régis J, Chauvel P (julio de 2004). "Procesamiento de la envoltura temporal en las cortezas auditivas izquierda y derecha humanas". Corteza Cerebral . 14 (7): 731–40. doi : 10.1093/cercor/bhh033 . PMID  15054052.
  34. ^ Herdener M, Esposito F, Scheffler K, Schneider P, Logothetis NK, Uludag K, Kayser C (noviembre de 2013). "Representaciones espaciales de señales sonoras temporales y espectrales en la corteza auditiva humana". Cortex; una revista dedicada al estudio del sistema nervioso y el comportamiento . 49 (10): 2822–33. doi :10.1016/j.cortex.2013.04.003. PMID  23706955. S2CID  19454517.
  35. ^ Schönwiesner M, Zatorre RJ (agosto de 2009). "Función de transferencia de modulación espectrotemporal de vóxeles individuales en la corteza auditiva humana medida con fMRI de alta resolución". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 106 (34): 14611–6. Bibcode :2009PNAS..10614611S. doi : 10.1073/pnas.0907682106 . PMC 2732853 . PMID  19667199. 
  36. ^ Griffiths TD, Penhune V, Peretz I, Dean JL, Patterson RD, Green GG (abril de 2000). "Procesamiento frontal y percepción auditiva". NeuroReport . 11 (5): 919–22. doi :10.1097/00001756-200004070-00004. PMID  10790855. S2CID  17386864.
  37. ^ Hullett PW, Hamilton LS, Mesgarani N, Schreiner CE, Chang EF (febrero de 2016). "Organización del giro temporal superior humano de la modulación espectrotemporal derivada de estímulos del habla". The Journal of Neuroscience . 36 (6): 2014–26. doi :10.1523/JNEUROSCI.1779-15.2016. PMC 4748082 . PMID  26865624. 
  38. ^ abcdef Elhilali M, Fritz JB, Klein DJ, Simon JZ, Shamma SA (febrero de 2004). "Dinámica de la sincronización precisa de las puntas en la corteza auditiva primaria". The Journal of Neuroscience . 24 (5): 1159–72. doi :10.1523/JNEUROSCI.3825-03.2004. PMC 6793586 . PMID  14762134. 
  39. ^ Boer, E. de (1985). "Constantes de tiempo auditivas: ¿una paradoja?". Resolución temporal en sistemas auditivos . Actas en ciencias de la vida. Springer, Berlín, Heidelberg. págs. 141–158. doi :10.1007/978-3-642-70622-6_9. ISBN . 9783642706240.
  40. ^ ab Bair W, Koch C (agosto de 1996). "Precisión temporal de los trenes de espigas en la corteza extraestriada del mono macaco en comportamiento" (PDF) . Neural Computation . 8 (6): 1185–202. doi :10.1162/neco.1996.8.6.1185. PMID  8768391. S2CID  8615893.
  41. ^ Simon JZ, Depireux DA, Klein DJ, Fritz JB, Shamma SA (marzo de 2007). "Simetría temporal en la corteza auditiva primaria: implicaciones para la conectividad cortical". Neural Computation . 19 (3): 583–638. arXiv : q-bio/0608027 . doi :10.1162/neco.2007.19.3.583. PMID  17298227. S2CID  10011056.
  42. ^ Theunissen FE, Sen K, Doupe AJ (marzo de 2000). "Campos receptivos espectrales-temporales de neuronas auditivas no lineales obtenidos utilizando sonidos naturales". The Journal of Neuroscience . 20 (6): 2315–31. doi :10.1523/JNEUROSCI.20-06-02315.2000. PMC 6772498 . PMID  10704507. 
  43. ^ David SV, Mesgarani N, Fritz JB, Shamma SA (marzo de 2009). "La depresión sináptica rápida explica la modulación no lineal de la sintonización espectrotemporal en la corteza auditiva primaria por estímulos naturales". The Journal of Neuroscience . 29 (11): 3374–86. doi :10.1523/JNEUROSCI.5249-08.2009. PMC 2774136 . PMID  19295144. 
  44. ^ Bieser A, Müller-Preuss P (marzo de 1996). "Corteza auditiva reactiva en el mono ardilla: respuestas neuronales a sonidos modulados en amplitud". Experimental Brain Research . 108 (2): 273–84. doi :10.1007/bf00228100. PMID  8815035. S2CID  19565315.
  45. ^ Fast H (2007). Psicoacústica: hechos y modelos. Springer. ISBN 9783540231592.[ página necesaria ]
  46. ^ Burns EM, Viemeister NF (diciembre de 1981). "SAM reproducido de nuevo: más observaciones sobre el tono del ruido modulado en amplitud". Revista de la Sociedad Acústica de América . 70 (6): 1655–1660. Bibcode :1981ASAJ...70.1655B. doi :10.1121/1.387220.
  47. ^ McDermott JH, Simoncelli EP (septiembre de 2011). "Percepción de la textura del sonido a través de estadísticas de la periferia auditiva: evidencia de la síntesis de sonido". Neuron . 71 (5): 926–40. doi :10.1016/j.neuron.2011.06.032. PMC 4143345 . PMID  21903084. 
  48. ^ McWalter R, Dau T (11 de septiembre de 2017). "Modulaciones de amplitud en cascada en la percepción de la textura del sonido". Frontiers in Neuroscience . 11 : 485. doi : 10.3389/fnins.2017.00485 . PMC 5601004 . PMID  28955191. 
  49. ^ abcd Viemeister NF (noviembre de 1979). "Funciones de transferencia de modulación temporal basadas en umbrales de modulación". Revista de la Sociedad Acústica de América . 66 (5): 1364–80. Bibcode :1979ASAJ...66.1364V. doi :10.1121/1.383531. PMID  500975.
  50. ^ Sheft S, Yost WA (agosto de 1990). "Integración temporal en la detección de modulación de amplitud". Revista de la Sociedad Acústica de América . 88 (2): 796–805. Bibcode :1990ASAJ...88..796S. doi :10.1121/1.399729. PMID  2212305.
  51. ^ ab Kohlrausch A, Fassel R, Dau T (agosto de 2000). "La influencia del nivel y la frecuencia de la portadora en los umbrales de modulación y detección de pulsos para portadoras sinusoidales". The Journal of the Acoustical Society of America . 108 (2): 723–34. Bibcode :2000ASAJ..108..723K. doi :10.1121/1.429605. PMID  10955639.
  52. ^ Bacon SP, Grantham DW (junio de 1989). "Enmascaramiento de modulación: efectos de la frecuencia, profundidad y fase de modulación". Revista de la Sociedad Americana de Acústica . 85 (6): 2575–80. Bibcode :1989ASAJ...85.2575B. doi :10.1121/1.397751. PMID  2745880.
  53. ^ ab Houtgast T (abril de 1989). "Selectividad de frecuencia en la detección de modulación de amplitud". Revista de la Sociedad Acústica de América . 85 (4): 1676–80. Bibcode :1989ASAJ...85.1676H. doi :10.1121/1.397956. PMID  2708683.
  54. ^ Yost WA, Sheft S (febrero de 1989). "Procesamiento de tonos modulados en amplitud en bandas críticas". Revista de la Sociedad Acústica de Estados Unidos . 85 (2): 848–57. Bibcode :1989ASAJ...85..848Y. doi :10.1121/1.397556. PMID  2925999.
  55. ^ Kay RH, Matthews DR (septiembre de 1972). "Sobre la existencia en las vías auditivas humanas de canales selectivamente sintonizados con la modulación presente en tonos modulados en frecuencia". The Journal of Physiology . 225 (3): 657–77. doi :10.1113/jphysiol.1972.sp009962. PMC 1331136 . PMID  5076392. 
  56. ^ Tansley BW, Suffield JB (septiembre de 1983). "Curso temporal de adaptación y recuperación de canales selectivamente sensibles a la modulación de frecuencia y amplitud". Revista de la Sociedad Acústica de América . 74 (3): 765–75. Bibcode :1983ASAJ...74..765T. doi :10.1121/1.389864. PMID  6630734.
  57. ^ Wojtczak M, Viemeister NF (agosto de 2003). "Efectos supraumbrales de adaptación producidos por modulación de amplitud". Revista de la Sociedad Acústica de América . 114 (2): 991–7. Bibcode :2003ASAJ..114..991W. doi : 10.1121/1.1593067 . PMID  12942978.
  58. ^ Lorenzi C, Simpson MI, Millman RE, Griffiths TD, Woods WP, Rees A, Green GG (noviembre de 2001). "Umbrales de detección de modulación de segundo orden para portadores de ruido de banda estrecha y de tonos puros". The Journal of the Acoustical Society of America . 110 (5 Pt 1): 2470–8. Bibcode :2001ASAJ..110.2470L. doi :10.1121/1.1406160. PMID  11757936.
  59. ^ Ewert SD, Verhey JL, Dau T (diciembre de 2002). "Procesamiento espectrotemporal en el dominio de la frecuencia de la envolvente". Revista de la Sociedad Acústica de América . 112 (6): 2921–31. Bibcode :2002ASAJ..112.2921E. doi :10.1121/1.1515735. PMID  12509013.
  60. ^ Füllgrabe C, Moore BC, Demany L, Ewert SD, Sheft S, Lorenzi C (abril de 2005). "Enmascaramiento de modulación producido por moduladores de segundo orden". Revista de la Sociedad Acústica de Estados Unidos . 117 (4 Pt 1): 2158–68. Bibcode :2005ASAJ..117.2158F. doi : 10.1121/1.1861892. PMC 2708918. PMID  15898657. 
  61. ^ Klein-Hennig M, Dietz M, Hohmann V, Ewert SD (junio de 2011). "La influencia de diferentes segmentos de la envolvente continua en la sensibilidad a los retrasos temporales interaurales". Revista de la Sociedad Americana de Acústica . 129 (6): 3856–72. Bibcode :2011ASAJ..129.3856K. doi :10.1121/1.3585847. PMID  21682409.
  62. ^ Strickland EA, Viemeister NF (junio de 1996). "Señales para la discriminación de envolventes". Revista de la Sociedad Acústica de América . 99 (6): 3638–46. Bibcode :1996ASAJ...99.3638S. doi :10.1121/1.414962. PMID  8655796.
  63. ^ abc Dau T, Kollmeier B, Kohlrausch A (noviembre de 1997). "Modelado del procesamiento auditivo de la modulación de amplitud. I. Detección y enmascaramiento con portadoras de banda estrecha". Revista de la Sociedad Acústica de América . 102 (5 Pt 1): 2892–905. Bibcode :1997ASAJ..102.2892D. doi :10.1121/1.420344. PMID  9373976. S2CID  3500293.
  64. ^ Piechowiak T, Ewert SD, Dau T (abril de 2007). "Modelado de la liberación del enmascaramiento de la comodulación mediante un mecanismo de ecualización-cancelación" (PDF) . The Journal of the Acoustical Society of America . 121 (4): 2111–26. Bibcode :2007ASAJ..121.2111P. doi :10.1121/1.2534227. PMID  17471726. S2CID  5001122.
  65. ^ Ewert SD, Dau T (septiembre de 2000). "Caracterización de la selectividad de frecuencia para fluctuaciones de envolvente". Revista de la Sociedad Acústica de América . 108 (3 Pt 1): 1181–96. Bibcode :2000ASAJ..108.1181E. doi :10.1121/1.1288665. PMID  11008819.
  66. ^ Wakefield GH, Viemeister NF (septiembre de 1990). "Discriminación de la profundidad de modulación del ruido de modulación de amplitud sinusoidal (SAM)". Revista de la Sociedad Acústica de América . 88 (3): 1367–73. Bibcode :1990ASAJ...88.1367W. doi :10.1121/1.399714. PMID  2229672.
  67. ^ ab Jørgensen S, Ewert SD, Dau T (julio de 2013). "Un modelo basado en potencia envolvente multiresolución para la inteligibilidad del habla". Revista de la Sociedad Acústica de América . 134 (1): 436–46. Bibcode :2013ASAJ..134..436J. doi :10.1121/1.4807563. PMID  23862819.
  68. ^ Biberger T, Ewert SD (agosto de 2016). "Predicción basada en la intensidad y la envolvente del enmascaramiento psicoacústico y la inteligibilidad del habla". Revista de la Sociedad Acústica de Estados Unidos . 140 (2): 1023–1038. Bibcode :2016ASAJ..140.1023B. doi :10.1121/1.4960574. PMID  27586734.
  69. ^ Nelson PC, Carney LH (agosto de 2006). "Señales para la detección de modulación de amplitud enmascarada". Revista de la Sociedad Acústica de Estados Unidos . 120 (2): 978–90. Bibcode :2006ASAJ..120..978N. doi :10.1121/1.2213573. PMC 2572864. PMID  16938985 . 
  70. ^ Verschooten E, Robles L, Joris PX (febrero de 2015). "Evaluación de los límites del bloqueo de fase neuronal mediante potenciales de masa". The Journal of Neuroscience . 35 (5): 2255–68. doi :10.1523/JNEUROSCI.2979-14.2015. PMC 6705351 . PMID  25653380. 
  71. ^ Palmer AR, Russell IJ (1986). "Bloqueo de fase en el nervio coclear del conejillo de indias y su relación con el potencial receptor de las células ciliadas internas". Hearing Research . 24 (1): 1–15. doi :10.1016/0378-5955(86)90002-X. PMID  3759671. S2CID  40262271.
  72. ^ Weiss TF, Rose C (mayo de 1988). "Una comparación de filtros de sincronización en diferentes órganos receptores auditivos". Hearing Research . 33 (2): 175–9. doi :10.1016/0378-5955(88)90030-5. PMID  3397327. S2CID  20291529.
  73. ^ abc Paraouty N, Stasiak A, Lorenzi C, Varnet L, Winter IM (abril de 2018). "Codificación dual de la modulación de frecuencia en el núcleo coclear ventral". The Journal of Neuroscience . 38 (17): 4123–4137. doi :10.1523/JNEUROSCI.2107-17.2018. PMC 6596033 . PMID  29599389. 
  74. ^ ab Moore BC (septiembre de 1973). "Limen de diferencia de frecuencia para tonos de corta duración". Revista de la Sociedad Acústica de América . 54 (3): 610–9. Bibcode :1973ASAJ...54..610M. doi :10.1121/1.1913640. PMID  4754385.
  75. ^ abc Moore B (5 de abril de 2013). Introducción a la psicología de la audición: sexta edición (6.ª ed.). Leiden: BRILL. ISBN 9789004252424.
  76. ^ abcdef Plack CJ (2005). Tono: codificación neuronal y percepción. Springer Handbook of Auditory Research. Springer. ISBN 9780387234724.
  77. ^ abcd Moore BC, Sek A (octubre de 1996). "Detección de modulación de frecuencia a bajas tasas de modulación: evidencia de un mecanismo basado en bloqueo de fase". The Journal of the Acoustical Society of America . 100 (4 Pt 1): 2320–31. Bibcode :1996ASAJ..100.2320M. doi :10.1121/1.417941. PMID  8865639.
  78. ^ ab Lacher-Fougère S, Demany L (octubre de 2005). "Consecuencias del daño coclear para la detección de diferencias de fase interaural". Revista de la Sociedad Acústica de América . 118 (4): 2519–26. Bibcode :2005ASAJ..118.2519L. doi : 10.1121/1.2032747 . PMID  16266172. S2CID  1218899.
  79. ^ ab Hopkins K, Moore BC, Stone MA (febrero de 2008). "Efectos de la pérdida auditiva coclear moderada en la capacidad de beneficiarse de la información de la estructura fina temporal en el habla". Revista de la Sociedad Acústica de América . 123 (2): 1140–53. Bibcode :2008ASAJ..123.1140H. doi : 10.1121/1.2824018. PMC 2688774. PMID  18247914. 
  80. ^ Oxenham AJ, Bernstein JG, Penagos H (febrero de 2004). "La representación tonotópica correcta es necesaria para la percepción compleja del tono". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 101 (5): 1421–5. doi : 10.1073/pnas.0306958101 . PMC 337068 . PMID  14718671. 
  81. ^ Oxenham AJ, Micheyl C, Keebler MV, Loper A, Santurette S (mayo de 2011). "Percepción del tono más allá de la región de existencia tradicional del tono". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 108 (18): 7629–34. doi : 10.1073/pnas.1015291108 . PMC 3088642 . PMID  21502495. 
  82. ^ abc Paraouty N, Ewert SD, Wallaert N, Lorenzi C (julio de 2016). "Interacciones entre el procesamiento de modulación de amplitud y modulación de frecuencia: efectos de la edad y la pérdida auditiva" (PDF) . The Journal of the Acoustical Society of America . 140 (1): 121–131. Bibcode :2016ASAJ..140..121P. doi :10.1121/1.4955078. PMID  27475138.
  83. ^ Demany L, Semal C (marzo de 1989). "Umbrales de detección para modulación de frecuencia sinusoidal". Revista de la Sociedad Acústica de América . 85 (3): 1295–301. Bibcode :1989ASAJ...85.1295D. doi :10.1121/1.397460. PMID  2708671.
  84. ^ ab Ernst SM, Moore BC (diciembre de 2010). "Mecanismos subyacentes a la detección de modulación de frecuencia". Revista de la Sociedad Acústica de América . 128 (6): 3642–8. ​​Bibcode :2010ASAJ..128.3642E. doi :10.1121/1.3506350. PMID  21218896.
  85. ^ Zwicker, E (1 de enero de 1956). "Die elementaren Grundlagen zur Bestimmung der Informationskapazität des Gehörs". Acta Acustica Unidos con Acustica . 6 (4): 365–381.
  86. ^ Maiwald, D (1967). "Ein Funktionsschema des Gehors zur Beschreibung der Erkennbarkeit kleiner Frequenz und Amplitudenanderungen". Acústica . 18 : 81–92.
  87. ^ Saberi K, Hafter ER (abril de 1995). "Un código neuronal común para sonidos modulados en frecuencia y amplitud". Nature . 374 (6522): 537–9. Bibcode :1995Natur.374..537S. doi :10.1038/374537a0. PMID  7700378. S2CID  4236436.
  88. ^ Ruggles D, Bharadwaj H, Shinn-Cunningham BG (septiembre de 2011). "La audición normal no es suficiente para garantizar una codificación robusta de las características supraumbrales importantes en la comunicación cotidiana". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 108 (37): 15516–21. Bibcode :2011PNAS..10815516R. doi : 10.1073/pnas.1108912108 . PMC 3174666 . PMID  21844339. 
  89. ^ Johannesen PT, Pérez-González P, Kalluri S, Blanco JL, Lopez-Poveda EA (septiembre de 2016). "La influencia de la disfunción mecánica coclear, los déficits de procesamiento temporal y la edad en la inteligibilidad del habla audible en ruido para oyentes con discapacidad auditiva". Trends in Hearing . 20 : 233121651664105. doi :10.1177/2331216516641055. PMC 5017567 . PMID  27604779. 
  90. ^ ab Lopez-Poveda EA, Johannesen PT, Pérez-González P, Blanco JL, Kalluri S, Edwards B (enero de 2017). "Predictores de los resultados de los audífonos". Tendencias en audición . 21 : 2331216517730526. doi :10.1177/2331216517730526. PMC 5613846 . PMID  28929903. 
  91. ^ ab Buss E, Hall JW, Grose JH (junio de 2004). "Señales temporales de estructura fina para el habla y modulación de tonos puros en observadores con pérdida auditiva neurosensorial". Ear and Hearing . 25 (3): 242–50. doi :10.1097/01.AUD.0000130796.73809.09. PMID  15179115. S2CID  11620271.
  92. ^ ab Strelcyk O, Dau T (mayo de 2009). "Relaciones entre la selectividad de frecuencia, el procesamiento temporal de la estructura fina y la recepción del habla en personas con problemas de audición" (PDF) . The Journal of the Acoustical Society of America . 125 (5): 3328–45. Bibcode :2009ASAJ..125.3328S. doi :10.1121/1.3097469. PMID  19425674. S2CID  8062937.
  93. ^ Ewert SD, Paraouty N, Lorenzi C (enero de 2018). "Un modelo de dos vías de detección de modulación auditiva utilizando la estructura fina temporal y las señales de envolvente". The European Journal of Neuroscience . 51 (5): 1265–1278. doi :10.1111/ejn.13846. PMID  29368797. S2CID  46843680.
  94. ^ Zilany MS, Bruce IC, Nelson PC, Carney LH (noviembre de 2009). "Un modelo fenomenológico de la sinapsis entre la célula pilosa interna y el nervio auditivo: adaptación a largo plazo con dinámica de ley de potencia". Revista de la Sociedad Acústica de América . 126 (5): 2390–412. Bibcode :2009ASAJ..126.2390Z. doi :10.1121/1.3238250. PMC 2787068 . PMID  19894822. 
  95. ^ Zilany MS, Bruce IC, Carney LH (enero de 2014). "Parámetros actualizados y opciones de simulación expandidas para un modelo de la periferia auditiva". Revista de la Sociedad Acústica de América . 135 (1): 283–6. Bibcode : 2014ASAJ..135..283Z . doi :10.1121/1.4837815. PMC 3985897. PMID  24437768. 
  96. ^ Wirtzfeld MR, Ibrahim RA, Bruce IC (octubre de 2017). "Predicciones de la inteligibilidad de las quimeras del habla mediante señales neuronales de frecuencia media y sincronización de picos del nervio auditivo". Revista de la Asociación para la Investigación en Otorrinolaringología . 18 (5): 687–710. doi :10.1007/s10162-017-0627-7. PMC 5612921 . PMID  28748487. 
  97. ^ Moon IJ, Won JH, Park MH, Ives DT, Nie K, Heinz MG, Lorenzi C, Rubinstein JT (septiembre de 2014). "Combinación óptima de la envoltura temporal neuronal y las señales de estructura fina para explicar la identificación del habla en el ruido de fondo". The Journal of Neuroscience . 34 (36): 12145–54. doi :10.1523/JNEUROSCI.1025-14.2014. PMC 4152611 . PMID  25186758. 
  98. ^ ab Lorenzi C, Gilbert G, Carn H, Garnier S, Moore BC (diciembre de 2006). "Los problemas de percepción del habla de las personas con discapacidad auditiva reflejan la incapacidad de utilizar la estructura temporal fina". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 103 (49): 18866–9. Bibcode :2006PNAS..10318866L. doi : 10.1073/pnas.0607364103 . PMC 1693753 . PMID  17116863. 
  99. ^ ab Hopkins K, Moore BC (julio de 2011). "Los efectos de la edad y la pérdida auditiva coclear en la sensibilidad de la estructura fina temporal, la selectividad de frecuencia y la recepción del habla en condiciones de ruido". The Journal of the Acoustical Society of America . 130 (1): 334–49. Bibcode :2011ASAJ..130..334H. doi :10.1121/1.3585848. PMID  21786903.
  100. ^ Heinz MG, Colburn HS, Carney LH (octubre de 2001). "Evaluación de los límites del rendimiento auditivo: i. Discriminación de un parámetro utilizando un modelo computacional para el nervio auditivo". Neural Computation . 13 (10): 2273–316. doi :10.1162/089976601750541804. PMID  11570999. S2CID  14775452.
  101. ^ Heinz MG, Colburn HS, Carney LH (octubre de 2001). "Evaluación de los límites del rendimiento auditivo: II. Discriminación de un parámetro con variación de nivel aleatorio". Neural Computation . 13 (10): 2317–38. doi :10.1162/089976601750541813. PMID  11571000. S2CID  7756946.
  102. ^ Carney, Laurel H.; Heinzy, Michael G.; Evilsizer, Mary E.; Gilkeyz, Robert H.; Colburn, H. Steven (2002). "Oponencia de fase auditiva: un modelo temporal para la detección enmascarada a bajas frecuencias". Acta Acustica United with Acustica . 88 (3): 334–47.
  103. ^ Deng L, Geisler CD (diciembre de 1987). "Un modelo auditivo compuesto para procesar sonidos del habla". Revista de la Sociedad Acústica de América . 82 (6): 2001–12. Bibcode :1987ASAJ...82.2001D. doi :10.1121/1.395644. PMID  3429735.
  104. ^ Loeb GE, White MW, Merzenich MM (1983). "Correlación espacial cruzada. Un mecanismo propuesto para la percepción acústica del tono". Cibernética biológica . 47 (3): 149–63. doi :10.1007/BF00337005. PMID  6615914. S2CID  454354.
  105. ^ Shamma S, Klein D (mayo de 2000). "El caso de las plantillas de tono faltantes: cómo surgen las plantillas armónicas en el sistema auditivo temprano". The Journal of the Acoustical Society of America . 107 (5 Pt 1): 2631–44. Bibcode :2000ASAJ..107.2631S. doi :10.1121/1.428649. hdl : 1903/6017 . PMID  10830385.
  106. ^ Shamma SA (noviembre de 1985). "Procesamiento del habla en el sistema auditivo. II: Inhibición lateral y procesamiento central de la actividad evocada por el habla en el nervio auditivo". Revista de la Sociedad Acústica de Estados Unidos . 78 (5): 1622–32. Bibcode :1985ASAJ...78.1622S. doi :10.1121/1.392800. PMID  3840813.
  107. ^ abc Varnet L, Ortiz-Barajas MC, Erra RG, Gervain J, Lorenzi C (octubre de 2017). "Un estudio translingüístico de los espectros de modulación del habla" (PDF) . La Revista de la Sociedad de Acústica de América . 142 (4): 1976–1989. Código Bib : 2017ASAJ..142.1976V. doi :10.1121/1.5006179. PMID  29092595. S2CID  25269485.
  108. ^ Van Tasell DJ, Soli SD, Kirby VM, Widin GP (octubre de 1987). "Señales de envolvente de forma de onda del habla para el reconocimiento de consonantes". Revista de la Sociedad Acústica de América . 82 (4): 1152–61. Bibcode :1987ASAJ...82.1152V. doi :10.1121/1.395251. PMID  3680774.
  109. ^ ab Ghitza O (septiembre de 2001). "Sobre la frecuencia de corte superior de los detectores de envolvente de banda crítica auditiva en el contexto de la percepción del habla". Revista de la Sociedad Acústica de América . 110 (3 Pt 1): 1628–40. Bibcode :2001ASAJ..110.1628G. doi :10.1121/1.1396325. PMID  11572372.
  110. ^ ab Shannon RV, Zeng FG, Kamath V, Wygonski J, Ekelid M (octubre de 1995). "Reconocimiento del habla con claves principalmente temporales". Science . 270 (5234): 303–4. Bibcode :1995Sci...270..303S. doi :10.1126/science.270.5234.303. PMID  7569981. S2CID  581599.
  111. ^ Smith ZM, Delgutte B, Oxenham AJ (marzo de 2002). "Los sonidos quiméricos revelan dicotomías en la percepción auditiva". Nature . 416 (6876): 87–90. Bibcode :2002Natur.416...87S. doi :10.1038/416087a. PMC 2268248 . PMID  11882898. 
  112. ^ Drullman R, Festen JM, Plomp R (febrero de 1994). "Efecto de la distorsión de la envolvente temporal en la recepción del habla". Revista de la Sociedad Acústica de América . 95 (2): 1053–64. Bibcode :1994ASAJ...95.1053D. doi :10.1121/1.408467. PMID  8132899.
  113. ^ Singh NC, Theunissen FE (diciembre de 2003). "Espectros de modulación de sonidos naturales y teorías etológicas del procesamiento auditivo". Revista de la Sociedad Acústica de Estados Unidos . 114 (6 Pt 1): 3394–411. Bibcode :2003ASAJ..114.3394S. doi :10.1121/1.1624067. PMID  14714819.
  114. ^ Iverson P, Krumhansl CL (noviembre de 1993). "Aislando los atributos dinámicos del timbre musical". Revista de la Sociedad Acústica de América . 94 (5): 2595–603. Bibcode :1993ASAJ...94.2595I. doi :10.1121/1.407371. PMID  8270737. S2CID  16374075.
  115. ^ Cheveigné, Alain de (2005). "Modelos de percepción del tono". Tono . Springer Handbook of Auditory Research. Vol. 24. Springer, Nueva York, NY. págs. 169–233. doi :10.1007/0-387-28958-5_6. ISBN 9780387234724.
  116. ^ Moore BC, Glasberg BR, Low KE, Cope T, Cope W (agosto de 2006). "Efectos del nivel y la frecuencia en la audibilidad de los parciales en tonos complejos inarmónicos". Revista de la Sociedad Acústica de América . 120 (2): 934–44. Bibcode :2006ASAJ..120..934M. doi :10.1121/1.2216906. PMID  16938981.
  117. ^ Terhardt E (mayo de 1974). "Tono, consonancia y armonía". Revista de la Sociedad Acústica de América . 55 (5): 1061–9. Bibcode :1974ASAJ...55.1061T. doi :10.1121/1.1914648. PMID  4833699.
  118. ^ Santurette S, Dau T (enero de 2011). "El papel de la información de la estructura fina temporal para el tono bajo de tonos complejos de alta frecuencia". Revista de la Sociedad Acústica de América . 129 (1): 282–92. Bibcode :2011ASAJ..129..282S. doi :10.1121/1.3518718. PMID  21303009.
  119. ^ Santurette S, Dau T, Oxenham AJ (diciembre de 2012). "Sobre la posibilidad de un código de lugar para el tono bajo de tonos complejos de alta frecuencia". Revista de la Sociedad Acústica de América . 132 (6): 3883–95. Bibcode :2012ASAJ..132.3883S. doi :10.1121/1.4764897. PMC 3528728 . PMID  23231119. 
  120. ^ Gfeller K, Turner C, Oleson J, Zhang X, Gantz B, Froman R, Olszewski C (junio de 2007). "Precisión de los receptores de implantes cocleares en la percepción del tono, el reconocimiento de melodías y la recepción del habla en situaciones de ruido". Ear and Hearing . 28 (3): 412–23. doi :10.1097/AUD.0b013e3180479318. PMID  17485990. S2CID  21933200.
  121. ^ ab Zeng FG, Nie K, Stickney GS, Kong YY, Vongphoe M, Bhargave A, Wei C, Cao K (febrero de 2005). "Reconocimiento de voz con modulaciones de amplitud y frecuencia". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 102 (7): 2293–8. Bibcode :2005PNAS..102.2293Z. doi : 10.1073/pnas.0406460102 . PMC 546014 . PMID  15677723. 
  122. ^ Apoux F, Yoho SE, Youngdahl CL, Healy EW (septiembre de 2013). "El papel y la contribución relativa de la envolvente temporal y las claves de estructura fina en el reconocimiento de oraciones por parte de oyentes con audición normal". Revista de la Sociedad Acústica de América . 134 (3): 2205–12. Bibcode :2013ASAJ..134.2205A. doi :10.1121/1.4816413. PMC 3765279 . PMID  23967950. 
  123. ^ Freyman RL, Griffin AM, Oxenham AJ (octubre de 2012). "Inteligibilidad del habla susurrada en enmascaradores de ruido estacionarios y modulados". Revista de la Sociedad Acústica de Estados Unidos . 132 (4): 2514–23. Bibcode :2012ASAJ..132.2514F. doi :10.1121/1.4747614. PMC 3477190. PMID  23039445. 
  124. ^ Dick, Frederic; Krishnan, Saloni; Leech, Robert; Saygin, Ayşe Pinar (2016). "Sonidos ambientales". Neurobiología del lenguaje . págs. 1121–1138. doi :10.1016/b978-0-12-407794-2.00089-4. ISBN 978-0-12-407794-2.
  125. ^ Lemaitre, Guillaume; Grimault, Nicolas; Suied, Clara (2018). "Acústica y psicoacústica de escenas y eventos sonoros". Análisis computacional de escenas y eventos sonoros . págs. 41–67. doi :10.1007/978-3-319-63450-0_3. ISBN 978-3-319-63449-4.
  126. ^ abc Shafiro, Valeriy (junio de 2008). "Identificación de sonidos ambientales con resolución espectral variable". Ear and Hearing . 29 (3): 401–420. doi :10.1097/AUD.0b013e31816a0cf1. PMID  18344871. S2CID  44607434.
  127. ^ ab Gygi, Brian; Kidd, Gary R.; Watson, Charles S. (marzo de 2004). "Factores espectrales-temporales en la identificación de sonidos ambientales". Revista de la Sociedad Acústica de América . 115 (3): 1252–1265. Bibcode :2004ASAJ..115.1252G. doi :10.1121/1.1635840. PMID  15058346.
  128. ^ Warren, William H.; Verbrugge, Robert R. (1984). "Percepción auditiva de eventos de rotura y rebote: un estudio de caso en acústica ecológica". Revista de psicología experimental: percepción y rendimiento humanos . 10 (5): 704–712. doi :10.1037/0096-1523.10.5.704. PMID  6238128.
  129. ^ Inverso, Yell; Limb, Charles J. (agosto de 2010). "Percepción de sonidos no lingüísticos mediada por implantes cocleares". Ear and Hearing . 31 (4): 505–514. doi :10.1097/AUD.0b013e3181d99a52. PMID  20588119. S2CID  24076889.
  130. ^ Shafiro, Valeriy; Gygi, Brian; Cheng, Min-Yu; Vachhani, Jay; Mulvey, Megan (julio de 2011). "Percepción de sonidos ambientales por parte de pacientes con implantes cocleares experimentados". Ear and Hearing . 32 (4): 511–523. doi :10.1097/AUD.0b013e3182064a87. PMC 3115425 . PMID  21248643. 
  131. ^ Harris, Michael S.; Boyce, Lauren; Pisoni, David B.; Shafiro, Valeriy; Moberly, Aaron C. (octubre de 2017). "La relación entre la conciencia del sonido ambiental y las habilidades de reconocimiento del habla en usuarios experimentados de implantes cocleares". Otología y neurotología . 38 (9): e308–e314. doi :10.1097/MAO.0000000000001514. PMC 6205294 . PMID  28731964. 
  132. ^ Moore BC, Gockel HE (abril de 2012). "Propiedades de la formación de la corriente auditiva". Philosophical Transactions of the Royal Society of London. Serie B, Ciencias Biológicas . 367 (1591): 919–31. doi :10.1098/rstb.2011.0355. PMC 3282308 . PMID  22371614. 
  133. ^ Cusack R, Roberts B (julio de 2004). "Efectos de las diferencias en el patrón de envolventes de amplitud a través de armónicos en la segregación de la corriente auditiva". Hearing Research . 193 (1–2): 95–104. doi :10.1016/j.heares.2004.03.009. PMID  15219324. S2CID  2056844.
  134. ^ Vliegen J, Oxenham AJ (enero de 1999). "Segregación de flujo secuencial en ausencia de señales espectrales" (PDF) . The Journal of the Acoustical Society of America . 105 (1): 339–46. Bibcode :1999ASAJ..105..339V. doi :10.1121/1.424503. PMID  9921660.
  135. ^ Grimault N, Micheyl C, Carlyon RP, Arthaud P, Collet L (julio de 2000). "Influencia de la resolubilidad periférica en la segregación perceptual de tonos complejos armónicos que difieren en frecuencia fundamental". Revista de la Sociedad Acústica de Estados Unidos . 108 (1): 263–71. Bibcode :2000ASAJ..108..263G. doi :10.1121/1.429462. PMID  10923890.
  136. ^ Grimault N, Bacon SP, Micheyl C (marzo de 2002). "Segregación de la corriente auditiva en función de la tasa de modulación de amplitud". Revista de la Sociedad Acústica de Estados Unidos . 111 (3): 1340–8. Bibcode :2002ASAJ..111.1340G. doi :10.1121/1.1452740. PMID  11931311.
  137. ^ Yamagishi S, Otsuka S, Furukawa S, Kashino M (julio de 2017). "Comparación de las propiedades perceptuales de la transmisión auditiva entre los dominios de modulación espectral y de amplitud". Hearing Research . 350 : 244–250. doi : 10.1016/j.heares.2017.03.006 . PMID  28323019.
  138. ^ David M, Lavandier M, Grimault N, Oxenham AJ (septiembre de 2017). "Discriminación y transmisión de sonidos del habla basados ​​en diferencias en señales interaurales y espectrales". Revista de la Sociedad Acústica de América . 142 (3): 1674–1685. Bibcode :2017ASAJ..142.1674D. doi :10.1121/1.5003809. PMC 5617732. PMID  28964066 . 
  139. ^ ab Levi EC, Werner LA (1996). "Detección de modulación de amplitud en la infancia: actualización sobre los niños de 3 meses". Assoc. Res. Otolaryngol . 19 : 142.
  140. ^ Werner LA (octubre de 1996). "El desarrollo de la conducta auditiva (o lo que los anatomistas y fisiólogos tienen que explicar)". Ear and Hearing . 17 (5): 438–46. doi :10.1097/00003446-199610000-00010. PMID  8909892. S2CID  37813999.
  141. ^ Werner LA (abril de 1999). "Enmascaramiento hacia delante entre oyentes infantiles y adultos". Revista de la Sociedad Acústica de América . 105 (4): 2445–53. Bibcode :1999ASAJ..105.2445W. doi :10.1121/1.426849. PMID  10212425.
  142. ^ ab Levi EC, Folsom RC, Dobie RA (septiembre de 1995). "Análisis de coherencia de respuestas de seguimiento de envolvente (EFR) y respuestas de seguimiento de frecuencia (FFR) en bebés y adultos". Hearing Research . 89 (1–2): 21–7. doi :10.1016/0378-5955(95)00118-3. PMID  8600128. S2CID  4764350.
  143. ^ Levi EC, Folsom RC, Dobie RA (junio de 1993). "Respuesta de modulación de amplitud (AMFR): efectos de la tasa de modulación, frecuencia portadora, edad y estado". Hearing Research . 68 (1): 42–52. doi :10.1016/0378-5955(93)90063-7. PMID  8376214. S2CID  4703747.
  144. ^ Hall JW, Grose JH (julio de 1994). "Desarrollo de la resolución temporal en niños medido por la función de transferencia de modulación temporal". The Journal of the Acoustical Society of America . 96 (1): 150–4. Bibcode :1994ASAJ...96..150H. doi :10.1121/1.410474. PMID  7598757.
  145. ^ Peter V, Wong K, Narne VK, Sharma M, Purdy SC, McMahon C (febrero de 2014). "Evaluación del procesamiento espectral y temporal en niños y adultos mediante la función de transferencia de modulación temporal (TMTF), la percepción del ruido de ondulación iterada (IRN) y la discriminación de ondulación espectral (SRD)". Revista de la Academia Estadounidense de Audiología . 25 (2): 210–8. doi :10.3766/jaaa.25.2.9. PMID  24828221.
  146. ^ Werner LA (2007). "Problemas en el desarrollo auditivo humano". Journal of Communication Disorders . 40 (4): 275–83. doi :10.1016/j.jcomdis.2007.03.004. PMC 1975821 . PMID  17420028. 
  147. ^ Buss E, Hall JW, Grose JH, Dev MB (agosto de 1999). "Desarrollo de un rendimiento similar al de los adultos en enmascaramiento hacia atrás, simultáneo y hacia delante". Revista de investigación del habla, el lenguaje y la audición . 42 (4): 844–9. doi :10.1044/jslhr.4204.844. PMID  10450905.
  148. ^ Cabrera L, Werner L (julio de 2017). "Uso de señales temporales en la discriminación consonántica por parte de bebés y adultos" (PDF) . Ear and Hearing . 38 (4): 497–506. doi :10.1097/AUD.0000000000000422. PMC 5482774 . PMID  28338496. 
  149. ^ ab Bertoncini J, Serniclaes W, Lorenzi C (junio de 2009). "Discriminación de sonidos del habla basada en la envolvente temporal frente a las señales de estructura fina en niños de 5 a 7 años". Journal of Speech, Language, and Hearing Research . 52 (3): 682–95. doi :10.1044/1092-4388(2008/07-0273). PMID  18952853.
  150. ^ ab Le Prell CG (2012). Pérdida de audición inducida por ruido: avances científicos. Springer Handbook of Auditory Research. Springer. ISBN 9781441995223.
  151. ^ ab Manley GA (2017). Entendiendo la cóclea. Springer Handbook of Auditory Research. Springer. ISBN 9783319520711.
  152. ^ abc Kale S, Heinz MG (diciembre de 2010). "Codificación de la envoltura en las fibras del nervio auditivo después de una pérdida de audición inducida por ruido". Revista de la Asociación para la Investigación en Otorrinolaringología . 11 (4): 657–73. doi :10.1007/s10162-010-0223-6. PMC 2975881 . PMID  20556628. 
  153. ^ Zhong Z, Henry KS, Heinz MG (marzo de 2014). "La pérdida auditiva neurosensorial amplifica la codificación neuronal de la información de la envoltura en el sistema auditivo central de las chinchillas". Hearing Research . 309 : 55–62. doi :10.1016/j.heares.2013.11.006. PMC 3922929 . PMID  24315815. 
  154. ^ Kale S, Heinz MG (abril de 2012). "Funciones de transferencia de modulación temporal medidas a partir de las respuestas del nervio auditivo después de una pérdida auditiva neurosensorial". Hearing Research . 286 (1–2): 64–75. doi :10.1016/j.heares.2012.02.004. PMC 3326227 . PMID  22366500. 
  155. ^ Henry KS, Kale S, Heinz MG (17 de febrero de 2014). "La pérdida de audición inducida por ruido aumenta la precisión temporal de la codificación de envolvente compleja por fibras del nervio auditivo". Frontiers in Systems Neuroscience . 8 : 20. doi : 10.3389/fnsys.2014.00020 . PMC 3925834 . PMID  24596545. 
  156. ^ ab Ruggero MA, Rich NC (abril de 1991). "La furosemida altera la mecánica del órgano de Corti: evidencia de retroalimentación de las células ciliadas externas sobre la membrana basilar". The Journal of Neuroscience . 11 (4): 1057–67. doi :10.1523/JNEUROSCI.11-04-01057.1991. PMC 3580957 . PMID  2010805. 
  157. ^ Heinz MG, Young ED (febrero de 2004). "Crecimiento de la respuesta con el nivel de sonido en las fibras del nervio auditivo después de la pérdida de audición inducida por ruido". Journal of Neurophysiology . 91 (2): 784–95. doi :10.1152/jn.00776.2003. PMC 2921373 . PMID  14534289. 
  158. ^ ab Moore BC, Glasberg BR (agosto de 2001). "Funciones de transferencia de modulación temporal obtenidas utilizando portadoras sinusoidales con oyentes con audición normal y con discapacidad auditiva". The Journal of the Acoustical Society of America . 110 (2): 1067–73. Bibcode :2001ASAJ..110.1067M. doi :10.1121/1.1385177. PMID  11519575.
  159. ^ ab Füllgrabe C, Moore BC, Stone MA (2014). "Diferencias por grupo de edad en la identificación del habla a pesar de una audición audiométricamente normal: contribuciones del procesamiento temporal auditivo y la cognición". Frontiers in Aging Neuroscience . 6 : 347. doi : 10.3389/fnagi.2014.00347 . PMC 4292733 . PMID  25628563. 
  160. ^ Wallaert N, Moore BC, Lorenzi C (junio de 2016). "Comparación de los efectos de la edad en la detección de modulación de amplitud y modulación de frecuencia". Revista de la Sociedad Acústica de Estados Unidos . 139 (6): 3088–3096. Bibcode :2016ASAJ..139.3088W. doi :10.1121/1.4953019. PMID  27369130.
  161. ^ Bacon SP, Gleitman RM (junio de 1992). "Detección de modulación en sujetos con pérdidas auditivas relativamente planas". Journal of Speech and Hearing Research . 35 (3): 642–53. doi :10.1044/jshr.3503.642. PMID  1608256.
  162. ^ Moore BC, Shailer MJ, Schooneveldt GP (agosto de 1992). "Funciones de transferencia de modulación temporal para ruido de banda limitada en sujetos con pérdida auditiva coclear". British Journal of Audiology . 26 (4): 229–37. doi :10.3109/03005369209076641. PMID  1446186.
  163. ^ ab Schlittenlacher J, Moore BC (noviembre de 2016). "Discriminación de la profundidad de modulación de amplitud por sujetos con audición normal y deficiente". Revista de la Sociedad Acústica de América . 140 (5): 3487–3495. Bibcode :2016ASAJ..140.3487S. doi : 10.1121/1.4966117 . PMID  27908066.
  164. ^ Başkent D (noviembre de 2006). "Reconocimiento del habla en personas con audición normal y pérdida auditiva neurosensorial en función del número de canales espectrales". Revista de la Sociedad Americana de Acústica . 120 (5): 2908–2925. Bibcode :2006ASAJ..120.2908B. doi :10.1121/1.2354017. PMID  17139748.
  165. ^ ab King A, Hopkins K, Plack CJ (enero de 2014). "Los efectos de la edad y la pérdida auditiva en la discriminación de la diferencia de fase interaural". Revista de la Sociedad Acústica de América . 135 (1): 342–51. Bibcode :2014ASAJ..135..342K. doi :10.1121/1.4838995. PMID  24437774.
  166. ^ abc Derleth RP, Dau T, Kollmeier B (septiembre de 2001). "Modelado de propiedades temporales y compresivas del sistema auditivo normal y deficiente". Hearing Research . 159 (1–2): 132–49. doi :10.1016/S0378-5955(01)00322-7. PMID  11520641. S2CID  1288804.
  167. ^ abcd Wallaert N, Moore BC, Ewert SD, Lorenzi C (febrero de 2017). "La pérdida auditiva neurosensorial mejora la sensibilidad auditiva y la integración temporal para la modulación de amplitud". Revista de la Sociedad Acústica de Estados Unidos . 141 (2): 971–980. Bibcode :2017ASAJ..141..971W. doi :10.1121/1.4976080. PMID  28253641.
  168. ^ ab Jepsen ML, Dau T (enero de 2011). "Caracterización del procesamiento auditivo y la percepción en oyentes individuales con pérdida auditiva neurosensorial". Revista de la Sociedad Americana de Acústica . 129 (1): 262–81. Bibcode :2011ASAJ..129..262J. doi :10.1121/1.3518768. PMID  21303008.
  169. ^ Ives DT, Kalluri S, Strelcyk O, Sheft S, Miermont F, Coez A, Bizaguet E, Lorenzi C (octubre de 2014). "Efectos de la reducción de ruido en la percepción de AM para oyentes con discapacidad auditiva". Revista de la Asociación para la Investigación en Otorrinolaringología . 15 (5): 839–48. doi :10.1007/s10162-014-0466-8. PMC 4164688 . PMID  24899379. 
  170. ^ Paul BT, Bruce IC, Roberts LE (febrero de 2017). "Evidencia de que la pérdida auditiva oculta subyace a los déficits de codificación de modulación de amplitud en individuos con y sin tinnitus". Hearing Research . 344 : 170–182. doi :10.1016/j.heares.2016.11.010. PMID  27888040. S2CID  205103970.
  171. ^ Aslin RN (agosto de 1989). "Discriminación de transiciones de frecuencia por parte de bebés humanos". Revista de la Sociedad Acústica de América . 86 (2): 582–90. Bibcode :1989ASAJ...86..582A. doi :10.1121/1.398237. PMID  2768673.
  172. ^ Colombo J, Horowitz FD (abril de 1986). "Respuestas atencionales de los bebés a barridos de frecuencia modulada". Desarrollo infantil . 57 (2): 287–91. doi :10.2307/1130583. JSTOR  1130583. PMID  3956313.
  173. ^ Leibold LJ, Werner LA (1 de septiembre de 2007). "Sensibilidad auditiva infantil a tonos puros y tonos modulados en frecuencia". Infancia . 12 (2): 225–233. CiteSeerX 10.1.1.525.6267 . doi :10.1111/j.1532-7078.2007.tb00241.x. PMID  33412743. 
  174. ^ Dawes P, Bishop DV (agosto de 2008). "Maduración del procesamiento temporal visual y auditivo en niños en edad escolar" (PDF) . Revista de investigación del habla, el lenguaje y la audición . 51 (4): 1002–15. doi :10.1044/1092-4388(2008/073). PMID  18658067. S2CID  13953101.
  175. ^ Henry KS, Heinz MG (octubre de 2012). "La codificación temporal disminuida con pérdida auditiva neurosensorial surge en el ruido de fondo". Nature Neuroscience . 15 (10): 1362–4. doi :10.1038/nn.3216. PMC 3458164 . PMID  22960931. 
  176. ^ Henry KS, Kale S, Heinz MG (febrero de 2016). "Codificación tonotópica distorsionada de la envoltura temporal y la estructura fina con pérdida auditiva inducida por ruido". The Journal of Neuroscience . 36 (7): 2227–37. doi :10.1523/JNEUROSCI.3944-15.2016. PMC 4756156 . PMID  26888932. 
  177. ^ ab Moore BC, Peters RW (mayo de 1992). "Discriminación de tono y sensibilidad de fase en sujetos jóvenes y mayores y su relación con la selectividad de frecuencia". Revista de la Sociedad Acústica de América . 91 (5): 2881–93. Bibcode :1992ASAJ...91.2881M. doi :10.1121/1.402925. PMID  1629481.
  178. ^ ab Moore BC (2008). Moore BC (ed.). Pérdida auditiva coclear: cuestiones fisiológicas, psicológicas y técnicas (segunda ed.). Wiley Online Library. doi :10.1002/9780470987889. ISBN 9780470987889. Número de identificación del sujeto  142251782.
  179. ^ Hopkins K, Moore BC (agosto de 2007). "La pérdida auditiva coclear moderada conduce a una capacidad reducida para utilizar la información de la estructura fina temporal". Revista de la Sociedad Acústica de América . 122 (2): 1055–68. Bibcode :2007ASAJ..122.1055H. doi :10.1121/1.2749457. PMID  17672653.
  180. ^ Moore BC, Skrodzka E (enero de 2002). "Detección de modulación de frecuencia por parte de oyentes con problemas de audición: efectos de la frecuencia portadora, tasa de modulación y modulación de amplitud añadida". Revista de la Sociedad Acústica de Estados Unidos . 111 (1 Pt 1): 327–35. Bibcode :2002ASAJ..111..327M. doi :10.1121/1.1424871. PMID  11833538.
  181. ^ Grose JH, Mamo SK (diciembre de 2012). "Detección de modulación de frecuencia como medida del procesamiento temporal: efectos monoaurales y binaurales relacionados con la edad". Hearing Research . 294 (1–2): 49–54. doi :10.1016/j.heares.2012.09.007. PMC 3505233 . PMID  23041187. 
  182. ^ abc Santurette S, Dau T (enero de 2007). "Percepción binaural del tono en oyentes con audición normal y con discapacidad auditiva". Hearing Research . 223 (1–2): 29–47. doi :10.1016/j.heares.2006.09.013. PMID  17107767. S2CID  6209193.
  183. ^ Grose JH, Mamo SK (diciembre de 2010). "Procesamiento de la estructura fina temporal en función de la edad". Ear and Hearing . 31 (6): 755–60. doi :10.1097/AUD.0b013e3181e627e7. PMC 2966515 . PMID  20592614. 
  184. ^ ab Lopez-Poveda EA, Barrios P ​​(16 de julio de 2013). "Percepción de formas de onda sonoras submuestreadas estocásticamente: un modelo de desaferenciación auditiva". Frontiers in Neuroscience . 7 : 124. doi : 10.3389/fnins.2013.00124 . PMC 3712141 . PMID  23882176. 
  185. ^ Young ED, Sachs MB (noviembre de 1979). "Representación de vocales en estado estacionario en los aspectos temporales de los patrones de descarga de poblaciones de fibras del nervio auditivo". Revista de la Sociedad Acústica de América . 66 (5): 1381–1403. Bibcode :1979ASAJ...66.1381Y. doi :10.1121/1.383532. PMID  500976.
  186. ^ Zeng FG, Kong YY, Michalewski HJ, Starr A (junio de 2005). "Consecuencias perceptivas de la actividad alterada del nervio auditivo". Journal of Neurophysiology . 93 (6): 3050–63. doi :10.1152/jn.00985.2004. PMID  15615831. S2CID  8628394.
  187. ^ Pichora-Fuller MK, Schneider BA, Macdonald E, Pass HE, Brown S (enero de 2007). "La vibración temporal altera la inteligibilidad del habla: una simulación del envejecimiento auditivo". Hearing Research . 223 (1–2): 114–21. doi :10.1016/j.heares.2006.10.009. PMID  17157462. S2CID  6541722.
  188. ^ Lopez-Poveda EA (2014-10-30). "¿Por qué escucho pero no entiendo? El submuestreo estocástico como modelo de codificación neuronal degradada del habla". Frontiers in Neuroscience . 8 : 348. doi : 10.3389/fnins.2014.00348 . PMC 4214224 . PMID  25400543. 
  189. ^ Fowler EP (1936-12-01). "Un método para la detección temprana de la otosclerosis: un estudio de sonidos muy por encima del umbral". Archivos de otorrinolaringología y cirugía de cabeza y cuello . 24 (6): 731–741. doi :10.1001/archotol.1936.00640050746005.
  190. ^ Moore BC (junio de 2004). "Prueba del concepto de impercepción de suavidad: volumen cerca del umbral para oídos con problemas de audición". Revista de la Sociedad Acústica de Estados Unidos . 115 (6): 3103–11. Bibcode :2004ASAJ..115.3103M. doi : 10.1121/1.1738839 . PMID  15237835.
  191. ^ Stone MA, Moore BC (diciembre de 1992). "Compresión silábica: relaciones de compresión efectivas para señales moduladas a diferentes velocidades". British Journal of Audiology . 26 (6): 351–61. doi :10.3109/03005369209076659. PMID  1292819.
  192. ^ Plomp R (junio de 1988). "El efecto negativo de la compresión de amplitud en los audífonos multicanal a la luz de la función de transferencia de modulación". The Journal of the Acoustical Society of America . 83 (6): 2322–7. Bibcode :1988ASAJ...83.2322P. doi : 10.1121/1.396363 . PMID  3411024.
  193. ^ Stone MA, Moore BC (marzo de 2007). "Cuantificación de los efectos de la compresión de acción rápida en la envolvente del habla". Revista de la Sociedad Acústica de América . 121 (3): 1654–64. Bibcode :2007ASAJ..121.1654S. doi :10.1121/1.2434754. PMID  17407902.
  194. ^ Bacon S (2004). Compresión: de la cóclea a los implantes cocleares. Springer Handbook of Auditory Research. Springer. ISBN 9780387004969.
  195. ^ Boyle PJ, Büchner A, Stone MA, Lenarz T, Moore BC (abril de 2009). "Comparación de sistemas de control automático de ganancia (AGC) de acción rápida y de constante de tiempo dual en implantes cocleares". Revista Internacional de Audiología . 48 (4): 211–21. doi :10.1080/14992020802581982. PMID  19363722. S2CID  2235920.
  196. ^ Clark GM, Blamey PJ, Brown AM, Gusby PA, Dowell RC, Franz BK, Pyman BC, Shepherd RK, Tong YC, Webb RL (1987). "La Universidad de Melbourne: implante coclear multielectrodo de núcleo". Avances en otorrinolaringología . 38 : V–IX, 1–181. doi :10.1159/000414597. PMID  3318305.
  197. ^ Başkent D, Gaudrain E, Tamati TN, Wagner A (2016). "Capítulo 12: Percepción y psicoacústica del habla en usuarios de implantes cocleares". En Cacace AT, de Kleine E, Holt AG, van Dijk P (eds.). Fundamentos científicos de la audiología: perspectivas desde la física, la biología, el modelado y la medicina . San Diego, CA: Plural Publishing, Inc. págs. 285–319. ISBN 978-1-59756-652-0.
  198. ^ Bierer JA, Faulkner KF (abril de 2010). "Identificación de canales de implantes cocleares con una interfaz electrodo-neurona deficiente: umbrales tripolares parciales, de canal único y curvas de ajuste psicofísico". Ear and Hearing . 31 (2): 247–58. doi :10.1097/AUD.0b013e3181c7daf4. PMC 2836401 . PMID  20090533. 
  199. ^ Lazard DS, Vincent C, Venail F, Van de Heyning P, Truy E, Sterkers O, et al. (noviembre de 2012). "Factores preoperatorios, peroperatorios y posoperatorios que afectan el desempeño de adultos sordos postlingüísticos que utilizan implantes cocleares: un nuevo modelo conceptual a lo largo del tiempo". PLOS ONE . ​​7 (11): e48739. Bibcode :2012PLoSO...748739L. doi : 10.1371/journal.pone.0048739 . PMC 3494723 . PMID  23152797. 
  200. ^ Holden LK, Firszt JB, Reeder RM, Uchanski RM, Dwyer NY, Holden TA (diciembre de 2016). "Factores que afectan los resultados en los receptores de implantes cocleares implantados con un conjunto de electrodos perimodiolares ubicados en la rampa timpánica". Otología y neurotología . 37 (10): 1662–1668. doi :10.1097/MAO.0000000000001241. PMC 5113723 . PMID  27755365. 
  201. ^ Boyle PJ, Nunn TB, O'Connor AF, Moore BC (marzo de 2013). "STARR: una prueba de habla para la evaluación de la eficacia de las prótesis auditivas en condiciones realistas". Ear and Hearing . 34 (2): 203–12. doi :10.1097/AUD.0b013e31826a8e82. PMID  23135616. S2CID  11733708.
  202. ^ Won JH, Drennan WR, Nie K, Jameyson EM, Rubinstein JT (julio de 2011). "Detección de modulación temporal acústica y percepción del habla en oyentes con implantes cocleares". Revista de la Sociedad Acústica de Estados Unidos . 130 (1): 376–88. Bibcode :2011ASAJ..130..376W. doi :10.1121/1.3592521. PMC 3155593. PMID  21786906 . 
  203. ^ Fu QJ (septiembre de 2002). "Procesamiento temporal y reconocimiento del habla en usuarios de implantes cocleares". NeuroReport . 13 (13): 1635–9. doi :10.1097/00001756-200209160-00013. PMID  12352617. S2CID  44385994.
  204. ^ Friesen LM, Shannon RV, Baskent D, Wang X (agosto de 2001). "Reconocimiento del habla en ruido como función del número de canales espectrales: comparación de la audición acústica y los implantes cocleares". The Journal of the Acoustical Society of America . 110 (2): 1150–63. Bibcode :2001ASAJ..110.1150F. doi :10.1121/1.1381538. PMID  11519582.
  205. ^ Moore DR, Shannon RV (junio de 2009). "Más allá de los implantes cocleares: despertar el cerebro sordo". Nature Neuroscience . 12 (6): 686–91. doi :10.1038/nn.2326. PMID  19471266. S2CID  35141874.
  206. ^ Stickney GS, Zeng FG, Litovsky R, Assmann P (agosto de 2004). "Reconocimiento de voz con implante coclear con enmascaradores de voz". Revista de la Sociedad Acústica de Estados Unidos . 116 (2): 1081–91. Bibcode :2004ASAJ..116.1081S. doi :10.1121/1.1772399. PMID  15376674.
  207. ^ Blamey P, Artieres F, Başkent D, Bergeron F, Beynon A, Burke E, et al. (2013). "Factores que afectan el desempeño auditivo de adultos postlingüísticamente sordos que usan implantes cocleares: una actualización con 2251 pacientes" (PDF) . Audiología y neuro-otología . 18 (1): 36–47. doi :10.1159/000343189. PMID  23095305. S2CID  4668675.
  208. ^ Başkent D, Clarke J, Pals C, Benard MR, Bhargava P, Saija J, Sarampalis A, Wagner A, Gaudrain E (octubre de 2016). "Compensación cognitiva de la percepción del habla con discapacidad auditiva, implantes cocleares y envejecimiento". Tendencias en la audición . 20 : 233121651667027. doi :10.1177/2331216516670279. PMC 5056620 . 
  209. ^ Pfingst BE, Burkholder-Juhasz RA, Xu L, Thompson CS (febrero de 2008). "Patrones de detección de modulación en diferentes sitios en oyentes con implantes cocleares". The Journal of the Acoustical Society of America . 123 (2): 1054–62. Bibcode :2008ASAJ..123.1054P. doi :10.1121/1.2828051. PMC 2431465 . PMID  18247907. 
  210. ^ ab Chatterjee M, Oberzut C (septiembre de 2011). "Detección y discriminación de frecuencia de modulación de amplitud en audición eléctrica". Revista de la Sociedad Acústica de América . 130 (3): 1567–80. Bibcode :2011ASAJ..130.1567C. doi :10.1121/1.3621445. PMC 3188971. PMID  21895095 . 
  211. ^ Shannon RV (abril de 1992). "Funciones de transferencia de modulación temporal en pacientes con implantes cocleares". Revista de la Sociedad Acústica de Estados Unidos . 91 (4 Pt 1): 2156–64. Bibcode :1992ASAJ...91.2156S. doi :10.1121/1.403807. PMID  1597606.
  212. ^ Cazals Y, Pelizzone M, Saudan O, Boex C (octubre de 1994). "Filtrado de paso bajo en la detección de modulación de amplitud asociada con la identificación de vocales y consonantes en sujetos con implantes cocleares". The Journal of the Acoustical Society of America . 96 (4): 2048–54. Bibcode :1994ASAJ...96.2048C. doi :10.1121/1.410146. PMID  7963020.
  213. ^ Cooper WB, Tobey E, Loizou PC (agosto de 2008). "Percepción musical de oyentes con implantes cocleares y con audición normal, medida con la Batería de Montreal para la evaluación de la amusia". Ear and Hearing . 29 (4): 618–26. doi :10.1097/AUD.0b013e318174e787. PMC 2676841 . PMID  18469714. 
  214. ^ Galvin JJ, Fu QJ, Nogaki G (junio de 2007). "Identificación del contorno melódico por parte de oyentes con implantes cocleares". Ear and Hearing . 28 (3): 302–19. doi :10.1097/01.aud.0000261689.35445.20. PMC 3627492 . PMID  17485980. 
  215. ^ Fu QJ, Chinchilla S, Nogaki G, Galvin JJ (septiembre de 2005). "Identificación del género de la voz por parte de usuarios de implantes cocleares: el papel de la resolución espectral y temporal". Revista de la Sociedad Acústica de Estados Unidos . 118 (3 Pt 1): 1711–8. Bibcode :2005ASAJ..118.1711F. doi :10.1121/1.1985024. PMID  16240829.
  216. ^ Fuller CD, Gaudrain E, Clarke JN, Galvin JJ, Fu QJ, Free RH, Başkent D (diciembre de 2014). "La categorización por género es anormal en los usuarios de implantes cocleares". Revista de la Asociación para la Investigación en Otorrinolaringología . 15 (6): 1037–48. doi :10.1007/s10162-014-0483-7. PMC 4389960 . PMID  25172111. 
  217. ^ Peng SC, Lu HP, Lu N, Lin YS, Deroche ML, Chatterjee M (mayo de 2017). "Procesamiento de señales acústicas en la identificación de tonos léxicos por parte de pacientes pediátricos con implantes cocleares". Revista de investigación del habla, el lenguaje y la audición . 60 (5): 1223–1235. doi :10.1044/2016_JSLHR-S-16-0048. PMC 5755546 . PMID  28388709. 
  218. ^ Wang W, Zhou N, Xu L (abril de 2011). "Percepción del tono musical y del tono léxico con implantes cocleares". Revista Internacional de Audiología . 50 (4): 270–8. doi :10.3109/14992027.2010.542490. PMC 5662112 . PMID  21190394. 
  219. ^ Chatterjee M, Peng SC (enero de 2008). "Procesamiento de F0 con implantes cocleares: discriminación de frecuencia de modulación y reconocimiento de la entonación del habla". Hearing Research . 235 (1–2): 143–56. doi :10.1016/j.heares.2007.11.004. PMC 2237883 . PMID  18093766. 
  220. ^ Fu QJ, Galvin JJ (diciembre de 2007). "Reconocimiento de emociones vocales por parte de oyentes con audición normal y usuarios de implantes cocleares". Tendencias en amplificación . 11 (4): 301–15. doi :10.1177/1084713807305301. PMC 4111530 . PMID  18003871. 
  221. ^ Chatterjee M, Zion DJ, Deroche ML, Burianek BA, Limb CJ, Goren AP, Kulkarni AM, Christensen JA (abril de 2015). "Reconocimiento de emociones de voz por parte de niños con implantes cocleares y sus compañeros con audición normal". Hearing Research . 322 : 151–62. doi :10.1016/j.heares.2014.10.003. PMC 4615700 . PMID  25448167. 
  222. ^ Chatterjee M, Oba SI (diciembre de 2004). "Interacciones de envolventes entre canales y dentro de ellos en oyentes con implantes cocleares". Revista de la Asociación para la Investigación en Otorrinolaringología . 5 (4): 360–75. doi :10.1007/s10162-004-4050-5. PMC 2504569 . PMID  15675001. 
  223. ^ Chatterjee M, Kulkarni AM (febrero de 2018). "Interferencia en la detección de modulación en oyentes con implantes cocleares en condiciones de enmascaramiento hacia delante". Revista de la Sociedad Acústica de Estados Unidos . 143 (2): 1117–1127. Bibcode :2018ASAJ..143.1117C. doi : 10.1121/1.5025059. PMC 5821512. PMID  29495705. 
  224. ^ Alcántara JL, Moore BC, Kühnel V, Launer S (enero de 2003). "Evaluación del sistema de reducción de ruido en un audífono digital comercial". Revista Internacional de Audiología . 42 (1): 34–42. doi :10.3109/14992020309056083. PMID  12564514. S2CID  8131281.
  225. ^ Moore BC (marzo de 2003). "Codificación de sonidos en el sistema auditivo y su relevancia para el procesamiento y codificación de señales en implantes cocleares". Otología y neurotología . 24 (2): 243–54. doi :10.1097/00129492-200303000-00019. PMID  12621339. S2CID  16232602.
  226. ^ Rader T, Döge J, Adel Y, Weissgerber T, Baumann U (septiembre de 2016). "Las tasas de estimulación dependientes del lugar mejoran la percepción del tono en personas con implantes cocleares y sordera unilateral". Hearing Research . 339 : 94–103. doi :10.1016/j.heares.2016.06.013. PMID  27374479. S2CID  4853875.
  227. ^ Roy AT, Carver C, Jiradejvong P, Limb CJ (octubre de 2015). "Calidad del sonido musical en usuarios de implantes cocleares: una comparación en la percepción de frecuencias graves entre el procesamiento de estructura fina y las estrategias de muestreo intercalado continuo de alta definición". Ear and Hearing . 36 (5): 582–90. doi :10.1097/AUD.0000000000000170. PMID  25906173. S2CID  35712387.
  228. ^ Fitzgerald MB, Wright BA (febrero de 2011). "Aprendizaje perceptual y generalización resultantes del entrenamiento en una tarea de detección de modulación de amplitud auditiva". The Journal of the Acoustical Society of America . 129 (2): 898–906. Bibcode :2011ASAJ..129..898F. doi :10.1121/1.3531841. PMC 3070992 . PMID  21361447. 
  229. ^ Fitzgerald MB, Wright BA (diciembre de 2005). "Una investigación del aprendizaje perceptual del tono provocado por el ruido modulado en amplitud". Revista de la Sociedad Acústica de América . 118 (6): 3794–803. Bibcode :2005ASAJ..118.3794F. doi :10.1121/1.2074687. PMID  16419824.
  230. ^ ab Sabin AT, Eddins DA, Wright BA (mayo de 2012). "Evidencia de aprendizaje perceptivo para la sintonización con la modulación espectrotemporal en el sistema auditivo humano". The Journal of Neuroscience . 32 (19): 6542–9. doi :10.1523/JNEUROSCI.5732-11.2012. PMC 3519395 . PMID  22573676. 
  231. ^ Joosten ER, Shamma SA, Lorenzi C, Neri P (julio de 2016). "Reponderación dinámica de filtros de modulación auditiva". PLOS Computational Biology . 12 (7): e1005019. Bibcode :2016PLSCB..12E5019J. doi : 10.1371/journal.pcbi.1005019 . PMC 4939963 . PMID  27398600. 
  232. ^ Aizawa N, Eggermont JJ ​​(marzo de 2006). "Efectos de la pérdida auditiva inducida por ruido a una edad temprana en el tiempo de inicio de la voz y las representaciones de espacios en el ruido en la corteza auditiva primaria de gatos adultos". Revista de la Asociación para la Investigación en Otorrinolaringología . 7 (1): 71–81. doi :10.1007/s10162-005-0026-3. PMC 2504589 . PMID  16408166. 
  233. ^ Rosen MJ, Sarro EC, Kelly JB, Sanes DH (26 de julio de 2012). "La disminución de la sensibilidad conductual y neuronal a la modulación del sonido se asocia con una pérdida auditiva moderada del desarrollo". PLOS ONE . ​​7 (7): e41514. Bibcode :2012PLoSO...741514R. doi : 10.1371/journal.pone.0041514 . PMC 3406049 . PMID  22848517. 
  234. ^ Caras ML, Sanes DH (julio de 2015). "Déficits perceptuales sostenidos por privación sensorial transitoria". The Journal of Neuroscience . 35 (30): 10831–42. doi :10.1523/JNEUROSCI.0837-15.2015. PMC 4518056 . PMID  26224865. 
  235. ^ Zhou X, Merzenich MM (mayo de 2012). "La exposición al ruido ambiental degrada los procesos normales de escucha". Nature Communications . 3 : 843. Bibcode :2012NatCo...3..843Z. doi : 10.1038/ncomms1849 . PMID  22588305.
  236. ^ Bao S, Chang EF, Woods J, Merzenich MM (septiembre de 2004). "Plasticidad temporal en la corteza auditiva primaria inducida por el aprendizaje perceptual operante". Nature Neuroscience . 7 (9): 974–81. doi :10.1038/nn1293. PMID  15286790. S2CID  8038109.
  237. ^ Kilgard MP, Merzenich MM (diciembre de 1998). "Plasticidad del procesamiento de información temporal en la corteza auditiva primaria". Nature Neuroscience . 1 (8): 727–31. doi :10.1038/3729. PMC 2948964 . PMID  10196590. 
  238. ^ Anderson S, White-Schwoch T, Choi HJ, Kraus N (2013). "El entrenamiento cambia el procesamiento de las señales del habla en adultos mayores con pérdida auditiva". Frontiers in Systems Neuroscience . 7 : 97. doi : 10.3389/fnsys.2013.00097 . PMC 3842592 . PMID  24348347. 
  239. ^ Wong PC, Skoe E, Russo NM, Dees T, Kraus N (abril de 2007). "La experiencia musical moldea la codificación del tronco encefálico humano de los patrones de tono lingüísticos". Nature Neuroscience . 10 (4): 420–2. doi :10.1038/nn1872. PMC 4508274 . PMID  17351633. 
  240. ^ Perez E, McCormack A, Edmonds BA (2014). "Sensibilidad a la estructura fina temporal y resultados de los audífonos en adultos mayores". Frontiers in Neuroscience . 8 : 7. doi : 10.3389/fnins.2014.00007 . PMC 3914396 . PMID  24550769. 
  241. ^ Rönnberg J, Lunner T, Ng EH, Lidestam B, Zekveld AA, Sörqvist P, Lyxell B, Träff U, Yumba W, Classon E, Hällgren M, Larsby B, Signoret C, Pichora-Fuller MK, Rudner M, Danielsson H , Stenfelt S (noviembre de 2016). "Dificultad auditiva, cognición y comprensión del habla: análisis factorial exploratorio de una batería de pruebas integral para un grupo de usuarios de audífonos, el estudio n200". Revista Internacional de Audiología . 55 (11): 623–42. doi :10.1080/14992027.2016.1219775. PMC 5044772 . PMID  27589015. 
  242. ^ Moore BC, Sęk A (septiembre de 2016). "Velocidad de compresión preferida para el habla y la música y su relación con la sensibilidad a la estructura fina temporal". Tendencias en la audición . 20 : 233121651664048. doi :10.1177/2331216516640486. PMC 5017572 . PMID  27604778. 
  243. ^ Bernstein JG, Danielsson H, Hällgren M, Stenfelt S, Rönnberg J, Lunner T (noviembre de 2016). "Sensibilidad de modulación espectrotemporal como predictor del rendimiento de la recepción del habla en ruido con audífonos". Tendencias en audición . 20 : 233121651667038. doi :10.1177/2331216516670387. PMC 5098798 . PMID  27815546. 
  244. ^ Sęk A, Moore BC (enero de 2012). "Implementación de dos pruebas para medir la sensibilidad a la estructura fina temporal". Revista Internacional de Audiología . 51 (1): 58–63. doi :10.3109/14992027.2011.605808. PMID  22050366. S2CID  2954679.
  245. ^ Moore BC, Vickers DA, Mehta A (octubre de 2012). "Los efectos de la edad en la sensibilidad de la estructura fina temporal en condiciones monoaurales y binaurales". Revista Internacional de Audiología . 51 (10): 715–21. doi :10.3109/14992027.2012.690079. PMID  22998412. S2CID  29277736.
  246. ^ Füllgrabe C (diciembre de 2013). "Cambios dependientes de la edad en el procesamiento de la estructura fina temporal en ausencia de pérdida auditiva periférica". American Journal of Audiology . 22 (2): 313–5. doi :10.1044/1059-0889(2013/12-0070). PMID  23975124.
  247. ^ Santurette S, Dau T (abril de 2012). "Relacionar la percepción del tono binaural con el perfil auditivo del oyente individual" (PDF) . The Journal of the Acoustical Society of America . 131 (4): 2968–86. Bibcode :2012ASAJ..131.2968S. doi :10.1121/1.3689554. PMID  22501074. S2CID  206468031.
  248. ^ Hopkins K, Moore BC (diciembre de 2010). "Desarrollo de un método rápido para medir la sensibilidad a la información de la estructura fina temporal a bajas frecuencias". Revista Internacional de Audiología . 49 (12): 940–6. doi :10.3109/14992027.2010.512613. PMID  20874427. S2CID  46058919.
  249. ^ Füllgrabe C, Harland AJ, Sęk AP, Moore BC (diciembre de 2017). "Desarrollo de un método para determinar la sensibilidad binaural a la estructura fina temporal" (PDF) . Revista Internacional de Audiología . 56 (12): 926–935. doi : 10.1080/14992027.2017.1366078 . PMID  28859494.
  250. ^ Füllgrabe C, Moore BC (enero de 2017). "Evaluación de un método para determinar la sensibilidad binaural a la estructura fina temporal (prueba TFS-AF) para oyentes mayores con audición normal y deteriorada de baja frecuencia". Tendencias en la audición . 21 : 2331216517737230. doi :10.1177/2331216517737230. PMC 5669320 . PMID  29090641. 
  251. ^ ab Kates JM, Arehart KH (abril de 2005). "Coherencia e índice de inteligibilidad del habla". Revista de la Sociedad Acústica de Estados Unidos . 117 (4 puntos 1): 2224–37. Bibcode :2005ASAJ..117.2224K. doi :10.1121/1.1862575. PMID:  15898663.
  252. ^ Arehart KH, Kates JM, Anderson MC (junio de 2010). "Efectos del ruido, el procesamiento no lineal y el filtrado lineal en la calidad percibida del habla". Ear and Hearing . 31 (3): 420–36. doi :10.1097/AUD.0b013e3181d3d4f3. PMID  20440116. S2CID  34271886.
  253. ^ abc Taal CH, Hendriks RC, Heusdens R, Jensen J (septiembre de 2011). "Un algoritmo para la predicción de la inteligibilidad del habla ruidosa ponderada en tiempo y frecuencia". IEEE Transactions on Audio, Speech, and Language Processing . 19 (7): 2125–2136. doi :10.1109/tasl.2011.2114881. S2CID  13972181.
  254. ^ Croghan NB, Arehart KH, Kates JM (septiembre de 2014). "Preferencias musicales con audífonos: efectos de las propiedades de la señal, ajustes de compresión y características del oyente". Ear and Hearing . 35 (5): e170–84. doi :10.1097/AUD.0000000000000056. PMID  25010635. S2CID  10459417.
  255. ^ ab Arehart K, Souza P, Kates J, Lunner T, Pedersen MS (2015). "Relación entre la fidelidad de la señal, la pérdida auditiva y la memoria de trabajo para la supresión de ruido digital". Ear and Hearing . 36 (5): 505–16. doi :10.1097/aud.0000000000000173. PMC 4549215 . PMID  25985016. 
  256. ^ Carter, G.; Knapp, C.; Nuttall, A. (agosto de 1973). "Estimación de la función de coherencia de magnitud cuadrada mediante procesamiento de transformada rápida de Fourier superpuesta". IEEE Transactions on Audio and Electroacoustics . 21 (4): 337–344. doi :10.1109/TAU.1973.1162496.
  257. ^ Arehart KH, Kates JM, Anderson MC, Harvey LO (agosto de 2007). "Efectos del ruido y la distorsión en los juicios de calidad del habla en oyentes con audición normal y con discapacidad auditiva". The Journal of the Acoustical Society of America . 122 (2): 1150–64. Bibcode :2007ASAJ..122.1150A. doi :10.1121/1.2754061. PMID  17672661.
  258. ^ Tan CT, Moore BC (mayo de 2008). "Percepción de la distorsión no lineal por parte de personas con discapacidad auditiva". Revista Internacional de Audiología . 47 (5): 246–56. doi :10.1080/14992020801945493. PMID  18465409. S2CID  28018246.
  259. ^ Houtgast, T.; Steeneken, HJM (marzo de 1985). "Una revisión del concepto MTF en acústica de salas y su uso para estimar la inteligibilidad del habla en auditorios". Revista de la Sociedad Americana de Acústica . 77 (3): 1069–1077. Bibcode :1985ASAJ...77.1069H. doi : 10.1121/1.392224 .
  260. ^ Hohmann V, Kollmeier B (febrero de 1995). "El efecto de la compresión dinámica multicanal en la inteligibilidad del habla". Revista de la Sociedad Acústica de América . 97 (2): 1191–5. Bibcode :1995ASAJ...97.1191H. doi : 10.1121/1.413092 . PMID  7876441.
  261. ^ Goldsworthy RL, Greenberg JE (diciembre de 2004). "Análisis de métodos de índice de transmisión del habla basados ​​en el habla con implicaciones para operaciones no lineales". Revista de la Sociedad Acústica de Estados Unidos . 116 (6): 3679–89. Bibcode :2004ASAJ..116.3679G. doi :10.1121/1.1804628. PMID  15658718.
  262. ^ Ludvigsen C, Elberling C, Keidser G, Poulsen T (1990). "Predicción de la inteligibilidad del habla procesada de forma no lineal". Acta Oto-Laryngologica. Suplemento . 469 : 190–5. doi :10.1080/00016489.1990.12088428. PMID  2356726.
  263. ^ abc Kates, James M.; Arehart, Kathryn H. (noviembre de 2014). "Índice de percepción del habla con audífonos (HASPI)". Comunicación del habla . 65 : 75–93. doi :10.1016/j.specom.2014.06.002.
  264. ^ Chi T, Gao Y, Guyton MC, Ru P, Shamma S (noviembre de 1999). "Funciones de transferencia de modulación espectro-temporal e inteligibilidad del habla". Revista de la Sociedad Acústica de América . 106 (5): 2719–32. Bibcode :1999ASAJ..106.2719C. doi :10.1121/1.428100. hdl : 1903/6121 . PMID  10573888.
  265. ^ Huber, R.; Kollmeier, B. (noviembre de 2006). "PEMO-Q: un nuevo método para la evaluación objetiva de la calidad del audio utilizando un modelo de percepción auditiva". IEEE Transactions on Audio, Speech, and Language Processing . 14 (6): 1902–1911. doi :10.1109/TASL.2006.883259. S2CID  7815134.
  266. ^ Huber R, Parsa V, Scollie S (17 de noviembre de 2014). "Predicción de la calidad de sonido percibida del habla comprimida en frecuencia". PLOS ONE . ​​9 (11): e110260. Bibcode :2014PLoSO...9k0260H. doi : 10.1371/journal.pone.0110260 . PMC 4234248 . PMID  25402456. 
  267. ^ ab Kates J, Arehart K (20 de marzo de 2014). "Índice de calidad del habla para audífonos (HASQI) versión 2". Revista de la Sociedad de Ingeniería de Audio . 62 (3): 99–117. doi :10.17743/jaes.2014.0006. ISSN  1549-4950.
  268. ^ Kates J, Arehart K (20 de marzo de 2014). "Índice de calidad del habla para audífonos (HASQI) versión 2". Revista de la Sociedad de Ingeniería de Audio . 62 (3): 99–117. doi :10.17743/jaes.2014.0006.
  269. ^ Kates JM, Arehart KH (febrero de 2016). "Índice de calidad de audio de los audífonos (HAAQI)". Transacciones IEEE/ACM sobre procesamiento de audio, habla y lenguaje . 24 (2): 354–365. doi :10.1109/taslp.2015.2507858. PMC 4849486 . PMID  27135042. 
  270. ^ Kates J (2013). Un modelo auditivo para predicciones de inteligibilidad y calidad . Actas de reuniones sobre acústica. Vol. 133. Sociedad Americana de Acústica. p. 050184. Bibcode :2013ASAJ..133.3560K. doi : 10.1121/1.4799223 .