stringtranslate.com

Localización de sonido

La localización del sonido es la capacidad del oyente para identificar la ubicación u origen de un sonido detectado en dirección y distancia.

Se han estudiado ampliamente los mecanismos de localización del sonido del sistema auditivo de los mamíferos. El sistema auditivo utiliza varias señales para la localización de la fuente del sonido, incluida la diferencia de tiempo y la diferencia de nivel (o diferencia de intensidad) entre los oídos, e información espectral. Otros animales, como aves y reptiles, también los usan, pero pueden usarlos de manera diferente, y algunos también tienen señales de localización que están ausentes en el sistema auditivo humano, como los efectos de los movimientos del oído. Los animales con la capacidad de localizar el sonido tienen una clara ventaja evolutiva.

Cómo llega el sonido al cerebro

El sonido es el resultado perceptivo de vibraciones mecánicas que viajan a través de un medio como el aire o el agua. A través de los mecanismos de compresión y rarefacción, las ondas sonoras viajan a través del aire, rebotan en el pabellón auricular y la concha del oído exterior y entran en el canal auditivo. En los mamíferos, las ondas sonoras hacen vibrar la membrana timpánica ( tímpano ), lo que hace que los tres huesos del oído medio vibren, lo que luego envía la energía a través de la ventana ovalada hacia la cóclea , donde las células ciliadas la transforman en una señal química. en el órgano de Corti , que hacen sinapsis con fibras ganglionares espirales que viajan a través del nervio coclear hasta el cerebro.

Interacciones neuronales

En los vertebrados , se sabe que las diferencias de tiempo interaural se calculan en el núcleo olivar superior del tronco del encéfalo . Según Jeffress , [1] este cálculo se basa en líneas de retardo : neuronas en la oliva superior que aceptan inervación de cada oído con diferentes longitudes de axón conector . Algunas células están conectadas más directamente a un oído que al otro, por lo que son específicas para una diferencia horaria interaural particular. Esta teoría es equivalente al procedimiento matemático de correlación cruzada . Sin embargo, debido a que la teoría de Jeffress no puede explicar el efecto de precedencia , en el que solo se usa el primero de varios sonidos idénticos para determinar la ubicación de los sonidos (evitando así la confusión causada por los ecos), no se puede usar por completo para explicar la respuesta. Además, una serie de observaciones fisiológicas recientes realizadas en el mesencéfalo y el tronco del encéfalo de pequeños mamíferos han arrojado dudas considerables sobre la validez de las ideas originales de Jeffress. [2]

Las neuronas sensibles a las diferencias de nivel interaural (ILD) se excitan mediante la estimulación de un oído y se inhiben mediante la estimulación del otro oído, de modo que la magnitud de la respuesta de la célula depende de las fuerzas relativas de las dos entradas, que a su vez, dependen de la intensidades de sonido en los oídos.

En el núcleo auditivo del mesencéfalo, el colículo inferior (CI), muchas neuronas sensibles a la EPI tienen funciones de respuesta que disminuyen abruptamente desde picos máximos a cero en función de la EPI. Sin embargo, también hay muchas neuronas con funciones de respuesta mucho más superficiales que no descienden a cero picos.

sistema auditivo humano

La localización del sonido es el proceso de determinar la ubicación de una fuente de sonido . El cerebro utiliza diferencias sutiles en señales de intensidad, espectrales y temporales para permitirnos localizar las fuentes de sonido. [3] [4] En esta sección, para comprender más profundamente el mecanismo auditivo humano, discutiremos brevemente la teoría de la localización del oído humano.

La localización se puede describir en términos de posición tridimensional: el acimut o ángulo horizontal, la elevación o ángulo vertical y la distancia (para sonidos estáticos) o velocidad (para sonidos en movimiento). [5]

El acimut de un sonido está indicado por la diferencia en los tiempos de llegada entre los oídos , por la amplitud relativa de los sonidos de alta frecuencia (el efecto de sombra) y por las reflexiones espectrales asimétricas de varias partes de nuestro cuerpo, incluidos el torso, los hombros, y pinnas . [5]

Las señales de distancia son la pérdida de amplitud, la pérdida de altas frecuencias y la relación entre la señal directa y la señal reverberada. [5]

Dependiendo de dónde se encuentre la fuente, nuestra cabeza actúa como una barrera para cambiar el timbre , la intensidad y las cualidades espectrales del sonido, ayudando al cerebro a orientar de dónde emanó el sonido. [4] Estas pequeñas diferencias entre los dos oídos se conocen como señales interaurales. [4]

Las frecuencias más bajas, con longitudes de onda más largas, difractan el sonido alrededor de la cabeza, lo que obliga al cerebro a concentrarse solo en las señales de fase de la fuente. [4]

Helmut Haas descubrió que podemos distinguir la fuente del sonido a pesar de reflexiones adicionales de 10 decibelios más fuertes que el frente de onda original, utilizando el frente de onda que llega más temprano. [4] Este principio se conoce como efecto Haas , una versión específica del efecto de precedencia . [4] Haas midió incluso una diferencia de 1 milisegundo en el tiempo entre el sonido original y el sonido reflejado aumentó la amplitud, lo que permitió al cerebro discernir la verdadera ubicación del sonido original. El sistema nervioso combina todos los reflejos tempranos en un todo perceptivo único, lo que permite al cerebro procesar múltiples sonidos diferentes a la vez. [6] El sistema nervioso combinará reflejos que se encuentran dentro de unos 35 milisegundos entre sí y que tienen una intensidad similar. [6]

Teoría dúplex

Para determinar la dirección de entrada lateral (izquierda, frente, derecha), el sistema auditivo analiza la siguiente información de la señal del oído :

En 1907, Lord Rayleigh utilizó diapasones para generar excitación monofónica y estudió la teoría de la localización lateral del sonido en un modelo de cabeza humana sin aurícula. Primero presentó la teoría de la localización del sonido basada en la diferencia de pistas interaurales, que se conoce como teoría dúplex. [7] Los oídos humanos están en diferentes lados de la cabeza y, por lo tanto, tienen diferentes coordenadas en el espacio. Como se muestra en la figura de la teoría dúplex, dado que las distancias entre la fuente acústica y los oídos son diferentes, existen diferencias de tiempo y de intensidad entre las señales de sonido de dos oídos. A ese tipo de diferencias las llamamos diferencia de tiempo interaural (ITD) y diferencia de intensidad interaural (IID), respectivamente.

Teoría dúplex

En la figura de la teoría dúplex podemos ver que para la fuente B1 o la fuente B2, habrá un retraso de propagación entre dos oídos, lo que generará el ITD. Al mismo tiempo, la cabeza y los oídos humanos pueden tener un efecto de sombra sobre las señales de alta frecuencia, lo que generará IID.

Para frecuencias inferiores a 800 Hz, las dimensiones de la cabeza (distancia al oído 21,5 cm, correspondiente a un retardo de tiempo interaural de 626 µs) son menores que la mitad de la longitud de onda de las ondas sonoras. De esta forma, el sistema auditivo puede determinar los retrasos de fase entre ambos oídos sin confusión. Las diferencias de nivel interaural son muy bajas en este rango de frecuencia, especialmente por debajo de aproximadamente 200 Hz, por lo que una evaluación precisa de la dirección de entrada es casi imposible basándose únicamente en las diferencias de nivel. A medida que la frecuencia cae por debajo de 80 Hz, resulta difícil o imposible utilizar la diferencia de tiempo o la diferencia de nivel para determinar la fuente lateral de un sonido, porque la diferencia de fase entre los oídos se vuelve demasiado pequeña para una evaluación direccional. [11]

Para frecuencias superiores a 1600 Hz, las dimensiones del cabezal son mayores que la longitud de las ondas sonoras. En estas frecuencias no es posible una determinación inequívoca de la dirección de entrada basándose únicamente en la fase interaural. Sin embargo, las diferencias de nivel interaural se hacen mayores y estas diferencias de nivel son evaluadas por el sistema auditivo. Además, los retrasos entre los oídos aún pueden detectarse mediante alguna combinación de diferencias de fase y retrasos de grupo , que son más pronunciados en frecuencias más altas; es decir, si hay un inicio de sonido, el retraso de este inicio entre los oídos se puede utilizar para determinar la dirección de entrada de la fuente de sonido correspondiente. Este mecanismo se vuelve especialmente importante en ambientes reverberantes. Después de la aparición del sonido, hay un breve período de tiempo en el que el sonido directo llega a los oídos, pero aún no el sonido reflejado. El sistema auditivo utiliza este corto período de tiempo para evaluar la dirección de la fuente de sonido y mantiene esta dirección detectada mientras las reflexiones y la reverberación impidan una estimación inequívoca de la dirección. [12] Los mecanismos descritos anteriormente no se pueden utilizar para diferenciar entre una fuente de sonido delante o detrás del oyente; por lo tanto, es necesario evaluar señales adicionales. [13]

Efecto de filtrado del pabellón auricular

HRTF

La teoría dúplex muestra que ITD e IID desempeñan papeles importantes en la localización del sonido, pero sólo pueden abordar problemas de localización lateral. Por ejemplo, si dos fuentes acústicas se colocan simétricamente en la parte delantera y trasera del lado derecho de la cabeza humana, generarán ITD e IID iguales, en lo que se denomina efecto de modelo de cono. Sin embargo, el oído humano todavía puede distinguir entre estas fuentes. Además de eso, en el sentido natural de la audición, un solo oído, sin ningún ITD o IID, puede distinguir entre ellos con gran precisión. Debido a las desventajas de la teoría dúplex, los investigadores propusieron la teoría del efecto de filtrado del pabellón auricular. [14] [15] La forma del pabellón auricular humano es cóncava con pliegues complejos y asimétrica tanto horizontal como verticalmente. Las ondas reflejadas y directas generan en el tímpano un espectro de frecuencias relacionado con las fuentes acústicas. Luego, los nervios auditivos localizan las fuentes utilizando este espectro de frecuencia. [dieciséis]

HRIR

Estas pistas del espectro generadas por el efecto de filtrado del pabellón auricular se pueden presentar como una función de transferencia relacionada con la cabeza (HRTF). Las expresiones correspondientes en el dominio del tiempo se denominan respuesta al impulso relacionado con la cabeza (HRIR). La HRTF también se describe como la función de transferencia desde el campo libre a un punto específico del canal auditivo. Generalmente reconocemos los HRTF como sistemas LTI: [8]

donde L y R representan el oído izquierdo y el oído derecho respectivamente, y representan la amplitud de la presión sonora en las entradas de los canales auditivos izquierdo y derecho, y es la amplitud de la presión sonora en el centro de la coordenada de la cabeza cuando el oyente no existir. En general, los HRTF y son funciones de la posición angular de la fuente , el ángulo de elevación , la distancia entre la fuente y el centro de la cabeza , la velocidad angular y la dimensión equivalente de la cabeza .

En la actualidad, los principales institutos que trabajan en la medición de la base de datos HRTF incluyen CIPIC [17] International Lab, MIT Media Lab, la Escuela de Graduados en Psicoacústica de la Universidad de Oldenburg, el Laboratorio de Neurofisiología de la Universidad de Wisconsin-Madison y el Laboratorio Ames de la NASA. . Las bases de datos de HRIR de humanos con audición normal y deficiente y de animales están disponibles públicamente.

Otras señales

El oído externo humano , es decir, las estructuras del pabellón auricular y del conducto auditivo externo , forman filtros selectivos de dirección. Dependiendo de la dirección de entrada del sonido, se activan diferentes resonancias de filtro. Estas resonancias implantan patrones de dirección específica en las respuestas de frecuencia de los oídos, que el sistema auditivo puede evaluar para la localización del sonido. Junto con otras reflexiones direccionales selectivas en la cabeza, los hombros y el torso, forman las funciones de transferencia del oído externo. Estos patrones en las respuestas de frecuencia del oído son muy individuales, dependiendo de la forma y el tamaño del oído externo. Si el sonido se presenta a través de auriculares y se ha grabado a través de otro cabezal con superficies del oído externo de diferentes formas, los patrones direccionales difieren de los del oyente y aparecerán problemas al intentar evaluar las direcciones en el plano medio con estos oídos extraños. Como consecuencia, pueden aparecer permutaciones anverso-posterior o localización dentro de la cabeza al escuchar grabaciones de cabeza ficticia , o también denominadas grabaciones binaurales. Se ha demostrado que los seres humanos pueden localizar monoauralmente sonidos de alta frecuencia pero no sonidos de baja frecuencia. La localización binaural, sin embargo, fue posible con frecuencias más bajas. Es probable que esto se deba a que el pabellón auricular es lo suficientemente pequeño como para interactuar solo con ondas sonoras de alta frecuencia. [18] Parece que las personas sólo pueden localizar con precisión la elevación de los sonidos que son complejos e incluyen frecuencias superiores a 7.000 Hz, y debe estar presente un pabellón auricular. [19]

Cuando la cabeza está estacionaria, las señales binaurales para la localización lateral del sonido (diferencia de tiempo interaural y diferencia de nivel interaural) no brindan información sobre la ubicación de un sonido en el plano medio. Se pueden producir ITD e ILD idénticos mediante sonidos al nivel de los ojos o en cualquier elevación, siempre que la dirección lateral sea constante. Sin embargo, si se gira la cabeza, el ITD y el ILD cambian dinámicamente, y esos cambios son diferentes para sonidos en diferentes elevaciones. Por ejemplo, si una fuente de sonido al nivel de los ojos está de frente y la cabeza gira hacia la izquierda, el sonido se vuelve más fuerte (y llega antes) al oído derecho que al izquierdo. Pero si la fuente de sonido está directamente encima, no habrá cambios en el ITD y el ILD cuando la cabeza gire. Las elevaciones intermedias producirán grados intermedios de cambio, y si se invierte la presentación de señales binaurales a los dos oídos durante el movimiento de la cabeza, el sonido se escuchará detrás del oyente. [13] [20] Hans Wallach [21] alteró artificialmente las señales binaurales de un sonido durante los movimientos de la cabeza. Aunque el sonido se colocó objetivamente al nivel de los ojos, los cambios dinámicos en ITD y ILD a medida que la cabeza giraba eran los que se producirían si la fuente de sonido hubiera estado elevada. En esta situación, el sonido se escuchó en la elevación sintetizada. El hecho de que las fuentes de sonido permanecieran objetivamente al nivel de los ojos impidió que las señales monoaurales especificaran la elevación, lo que demuestra que fue el cambio dinámico en las señales binaurales durante el movimiento de la cabeza lo que permitió que el sonido se localizara correctamente en la dimensión vertical. No es necesario que los movimientos de la cabeza se produzcan activamente; La localización vertical precisa se produjo en una configuración similar cuando la rotación de la cabeza se produjo pasivamente, sentando al sujeto con los ojos vendados en una silla giratoria. Mientras los cambios dinámicos en las señales binaurales acompañaran a una rotación de la cabeza percibida, se percibió la elevación sintetizada. [13]

En la década de 1960, Batteau demostró que el pabellón auricular también mejora la localización horizontal. [22] [23]

Distancia de la fuente de sonido.

[ cita necesaria ]

El sistema auditivo humano tiene posibilidades limitadas para determinar la distancia de una fuente de sonido. En el rango cercano existen algunas indicaciones para la determinación de la distancia, como diferencias de nivel extremas (p. ej. al susurrar en un oído) o resonancias específicas del pabellón auricular (la parte visible del oído) en el rango cercano.

El sistema auditivo utiliza estas pistas para estimar la distancia a una fuente de sonido:

Procesamiento de la señal

El procesamiento del sonido del sistema auditivo humano se realiza en las llamadas bandas críticas . El rango de audición está segmentado en 24 bandas críticas, cada una con un ancho de 1 Bark o 100 Mel . Para un análisis direccional, las señales dentro de la banda crítica se analizan juntas.

El sistema auditivo puede extraer el sonido de una fuente de sonido deseada a partir de ruidos molestos. Esto permite al oyente concentrarse en un solo orador si otros oradores también están hablando (el efecto cóctel ). Con ayuda del efecto cóctel, el sonido procedente de direcciones perturbadoras se percibe atenuado en comparación con el sonido procedente de la dirección deseada. El sistema auditivo puede aumentar la relación señal-ruido hasta en 15  dB , lo que significa que el sonido que interfiere se percibe atenuado a la mitad (o menos) de su volumen real . [ cita necesaria ]

En espacios cerrados no sólo llega a los oídos del oyente el sonido directo de una fuente sonora, sino también el sonido reflejado en las paredes. El sistema auditivo analiza para la localización del sonido únicamente el sonido directo [12] , que llega primero, pero no el sonido reflejado, que llega más tarde ( ley del primer frente de onda ). Por tanto, la localización del sonido sigue siendo posible incluso en un entorno ecoico. Esta cancelación del eco se produce en el Núcleo Dorsal del Lemnisco Lateral (DNLL). [24]

Para determinar los períodos de tiempo en los que predomina el sonido directo y que pueden utilizarse para la evaluación direccional, el sistema auditivo analiza los cambios de sonoridad en diferentes bandas críticas y también la estabilidad de la dirección percibida. Si hay un fuerte ataque de sonoridad en varias bandas críticas y si la dirección percibida es estable, este ataque es con toda probabilidad causado por el sonido directo de una fuente sonora, que está entrando recientemente o que está cambiando sus características de señal. El sistema auditivo utiliza este breve período de tiempo para analizar la dirección y el volumen de este sonido. Cuando las reflexiones llegan un poco más tarde, no aumentan tanto el volumen dentro de las bandas críticas, pero las señales direccionales se vuelven inestables, porque hay una mezcla de sonido de varias direcciones de reflexión. Como resultado, el sistema auditivo no activa ningún nuevo análisis direccional.

Esta primera dirección detectada del sonido directo se toma como la dirección de la fuente de sonido encontrada, hasta que otros fuertes ataques de sonoridad, combinados con información direccional estable, indiquen que es posible un nuevo análisis direccional. (ver efecto Franssen )

Técnicas específicas con aplicaciones.

Sistema estéreo de transmisión auditiva.

Este tipo de técnica de localización de sonido nos proporciona el verdadero sistema estéreo virtual . [25] Utiliza maniquíes "inteligentes", como KEMAR, para captar señales o utilizar métodos DSP para simular el proceso de transmisión desde las fuentes a los oídos. Después de amplificar, grabar y transmitir, los dos canales de señales recibidas se reproducirán a través de auriculares o altavoces. Este enfoque de localización utiliza métodos electroacústicos para obtener la información espacial del campo sonoro original transfiriendo el aparato auditivo del oyente al campo sonoro original. Las ventajas más considerables de esto serían que sus imágenes acústicas son vivaces y naturales. Además, sólo necesita dos señales transmitidas independientes para reproducir la imagen acústica de un sistema 3D.

Localización de sonido con maniquí.

Sistema estéreo de paravirtualización 3D

Los representantes de este tipo de sistemas son SRS Audio Sandbox, Spatializer Audio Lab y Qsound Qxpander. [25] Utilizan HRTF para simular las señales acústicas recibidas en los oídos desde diferentes direcciones con reproducción estéreo de canal binario común. Por tanto, pueden simular ondas sonoras reflejadas y mejorar la sensación subjetiva de espacio y envolvente. Dado que son sistemas estéreo de paravirtualización, su objetivo principal es simular información de sonido estéreo. Los sistemas estéreo tradicionales utilizan sensores que son bastante diferentes a los del oído humano. Aunque esos sensores pueden recibir información acústica desde diferentes direcciones, no tienen la misma respuesta de frecuencia que el sistema auditivo humano. Por lo tanto, cuando se aplica el modo de canal binario, los sistemas auditivos humanos aún no pueden sentir el campo de efectos de sonido 3D. Sin embargo, el sistema estéreo de paravirtualización 3D supera estas desventajas. Utiliza principios HRTF para obtener información acústica del campo de sonido original y luego producir un campo de sonido 3D animado a través de auriculares o parlantes comunes.

Reproducción virtual estéreo multicanal

Dado que los sistemas estéreo multicanal requieren muchos canales de reproducción, algunos investigadores adoptaron tecnologías de simulación HRTF para reducir la cantidad de canales de reproducción. [25] Utilizan sólo dos altavoces para simular varios altavoces en un sistema multicanal. Este proceso se llama reproducción virtual. Esencialmente, este enfoque utiliza tanto el principio de diferencia interaural como la teoría del efecto de filtrado del pabellón auricular. Desafortunadamente, este tipo de enfoque no puede sustituir perfectamente al sistema estéreo multicanal tradicional, como el sistema de sonido envolvente 5.1 / 7.1 . Esto se debe a que cuando la zona de escucha es relativamente más grande, la reproducción de la simulación a través de HRTF puede provocar imágenes acústicas invertidas en posiciones simétricas.

animales

Dado que la mayoría de los animales tienen dos orejas, muchos de los efectos del sistema auditivo humano también se pueden encontrar en otros animales. Por lo tanto, las diferencias de tiempo interaurales (diferencias de fase interaurales) y las diferencias de niveles interaurales desempeñan un papel en la audición de muchos animales. Pero las influencias sobre la localización de estos efectos dependen del tamaño de la cabeza, la distancia de las orejas, la posición de las orejas y la orientación de las mismas. Los animales más pequeños, como los insectos, utilizan diferentes técnicas ya que la separación de las orejas es demasiado pequeña. [26] Para conocer el proceso por el cual los animales emiten sonido para mejorar la localización, una forma biológica de sonar activo , consulte ecolocalización animal .

Información lateral (izquierda, adelante, derecha)

Si las orejas están situadas a un lado de la cabeza, se pueden utilizar señales de localización lateral similares a las del sistema auditivo humano. Esto significa: evaluación de diferencias de tiempo interaurales (diferencias de fase interaurales) para frecuencias más bajas y evaluación de diferencias de niveles interaurales para frecuencias más altas. La evaluación de las diferencias de fase interaural es útil siempre que proporcione resultados inequívocos. Este es el caso siempre que la distancia al oído sea menor que la mitad de la longitud (una longitud de onda máxima) de las ondas sonoras. Para animales con una cabeza más grande que los humanos, el rango de evaluación de las diferencias de fase interaural se desplaza hacia frecuencias más bajas, para animales con una cabeza más pequeña, este rango se desplaza hacia frecuencias más altas.

La frecuencia más baja que se puede localizar depende de la distancia al oído. Los animales con una mayor distancia al oído pueden localizar frecuencias más bajas que los humanos. En los animales con una distancia auditiva menor, la frecuencia localizable más baja es mayor que en los humanos.

Si los oídos están ubicados al costado de la cabeza, aparecen diferencias de nivel interaural para frecuencias más altas y pueden evaluarse para tareas de localización. Para los animales con orejas en la parte superior de la cabeza, no aparecerá ninguna sombra en la cabeza y, por lo tanto, habrá muchas menos diferencias de nivel interaural que podrían evaluarse. Muchos de estos animales pueden mover las orejas y estos movimientos de las orejas pueden utilizarse como señal de localización lateral.

En el plano medio (frente, arriba, atrás, abajo)

En muchos mamíferos también hay estructuras pronunciadas en el pabellón auricular cerca de la entrada del canal auditivo. Como consecuencia, pueden aparecer resonancias dependientes de la dirección, que podrían usarse como una señal de localización adicional, similar a la localización en el plano medio en el sistema auditivo humano. Hay señales de localización adicionales que también utilizan los animales.

Inclinación de la cabeza

Para la localización del sonido en el plano medio (elevación del sonido) también se pueden utilizar dos detectores colocados a diferentes alturas. En los animales, sin embargo, la información aproximada de elevación se obtiene simplemente inclinando la cabeza, siempre que el sonido dure lo suficiente para completar el movimiento. Esto explica el comportamiento innato de [ vago ] inclinar la cabeza hacia un lado cuando se intenta localizar un sonido con precisión. Para obtener una localización instantánea en más de dos dimensiones a partir de señales de diferencia de tiempo o de diferencia de amplitud se requieren más de dos detectores.

Localización con orejas acopladas (moscas)

La diminuta mosca parásita Ormia ochracea se ha convertido en un organismo modelo en experimentos de localización de sonido debido a su oído único . El animal es demasiado pequeño para calcular de la manera habitual la diferencia de tiempo entre el sonido que llega a ambos oídos, pero puede determinar la dirección de las fuentes de sonido con exquisita precisión. Las membranas timpánicas de oídos opuestos están directamente conectadas mecánicamente, lo que permite la resolución de diferencias de tiempo de submicrosegundos [27] [28] y requiere una nueva estrategia de codificación neuronal . [29] Ho [30] demostró que el sistema de tímpano acoplado en las ranas puede producir mayores disparidades de vibración interaural cuando la cabeza del animal sólo disponía de pequeñas diferencias en el tiempo de llegada y el nivel de sonido. Se están realizando esfuerzos para construir micrófonos direccionales basados ​​en la estructura de tímpano acoplado.

Localización de sonido bicoordinada (búhos)

La mayoría de los búhos son aves rapaces nocturnas o crepusculares . Como cazan de noche, deben depender de sentidos no visuales. Los experimentos de Roger Payne [31] han demostrado que los búhos son sensibles a los sonidos de sus presas, no al calor ni al olor. De hecho, las señales sonoras son necesarias y suficientes para localizar a los ratones desde un lugar distante donde están posados. Para que esto funcione, los búhos deben poder localizar con precisión tanto el acimut como la elevación de la fuente de sonido.

delfines

Los delfines (y otros odontocetos ) dependen de la ecolocalización para ayudar a detectar, identificar, localizar y capturar presas. Las señales de sonar para delfines son muy adecuadas para localizar objetivos múltiples y pequeños en un entorno acuático tridimensional mediante el uso de banda ancha altamente direccional (ancho de haz de 3 dB de aproximadamente 10 grados) (ancho de banda de 3 dB típicamente de aproximadamente 40 kHz; frecuencias máximas entre 40 kHz y 120 kHz), clics de corta duración (aproximadamente 40 μs). Los delfines pueden localizar sonidos tanto pasiva como activamente (ecolocalización) con una resolución de aproximadamente 1 grado. La coincidencia intermodal (entre visión y ecolocalización) sugiere que los delfines perciben la estructura espacial de objetos complejos interrogados a través de la ecolocalización, una hazaña que probablemente requiera resolver espacialmente las características de los objetos individuales y su integración en una representación holística de la forma del objeto. Aunque los delfines son sensibles a pequeñas diferencias de intensidad y tiempo binaurales, cada vez hay más evidencia que sugiere que los delfines emplean señales espectrales dependientes de la posición derivadas de funciones de transferencia bien desarrolladas relacionadas con la cabeza, para la localización del sonido tanto en el plano horizontal como en el vertical. Un tiempo de integración temporal muy pequeño (264 μs) permite la localización de múltiples objetivos a diferentes distancias. Las adaptaciones de localización incluyen una asimetría pronunciada del cráneo, los sacos nasales y las estructuras lipídicas especializadas en la frente y la mandíbula, así como oídos medio e interno acústicamente aislados.

El papel de Prestin en la localización del sonido:

En el ámbito de la localización de sonidos en mamíferos, el gen Prestin se ha convertido en un actor fundamental, particularmente en el fascinante campo de la ecolocalización empleada por murciélagos y delfines. Descubierto hace poco más de una década, Prestin codifica una proteína ubicada en las células ciliadas del oído interno, lo que facilita contracciones y expansiones rápidas. Este intrincado mecanismo funciona de manera similar a la bocina de un fonógrafo antiguo, amplificando las ondas sonoras dentro de la cóclea y elevando la sensibilidad general de la audición.

En 2014, Liu y otros profundizaron en las adaptaciones evolutivas de Prestin , revelando su papel fundamental en el rango auditivo ultrasónico esencial para el sonar animal, específicamente en el contexto de la ecolocalización . Esta adaptación resulta fundamental para los delfines que navegan por aguas turbias y los murciélagos que buscan sustento en la oscuridad nocturna. [32]

Cabe destacar la emisión de llamadas de ecolocalización de alta frecuencia por parte de ballenas dentadas y murciélagos ecolocalizadores, que muestran diversidad en forma, duración y amplitud. Sin embargo, es su audición de alta frecuencia la que se vuelve primordial, ya que permite la recepción y el análisis de los ecos que rebotan en los objetos de su entorno. Una disección meticulosa de la función de la proteína Prestin en murciélagos guiados por sonar y en delfines mulares, yuxtapuesta con mamíferos no sonares, arroja luz sobre las complejidades de este proceso.

Los análisis evolutivos de las secuencias de proteínas de Prestin arrojaron una observación convincente: un cambio singular de aminoácido de treonina (Thr o T) en mamíferos sonar a asparagina (Asn o N) en mamíferos no sonar. Esta alteración específica, sujeta a una evolución paralela, emerge como un eje en la narrativa de la ecolocalización de los mamíferos. [32]

Experimentos posteriores dieron crédito a esta hipótesis, identificando cuatro distinciones de aminoácidos clave en los mamíferos sonar que probablemente contribuyen a sus características distintivas de ecolocalización. La confluencia de análisis evolutivos y hallazgos empíricos proporciona evidencia sólida, lo que marca un punto de inflexión importante en la comprensión del papel del gen Prestin en la trayectoria evolutiva de los sistemas de ecolocalización de los mamíferos. Esta investigación subraya la adaptabilidad y la importancia evolutiva de Prestin y ofrece información valiosa sobre los fundamentos genéticos de la localización del sonido en murciélagos y delfines, particularmente dentro del sofisticado ámbito de la ecolocalización. [32]

Historia

El término "binaural" significa literalmente "escuchar con dos oídos" y se introdujo en 1859 para referirse a la práctica de escuchar el mismo sonido a través de ambos oídos, o dos sonidos discretos, uno a través de cada oído. No fue hasta 1916 que Carl Stumpf (1848-1936), filósofo y psicólogo alemán , distinguió entre escucha dicótica, que se refiere a la estimulación de cada oído con un estímulo diferente , y escucha diótica, la estimulación simultánea de ambos oídos con el mismo estímulo. [33]

Más tarde se hizo evidente que la audición binaural, ya sea dicótica o diotica, es el medio por el cual se produce la localización del sonido. [33] [34] [ página necesaria ]

La consideración científica de la audición binaural comenzó antes de que el fenómeno recibiera ese nombre, con especulaciones publicadas en 1792 por William Charles Wells (1757-1817) basadas en su investigación sobre la visión binocular . [35] Giovanni Battista Venturi (1746–1822) realizó y describió experimentos en los que las personas intentaban localizar un sonido utilizando ambos oídos o bloqueando un oído con un dedo. Este trabajo no tuvo seguimiento y sólo se recuperó después de que otros descubrieron cómo funciona la localización del sonido humano. [33] [35] Lord Rayleigh (1842-1919) haría estos mismos experimentos y llegaría a los resultados, sin saber que Venturi los había hecho por primera vez, casi setenta y cinco años después. [35]

Charles Wheatstone (1802–1875) trabajó en óptica y mezcla de colores, y también exploró la audición. Inventó un dispositivo al que llamó "micrófono" que incluía una placa de metal sobre cada oreja, cada una conectada a varillas de metal; Usó este dispositivo para amplificar el sonido. También realizó experimentos sosteniendo diapasones en ambos oídos al mismo tiempo, o por separado, tratando de descubrir cómo funciona el sentido de la audición, que publicó en 1827. [35] Ernst Heinrich Weber (1795–1878) y August Seebeck (1805) –1849) y William Charles Wells también intentaron comparar y contrastar lo que se conocería como audición binaural con los principios de la integración binocular en general. [35]

La comprensión de cómo las diferencias en las señales sonoras entre dos oídos contribuyen al procesamiento auditivo de tal manera que permite la localización y dirección del sonido avanzó considerablemente después de la invención del estetófono por Somerville Scott Alison en 1859, quien acuñó el término "binaural". Alison basó el estetofón en el estetoscopio , que había sido inventado por René Théophile Hyacinthe Laennec (1781-1826); El estetofón tenía dos "pastillas" separadas, lo que permitía al usuario escuchar y comparar sonidos derivados de dos ubicaciones discretas. [35]

Ver también

Referencias

  1. ^ Jeffress LA (1948). "Una teoría del lugar de localización del sonido". Revista de Psicología Comparada y Fisiológica . 41 (1): 35–39. doi :10.1037/h0061495. PMID  18904764.
  2. ^ Schnupp J., Nelken I y King AJ, 2011. Neurociencia auditiva, MIT Press, capítulo 5.
  3. ^ Blauert, J.: Audición espacial: la psicofísica de la localización del sonido humano; Prensa del MIT; Cambridge, Massachusetts (1983)
  4. ^ abcdef Thompson, Daniel M. Comprensión del audio: cómo aprovechar al máximo su proyecto o estudio de grabación profesional. Boston, MA: Berklee, 2005. Imprimir.
  5. ^ abc Caminos, Curtis. El tutorial de música por computadora. Cambridge, MA: MIT, 2007. Imprimir.
  6. ^ ab Benade, Arthur H. Fundamentos de la acústica musical. Nueva York: Oxford UP, 1976. Imprimir.
  7. ^ Rayleigh L. XII. Sobre nuestra percepción de la dirección del sonido[J]. Revista filosófica y revista científica de Londres, Edimburgo y Dublín, 1907, 13 (74): 214-232.
  8. ^ abc Zhou X. Técnica de realidad virtual [J]. Ciencias de las Telecomunicaciones, 1996, 12(7): 46-–.
  9. ^ Ian Pitt. "Percepción auditiva". Archivado desde el original el 10 de abril de 2010.
  10. ^ DeLiang Wang; Guy J. Brown (2006). Análisis computacional de escenas auditivas: principios, algoritmos y aplicaciones . Wiley interciencia. ISBN 9780471741091. Para señales sinusoidales presentadas en el plano horizontal, la resolución espacial es más alta para los sonidos que provienen del plano medio (directamente frente al oyente) con aproximadamente 1 grado MAA, y se deteriora notablemente cuando los estímulos se mueven hacia un lado (p. ej., el MAA). es de aproximadamente 7 grados para sonidos que se originan a 75 grados hacia un lado.
  11. ^ Localización auditiva - Introducción Columbia College, Chicago - Audio Arts & Acoustics acousticslab.org/psychoacustics , consultado el 16 de mayo de 2021
  12. ^ ab Wallach, H; Newman, EB; Rosenzweig, MR (julio de 1949). "El efecto de precedencia en la localización del sonido". Revista Estadounidense de Psicología . 62 (3): 315–336. doi :10.2307/1418275. JSTOR  1418275. PMID  18134356.
  13. ^ abc Wallach, Hans (octubre de 1940). "El papel de los movimientos de la cabeza y las señales vestibulares y visuales en la localización del sonido". Revista de Psicología Experimental . 27 (4): 339–368. doi :10.1037/h0054629.
  14. ^ "Acústica: los oídos la tienen". Semana de noticias . 1961-12-04. pag. 80.
  15. ^ Batteau D W. El papel del pabellón auricular en la localización humana [J]. Actas de la Royal Society of London B: Biological Sciences, 1967, 168(1011): 158-180.
  16. ^ Musicant AD, Butler R A. La influencia de las señales espectrales basadas en pinnas en la localización del sonido [J]. Revista de la Sociedad Acústica de América, 1984, 75(4): 1195–1200.
  17. ^ "La base de datos CIPIC HRTF". Archivado desde el original el 13 de septiembre de 2013.
  18. ^ Robert A. MAYORDOMO; Richard A. HUMANSKI (1992). "Localización del sonido en el plano vertical con y sin señales espectrales de alta frecuencia". Percepción y Psicofísica . 51 (2): 182–186. doi : 10.3758/bf03212242 . PMID  1549436.
  19. ^ Roffler Suzanne K.; Mayordomo Robert A. (1968). "Factores que influyen en la localización del sonido en el plano vertical". J. acústico. Soc. Soy . 43 (6): 1255-1259. Código bibliográfico : 1968ASAJ...43.1255R. doi :10.1121/1.1910976. PMID  5659493.
  20. ^ Thurlow, WR "Audition" en Kling, JW & Riggs, LA, Experimental Psychology , tercera edición, Holt Rinehart & Winston, 1971, págs.
  21. ^ Wallach, H (1939). "Sobre la localización del sonido". Revista de la Sociedad de Acústica de América . 10 (4): 270–274. Código bibliográfico : 1939ASAJ...10..270W. doi :10.1121/1.1915985.
  22. ^ "Los oídos lo tienen", Newsweek 1961-12-04, págs.80-81
  23. ^ Batteau, Dwight Wayne (enero de 1964). "El papel del pabellón auricular en la localización humana" (PDF) . Actas de la Royal Society de Londres, B Ciencias Biológicas . Consultado el 30 de noviembre de 2023 .
  24. ^ Kidd, Sean A.; Kelly, Jack B. (15 de noviembre de 1996). "Contribución del núcleo dorsal del lemnisco lateral a las respuestas binaurales en el colículo inferior de la rata: retrasos en el tiempo interaural". La Revista de Neurociencia . 16 (22): 7390–7397. doi :10.1523/JNEUROSCI.16-22-07390.1996. ISSN  0270-6474. PMC 6578946 . PMID  8929445. 
  25. ^ abc Zhao R. Estudio del sistema de localización de sonido de transmisión auditiva [D], Universidad de Ciencia y Tecnología de China, 2006.
  26. ^ Díaz-García, Lara; Reid, Andrés; Jackson-Camargo, Joseph; Molino de viento, James FC (2022). "Hacia un sensor acústico bioinspirado: el oído de Achroia grisella". Revista de sensores IEEE . 22 (18): 17746–17753. Código Bib : 2022ISenJ..2217746D. doi :10.1109/JSEN.2022.3197841. ISSN  1558-1748. S2CID  252223827 . Consultado el 12 de septiembre de 2022 .
  27. ^ Miles RN, Robert D, Hoy RR (diciembre de 1995). "Oídos acoplados mecánicamente para la audición direccional en la mosca parasitoide Ormia ochracea". J Acoust Soc Am . 98 (6): 3059–70. Código bibliográfico : 1995ASAJ...98.3059M. doi : 10.1121/1.413830. PMID  8550933.
  28. ^ Robert D, Miles RN, Hoy RR (1996). "Audiencia direccional por acoplamiento mecánico en la mosca parasitoide Ormia ochracea". J Comp Physiol A. 179 (1): 29–44. doi :10.1007/BF00193432. PMID  8965258. S2CID  21452506.
  29. ^ Mason AC, Oshinsky ML, Hoy RR (abril de 2001). "Audición direccional hiperaguda en un sistema auditivo a microescala". Naturaleza . 410 (6829): 686–90. doi :10.1038/35070564. PMID  11287954. S2CID  4370356.
  30. ^ Ho CC, Narins PM (abril de 2006). "Direccionalidad de los oídos del receptor de diferencia de presión en la rana leopardo del norte, Rana pipiens pipiens". J Comp Physiol A. 192 (4): 417–29. doi :10.1007/s00359-005-0080-7. PMID  16380842. S2CID  5881898.
  31. ^ Payne, Roger S., 1962. Cómo la lechuza local localiza a sus presas mediante el oído. The Living Bird, primera publicación anual del Laboratorio de Ornitología de Cornell , 151-159
  32. ^ abc Liu, Z., Qi, FY, Zhou, X., Ren, HQ y Shi, P. (2014). Los sitios paralelos implican una convergencia funcional del gen auditivo prestina entre los mamíferos ecolocalizadores. Biología molecular y evolución , 31 (9), 2415–2424. doi :10.1093/molbev/msu194
  33. ^ abc Wade, Nueva Jersey; Ono, H (2005). "De dicóptico a dicótico: contrastes históricos entre visión binocular y audición binaural". Percepción . 34 (6): 645–68. doi :10.1068/p5327. PMID  16042189. S2CID  43674057.
  34. ^ Beyer, Robert T. (1999). Sonidos de nuestro tiempo: doscientos años de acústica . Nueva York: Springer. ISBN 978-0-387-98435-3.
  35. ^ abcdef Wade, Nicolás J.; Deutsch, Diana (julio de 2008). "Audición binaural: antes y después del estetofón" (PDF) . Acústica hoy . 4 (3): 16–27. doi : 10.1121/1.2994724.

enlaces externos