La localización del sonido es la capacidad del oyente para identificar la ubicación o el origen de un sonido detectado en dirección y distancia.
Los mecanismos de localización del sonido del sistema auditivo de los mamíferos han sido ampliamente estudiados. El sistema auditivo utiliza varias señales para localizar la fuente del sonido, entre ellas la diferencia de tiempo y de nivel (o de intensidad) entre los oídos, y la información espectral. Otros animales, como las aves y los reptiles, también las utilizan, pero pueden hacerlo de forma diferente, y algunos también tienen señales de localización que están ausentes en el sistema auditivo humano, como los efectos de los movimientos de las orejas. Los animales con la capacidad de localizar el sonido tienen una clara ventaja evolutiva.
El sonido es el resultado perceptivo de vibraciones mecánicas que viajan a través de un medio como el aire o el agua. A través de los mecanismos de compresión y rarefacción, las ondas sonoras viajan a través del aire, rebotan en el pabellón auricular y la concha del oído externo y entran en el canal auditivo. En los mamíferos, las ondas sonoras hacen vibrar la membrana timpánica ( tímpano ), lo que hace que vibren los tres huesos del oído medio , que luego envían la energía a través de la ventana oval y hacia la cóclea , donde las células ciliadas del órgano de Corti la transforman en una señal química , que hace sinapsis con las fibras ganglionares espirales que viajan a través del nervio coclear hacia el cerebro.
En los vertebrados , se sabe que las diferencias de tiempo interaural se calculan en el núcleo olivar superior del tronco encefálico . Según Jeffress , [1] este cálculo se basa en líneas de retardo : neuronas en la oliva superior que aceptan inervación de cada oído con diferentes longitudes de axones de conexión . Algunas células están conectadas más directamente a un oído que al otro, por lo que son específicas para una diferencia de tiempo interaural particular. Esta teoría es equivalente al procedimiento matemático de correlación cruzada . Sin embargo, debido a que la teoría de Jeffress no puede explicar el efecto de precedencia , en el que solo se utiliza el primero de varios sonidos idénticos para determinar la ubicación de los sonidos (evitando así la confusión causada por los ecos), no puede usarse completamente para explicar la respuesta. Además, una serie de observaciones fisiológicas recientes realizadas en el mesencéfalo y el tronco encefálico de pequeños mamíferos han arrojado dudas considerables sobre la validez de las ideas originales de Jeffress. [2]
Las neuronas sensibles a las diferencias de nivel interaural (ILD) se excitan con la estimulación de un oído y se inhiben con la estimulación del otro, de modo que la magnitud de la respuesta de la célula depende de las intensidades relativas de las dos entradas, que a su vez dependen de las intensidades del sonido en los oídos.
En el núcleo auditivo del mesencéfalo, el colículo inferior (CI), muchas neuronas sensibles a la EPI tienen funciones de respuesta que disminuyen abruptamente desde picos máximos hasta cero en función de la EPI. Sin embargo, también hay muchas neuronas con funciones de respuesta mucho más superficiales que no disminuyen hasta cero picos.
La localización del sonido es el proceso de determinar la ubicación de una fuente de sonido . El cerebro utiliza diferencias sutiles en la intensidad, el espectro y las señales temporales para localizar las fuentes de sonido. [3] [4] [5]
La localización se puede describir en términos de posición tridimensional: el acimut o ángulo horizontal, la elevación o ángulo vertical y la distancia (para sonidos estáticos) o velocidad (para sonidos en movimiento). [6]
El acimut de un sonido se indica por la diferencia en los tiempos de llegada entre los oídos , por la amplitud relativa de los sonidos de alta frecuencia (el efecto de sombra) y por las reflexiones espectrales asimétricas de varias partes de nuestro cuerpo, incluido el torso, los hombros y los pabellones auriculares . [6]
Las señales de distancia son la pérdida de amplitud, la pérdida de frecuencias altas y la relación entre la señal directa y la señal reverberada. [6]
Dependiendo de dónde se encuentre la fuente, nuestra cabeza actúa como una barrera para cambiar el timbre , la intensidad y las cualidades espectrales del sonido, ayudando al cerebro a orientarse hacia el lugar de donde emanó el sonido. [5] Estas pequeñas diferencias entre los dos oídos se conocen como señales interaurales. [5]
Las frecuencias más bajas, con longitudes de onda más largas, difractan el sonido alrededor de la cabeza, obligando al cerebro a centrarse solo en las señales de fase de la fuente. [5]
Helmut Haas descubrió que podemos discernir la fuente del sonido a pesar de reflexiones adicionales a 10 decibeles más fuertes que el frente de onda original, utilizando el frente de onda que llega más temprano. [5] Este principio se conoce como el efecto Haas , una versión específica del efecto de precedencia . [5] Haas midió incluso una diferencia de 1 milisegundo en el tiempo entre el sonido original y el sonido reflejado, lo que aumentó la amplitud, lo que permitió al cerebro discernir la verdadera ubicación del sonido original. El sistema nervioso combina todas las reflexiones tempranas en un solo todo perceptivo que permite al cerebro procesar múltiples sonidos diferentes a la vez. [7] El sistema nervioso combinará reflexiones que estén dentro de unos 35 milisegundos entre sí y que tengan una intensidad similar. [7]
Para determinar la dirección de entrada lateral (izquierda, frontal, derecha), el sistema auditivo analiza la siguiente información de la señal del oído :
En 1907, Lord Rayleigh utilizó diapasones para generar excitación monofónica y estudió la teoría de localización lateral del sonido en un modelo de cabeza humana sin pabellón auricular. Fue el primero en presentar la teoría de localización del sonido basada en la diferencia de pistas interaurales, conocida como teoría dúplex. [8] Los oídos humanos están en diferentes lados de la cabeza y, por lo tanto, tienen diferentes coordenadas en el espacio. Como se muestra en la figura de la teoría dúplex, dado que las distancias entre la fuente acústica y los oídos son diferentes, existen diferencias de tiempo y de intensidad entre las señales de sonido de dos oídos. Llamamos a ese tipo de diferencias diferencia de tiempo interaural (ITD) y diferencia de intensidad interaural (IID) respectivamente.
De la figura de la teoría dúplex se desprende que, para la fuente B1 o la fuente B2, habrá un retardo de propagación entre dos oídos, lo que generará la ITD. Al mismo tiempo, la cabeza y los oídos humanos pueden tener un efecto de sombra sobre las señales de alta frecuencia, lo que generará la IID.
Para frecuencias inferiores a 800 Hz, las dimensiones de la cabeza (distancia entre los oídos 21,5 cm, correspondiente a un retardo temporal interaural de 626 μs) son menores que la mitad de la longitud de onda de las ondas sonoras. Por lo tanto, el sistema auditivo puede determinar los retrasos de fase entre ambos oídos sin confusión. Las diferencias de nivel interaural son muy bajas en este rango de frecuencia, especialmente por debajo de los 200 Hz, por lo que una evaluación precisa de la dirección de entrada es casi imposible basándose únicamente en las diferencias de nivel. A medida que la frecuencia cae por debajo de los 80 Hz, se vuelve difícil o imposible utilizar la diferencia de tiempo o la diferencia de nivel para determinar la fuente lateral de un sonido, porque la diferencia de fase entre los oídos se vuelve demasiado pequeña para una evaluación direccional. [12]
Para frecuencias superiores a 1600 Hz las dimensiones de la cabeza son mayores que la longitud de las ondas sonoras. Una determinación inequívoca de la dirección de entrada basada únicamente en la fase interaural no es posible en estas frecuencias. Sin embargo, las diferencias de nivel interaural se hacen mayores, y estas diferencias de nivel son evaluadas por el sistema auditivo. Además, los retrasos entre los oídos todavía se pueden detectar a través de alguna combinación de diferencias de fase y retrasos de grupo , que son más pronunciados a frecuencias más altas; es decir, si hay un inicio de sonido, el retraso de este inicio entre los oídos se puede utilizar para determinar la dirección de entrada de la fuente de sonido correspondiente. Este mecanismo se vuelve especialmente importante en entornos reverberantes. Después de un inicio de sonido hay un corto período de tiempo donde el sonido directo llega a los oídos, pero aún no el sonido reflejado. El sistema auditivo utiliza este corto período de tiempo para evaluar la dirección de la fuente de sonido, y mantiene esta dirección detectada mientras las reflexiones y la reverberación impidan una estimación inequívoca de la dirección. [13] Los mecanismos descritos anteriormente no se pueden utilizar para diferenciar entre una fuente de sonido delante del oyente o detrás del oyente; Por lo tanto, se deben evaluar señales adicionales. [14]
La teoría dúplex muestra que los ITD y los IID desempeñan papeles importantes en la localización del sonido, pero sólo pueden abordar problemas de localización lateral. Por ejemplo, si dos fuentes acústicas se colocan simétricamente en la parte delantera y trasera del lado derecho de la cabeza humana, generarán ITD e IID iguales, en lo que se denomina el efecto del modelo de cono. Sin embargo, los oídos humanos todavía pueden distinguir entre estas fuentes. Además de eso, en el sentido natural de la audición, un solo oído, sin ningún ITD o IID, puede distinguir entre ellos con alta precisión. Debido a las desventajas de la teoría dúplex, los investigadores propusieron la teoría del efecto de filtrado del pabellón auricular. [15] [16] La forma del pabellón auricular humano es cóncava con pliegues complejos y asimétrica tanto horizontal como verticalmente. Las ondas reflejadas y directas generan un espectro de frecuencia en el tímpano, relacionado con las fuentes acústicas. Luego, los nervios auditivos localizan las fuentes utilizando este espectro de frecuencia. [17]
Estas pistas espectrales generadas por el efecto de filtrado del pabellón auricular se pueden presentar como una función de transferencia relacionada con la cabeza (HRTF). Las expresiones de dominio temporal correspondientes se denominan respuesta al impulso relacionada con la cabeza (HRIR). La HRTF también se describe como la función de transferencia desde el campo libre hasta un punto específico en el canal auditivo. Por lo general, reconocemos las HRTF como sistemas LTI: [9]
donde L y R representan el oído izquierdo y el oído derecho respectivamente, y representan la amplitud de la presión sonora en las entradas de los canales auditivos izquierdo y derecho, y es la amplitud de la presión sonora en el centro de la coordenada de la cabeza cuando el oyente no existe. En general, y son funciones de la posición angular de la fuente , el ángulo de elevación , la distancia entre la fuente y el centro de la cabeza , la velocidad angular y la dimensión equivalente de la cabeza .
En la actualidad, los principales institutos que trabajan en la medición de la base de datos de HRTF incluyen CIPIC [18] International Lab, MIT Media Lab, la Escuela de Posgrado en Psicoacústica de la Universidad de Oldenburg, el Laboratorio de Neurofisiología de la Universidad de Wisconsin-Madison y el Laboratorio Ames de la NASA. Las bases de datos de HRIR de humanos con audición normal y deficiente y de animales están disponibles públicamente.
El oído externo humano , es decir, las estructuras del pabellón auricular y del conducto auditivo externo , forman filtros selectivos de dirección. Dependiendo de la dirección de entrada del sonido, se activan diferentes resonancias de filtro. Estas resonancias implantan patrones específicos de dirección en las respuestas de frecuencia de los oídos, que pueden ser evaluados por el sistema auditivo para la localización del sonido. Junto con otras reflexiones selectivas de dirección en la cabeza, los hombros y el torso, forman las funciones de transferencia del oído externo. Estos patrones en las respuestas de frecuencia del oído son muy individuales, dependiendo de la forma y el tamaño del oído externo. Si el sonido se presenta a través de auriculares y se ha grabado a través de otra cabeza con superficies del oído externo de forma diferente, los patrones direccionales difieren de los del propio oyente y aparecerán problemas al intentar evaluar direcciones en el plano medio con estos oídos extraños. Como consecuencia, pueden aparecer permutaciones frontal-posterior o localización dentro de la cabeza al escuchar grabaciones de cabeza ficticia , o también conocidas como grabaciones binaurales. Se ha demostrado que los sujetos humanos pueden localizar monoauralmente sonidos de alta frecuencia, pero no sonidos de baja frecuencia. Sin embargo, la localización binaural fue posible con frecuencias más bajas. Esto probablemente se deba a que el pabellón auricular es lo suficientemente pequeño como para interactuar solo con ondas sonoras de alta frecuencia. [19] Parece que las personas solo pueden localizar con precisión la elevación de sonidos complejos e incluyen frecuencias superiores a 7000 Hz, y debe haber un pabellón auricular. [20]
Cuando la cabeza está estacionaria, las señales binaurales para la localización lateral del sonido (diferencia de tiempo interaural y diferencia de nivel interaural) no dan información sobre la ubicación de un sonido en el plano medio. Los sonidos a la altura de los ojos o a cualquier altura pueden producir ITD e ILD idénticos, siempre que la dirección lateral sea constante. Sin embargo, si se gira la cabeza, la ITD y la ILD cambian dinámicamente, y esos cambios son diferentes para los sonidos a diferentes alturas. Por ejemplo, si una fuente de sonido a la altura de los ojos está directamente frente a usted y la cabeza gira hacia la izquierda, el sonido se vuelve más fuerte (y llega antes) al oído derecho que al izquierdo. Pero si la fuente de sonido está directamente sobre su cabeza, no habrá cambios en la ITD y la ILD cuando gire la cabeza. Las elevaciones intermedias producirán grados intermedios de cambio, y si se invierte la presentación de señales binaurales a los dos oídos durante el movimiento de la cabeza, el sonido se escuchará detrás del oyente. [14] [21] Hans Wallach [22] alteró artificialmente las señales binaurales de un sonido durante los movimientos de la cabeza. Aunque el sonido se colocó objetivamente a la altura de los ojos, los cambios dinámicos en la ITD y la ILD a medida que la cabeza giraba eran los que se producirían si la fuente de sonido hubiera estado elevada. En esta situación, el sonido se escuchó a la altura sintetizada. El hecho de que las fuentes de sonido permanecieran objetivamente a la altura de los ojos impidió que las señales monoaurales especificaran la elevación, lo que demuestra que fue el cambio dinámico en las señales binaurales durante el movimiento de la cabeza lo que permitió que el sonido se localizara correctamente en la dimensión vertical. Los movimientos de la cabeza no necesitan producirse activamente; la localización vertical precisa ocurrió en una configuración similar cuando la rotación de la cabeza se produjo pasivamente, sentando al sujeto con los ojos vendados en una silla giratoria. Siempre que los cambios dinámicos en las señales binaurales acompañaran una rotación de la cabeza percibida, se percibía la elevación sintetizada. [14]
En la década de 1960, Batteau demostró que el pabellón auricular también mejora la localización horizontal. [23] [24]
[ cita requerida ]
El sistema auditivo humano tiene posibilidades limitadas de determinar la distancia de una fuente sonora. En el rango cercano existen algunos indicios para la determinación de la distancia, como diferencias extremas de nivel (por ejemplo, al susurrar en un oído) o resonancias específicas del pabellón auricular (la parte visible del oído) en el rango cercano.
El sistema auditivo utiliza estas pistas para estimar la distancia a una fuente de sonido:
El procesamiento del sonido del sistema auditivo humano se realiza en las llamadas bandas críticas . El rango de audición se divide en 24 bandas críticas, cada una con un ancho de 1 Bark o 100 Mel . Para un análisis direccional, las señales dentro de la banda crítica se analizan en conjunto.
El sistema auditivo puede extraer el sonido de una fuente de sonido deseada de entre el ruido de interferencia. Esto permite al oyente concentrarse en un solo hablante si otros hablantes también están hablando ( efecto cóctel ). Con la ayuda del efecto cóctel, el sonido de las direcciones de interferencia se percibe atenuado en comparación con el sonido de la dirección deseada. El sistema auditivo puede aumentar la relación señal/ruido hasta en 15 dB , lo que significa que el sonido de interferencia se percibe atenuado a la mitad (o menos) de su volumen real . [ cita requerida ]
En espacios cerrados, no sólo llega a los oídos del oyente el sonido directo de una fuente sonora, sino también el sonido que se refleja en las paredes. El sistema auditivo analiza sólo el sonido directo, [13] que llega primero, para la localización del sonido, pero no el sonido reflejado, que llega después ( ley del primer frente de onda ). Por tanto, la localización del sonido sigue siendo posible incluso en un entorno ecoico. Esta cancelación del eco se produce en el núcleo dorsal del lemnisco lateral (DNLL). [25]
Para determinar los períodos de tiempo en los que predomina el sonido directo y que se pueden utilizar para la evaluación direccional, el sistema auditivo analiza los cambios de sonoridad en diferentes bandas críticas y también la estabilidad de la dirección percibida. Si hay un fuerte ataque de la sonoridad en varias bandas críticas y si la dirección percibida es estable, este ataque es con toda probabilidad causado por el sonido directo de una fuente de sonido que está entrando recientemente o que está cambiando sus características de señal. Este corto período de tiempo es utilizado por el sistema auditivo para el análisis direccional y de sonoridad de este sonido. Cuando las reflexiones llegan un poco más tarde, no mejoran la sonoridad dentro de las bandas críticas de una manera tan fuerte, pero las señales direccionales se vuelven inestables, porque hay una mezcla de sonido de varias direcciones de reflexión. Como resultado, el sistema auditivo no activa ningún nuevo análisis direccional.
Esta primera dirección detectada del sonido directo se toma como la dirección de la fuente de sonido encontrada, hasta que otros ataques de sonoridad fuertes, combinados con información direccional estable, indiquen que es posible un nuevo análisis direccional. (ver efecto Franssen )
Este tipo de técnica de localización de sonido nos proporciona el sistema estéreo virtual real . [26] Utiliza maniquíes "inteligentes", como KEMAR, para recopilar señales o utiliza métodos DSP para simular el proceso de transmisión de las fuentes a los oídos. Después de amplificar, grabar y transmitir, los dos canales de señales recibidas se reproducirán a través de auriculares o altavoces. Este enfoque de localización utiliza métodos electroacústicos para obtener la información espacial del campo de sonido original transfiriendo el aparato auditivo del oyente al campo de sonido original. Las ventajas más considerables serían que sus imágenes acústicas son vivas y naturales. Además, solo necesita dos señales transmitidas independientes para reproducir la imagen acústica de un sistema 3D.
Los representantes de este tipo de sistema son SRS Audio Sandbox, Spatializer Audio Lab y Qsound Qxpander. [26] Utilizan HRTF para simular las señales acústicas recibidas en los oídos desde diferentes direcciones con reproducción estéreo de canal binario común. Por lo tanto, pueden simular ondas sonoras reflejadas y mejorar la sensación subjetiva de espacio y envolvente. Dado que son sistemas estéreo de para-virtualización, el objetivo principal de ellos es simular información de sonido estéreo. Los sistemas estéreo tradicionales utilizan sensores que son bastante diferentes de los oídos humanos. Aunque esos sensores pueden recibir la información acústica desde diferentes direcciones, no tienen la misma respuesta de frecuencia del sistema auditivo humano. Por lo tanto, cuando se aplica el modo de canal binario, los sistemas auditivos humanos todavía no pueden sentir el campo de efecto de sonido 3D. Sin embargo, el sistema estéreo de para-virtualización 3D supera tales desventajas. Utiliza principios HRTF para recopilar información acústica del campo de sonido original y luego producir un campo de sonido 3D animado a través de auriculares o altavoces comunes.
Dado que los sistemas estéreo multicanal requieren muchos canales de reproducción, algunos investigadores adoptaron las tecnologías de simulación HRTF para reducir la cantidad de canales de reproducción. [26] Utilizan solo dos altavoces para simular varios altavoces en un sistema multicanal. Este proceso se denomina reproducción virtual. Básicamente, este enfoque utiliza tanto el principio de diferencia interaural como la teoría del efecto de filtrado de la oreja. Desafortunadamente, este tipo de enfoque no puede sustituir perfectamente al sistema estéreo multicanal tradicional, como el sistema de sonido envolvente 5.1 / 7.1 . Esto se debe a que cuando la zona de escucha es relativamente más grande, la reproducción de simulación a través de HRTF puede causar imágenes acústicas invertidas en posiciones simétricas.
Dado que la mayoría de los animales tienen dos oídos, muchos de los efectos del sistema auditivo humano también se pueden encontrar en otros animales. Por lo tanto, las diferencias de tiempo interaural (diferencias de fase interaural) y las diferencias de nivel interaural juegan un papel en la audición de muchos animales. Pero las influencias en la localización de estos efectos dependen del tamaño de la cabeza, la distancia entre las orejas, la posición de las orejas y la orientación de las orejas. Los animales más pequeños, como los insectos, utilizan técnicas diferentes, ya que la separación de las orejas es demasiado pequeña. [27] Para el proceso de los animales que emiten sonido para mejorar la localización, una forma biológica de sonar activo , consulte ecolocalización animal .
Si las orejas están situadas a los lados de la cabeza, se pueden utilizar señales de localización lateral similares a las del sistema auditivo humano. Esto significa: evaluación de las diferencias de tiempo interaurales (diferencias de fase interaural) para frecuencias más bajas y evaluación de las diferencias de nivel interaural para frecuencias más altas. La evaluación de las diferencias de fase interaural es útil siempre que proporcione resultados inequívocos. Este es el caso, siempre que la distancia entre las orejas sea menor que la mitad de la longitud (longitud de onda máxima) de las ondas sonoras. En los animales con una cabeza más grande que los humanos, el rango de evaluación de las diferencias de fase interaural se desplaza hacia frecuencias más bajas, y en los animales con una cabeza más pequeña, este rango se desplaza hacia frecuencias más altas.
La frecuencia más baja que se puede localizar depende de la distancia a la oreja. Los animales con una mayor distancia a la oreja pueden localizar frecuencias más bajas que los humanos. Para los animales con una distancia a la oreja menor, la frecuencia más baja localizable es más alta que para los humanos.
Si las orejas están situadas a los lados de la cabeza, aparecen diferencias de nivel interaural para frecuencias más altas y pueden evaluarse para tareas de localización. En el caso de los animales con orejas en la parte superior de la cabeza, no aparecerá ninguna sombra de la cabeza y, por lo tanto, habrá muchas menos diferencias de nivel interaural, que podrían evaluarse. Muchos de estos animales pueden mover las orejas, y estos movimientos de las orejas pueden utilizarse como una señal de localización lateral.
En muchos mamíferos, también hay estructuras pronunciadas en el pabellón auricular, cerca de la entrada del canal auditivo. Como consecuencia, pueden aparecer resonancias dependientes de la dirección, que podrían utilizarse como una pista de localización adicional, similar a la localización en el plano medio en el sistema auditivo humano. Existen pistas de localización adicionales que también utilizan los animales.
Para localizar el sonido en el plano medio (elevación del sonido) también se pueden utilizar dos detectores, que se colocan a diferentes alturas. En los animales, sin embargo, la información aproximada sobre la elevación se obtiene simplemente inclinando la cabeza, siempre que el sonido dure lo suficiente como para completar el movimiento. Esto explica el comportamiento innato de inclinar la cabeza hacia un lado cuando se intenta localizar un sonido con precisión. Para obtener una localización instantánea en más de dos dimensiones a partir de pistas de diferencia de tiempo o de diferencia de amplitud se necesitan más de dos detectores.
La pequeña mosca parásita Ormia ochracea se ha convertido en un organismo modelo en experimentos de localización de sonido debido a su oído único . El animal es demasiado pequeño para que la diferencia de tiempo del sonido que llega a los dos oídos se calcule de la manera habitual, pero puede determinar la dirección de las fuentes de sonido con una precisión exquisita. Las membranas timpánicas de los oídos opuestos están conectadas directamente de manera mecánica, lo que permite la resolución de diferencias de tiempo de sub-microsegundos [28] [29] y requiere una nueva estrategia de codificación neuronal . [30] Ho [31] demostró que el sistema de tímpano acoplado en ranas puede producir mayores disparidades de vibración interaural cuando solo había pequeñas diferencias de tiempo de llegada y nivel de sonido disponibles para la cabeza del animal. Se están realizando esfuerzos para construir micrófonos direccionales basados en la estructura de tímpano acoplado.
La mayoría de los búhos son aves rapaces nocturnas o crepusculares . Como cazan de noche, deben recurrir a sentidos no visuales. Los experimentos de Roger Payne [32] han demostrado que los búhos son sensibles a los sonidos que emiten sus presas, no al calor ni al olor. De hecho, las señales sonoras son necesarias y suficientes para localizar a los ratones desde un lugar distante donde se encuentran posados. Para que esto funcione, los búhos deben poder localizar con precisión tanto el acimut como la elevación de la fuente de sonido.
Los delfines (y otros odontocetos ) dependen de la ecolocalización para detectar, identificar, localizar y capturar presas. Las señales del sonar de los delfines son muy adecuadas para localizar múltiples objetivos pequeños en un entorno acuático tridimensional mediante el uso de clics de corta duración (alrededor de 40 μs) de banda ancha (ancho de haz de 3 dB de aproximadamente 10 grados) y altamente direccionales (ancho de haz de 3 dB de aproximadamente 10 grados). Los delfines pueden localizar sonidos tanto de forma pasiva como activa (ecolocalización) con una resolución de aproximadamente 1 grado. La correspondencia intermodal (entre la visión y la ecolocalización) sugiere que los delfines perciben la estructura espacial de objetos complejos interrogados a través de la ecolocalización, una hazaña que probablemente requiere resolver espacialmente las características de los objetos individuales e integrarlas en una representación holística de la forma del objeto. Aunque los delfines son sensibles a pequeñas diferencias binaurales de intensidad y tiempo, cada vez hay más pruebas que sugieren que emplean señales espectrales dependientes de la posición derivadas de funciones de transferencia relacionadas con la cabeza bien desarrolladas para la localización del sonido tanto en el plano horizontal como en el vertical. Un tiempo de integración temporal muy pequeño (264 μs) permite la localización de múltiples objetivos a distintas distancias. Las adaptaciones de localización incluyen una asimetría pronunciada del cráneo, los sacos nasales y las estructuras lipídicas especializadas en la frente y las mandíbulas, así como oídos medio e interno acústicamente aislados.
El papel de la prestina en la localización del sonido:
En el campo de la localización de sonidos en los mamíferos, el gen Prestin ha emergido como un actor fundamental, particularmente en el fascinante campo de la ecolocalización que emplean los murciélagos y los delfines. Descubierto hace poco más de una década, Prestin codifica una proteína ubicada en las células pilosas del oído interno, que facilita contracciones y expansiones rápidas. Este intrincado mecanismo funciona de manera similar a una bocina de fonógrafo antigua, amplificando las ondas sonoras dentro de la cóclea y elevando la sensibilidad general de la audición.
En 2014, Liu y otros investigaron las adaptaciones evolutivas de Prestin y descubrieron su papel fundamental en el rango de audición ultrasónica esencial para el sonar animal, específicamente en el contexto de la ecolocalización . Esta adaptación resulta fundamental para los delfines que navegan en aguas turbias y para los murciélagos que buscan sustento en la oscuridad nocturna. [33]
Cabe destacar la emisión de llamadas de ecolocalización de alta frecuencia por parte de las ballenas dentadas y los murciélagos ecolocalizadores, que muestran diversidad en forma, duración y amplitud. Sin embargo, es su audición de alta frecuencia la que se vuelve primordial, ya que permite la recepción y el análisis de los ecos que rebotan en los objetos de su entorno. Una disección meticulosa de la función de la proteína prestina en murciélagos y delfines mulares guiados por sonar, yuxtapuesta con mamíferos no sonarizados, arroja luz sobre las complejidades de este proceso.
Los análisis evolutivos de las secuencias de la proteína prestina dieron lugar a una observación convincente: un cambio singular de aminoácidos de treonina (Thr o T) en los mamíferos con sonares a asparagina (Asn o N) en los mamíferos sin sonares. Esta alteración específica, sujeta a una evolución paralela, surge como un eje central en la narrativa de la ecolocalización de los mamíferos. [33]
Experimentos posteriores dieron credibilidad a esta hipótesis, identificando cuatro distinciones clave de aminoácidos en los mamíferos que utilizan el sonar y que probablemente contribuyen a sus características distintivas de ecolocalización. La confluencia de análisis evolutivos y hallazgos empíricos proporciona evidencia sólida, marcando un punto de inflexión significativo en la comprensión del papel del gen de la prestina en la trayectoria evolutiva de los sistemas de ecolocalización de los mamíferos. Esta investigación subraya la adaptabilidad y la importancia evolutiva de la prestina, ofreciendo información valiosa sobre las bases genéticas de la localización del sonido en murciélagos y delfines, particularmente dentro del sofisticado ámbito de la ecolocalización. [33]
El término «binaural» significa literalmente «oír con dos oídos» y se introdujo en 1859 para significar la práctica de escuchar el mismo sonido a través de ambos oídos, o dos sonidos discretos, uno a través de cada oído. No fue hasta 1916 que Carl Stumpf (1848-1936), un filósofo y psicólogo alemán , distinguió entre la escucha dicótica, que se refiere a la estimulación de cada oído con un estímulo diferente , y la escucha diótica, la estimulación simultánea de ambos oídos con el mismo estímulo. [34]
Más tarde, se haría evidente que la audición binaural, ya sea dicótica o diótica, es el medio por el cual se produce la localización del sonido. [34] [35] [ página necesaria ]
La consideración científica de la audición binaural comenzó antes de que el fenómeno fuera llamado así, con especulaciones publicadas en 1792 por William Charles Wells (1757-1817) basadas en su investigación sobre la visión binocular . [36] Giovanni Battista Venturi (1746-1822) realizó y describió experimentos en los que las personas intentaron localizar un sonido utilizando ambos oídos o un oído bloqueado con un dedo. Este trabajo no tuvo seguimiento y solo se recuperó después de que otros habían descubierto cómo funciona la localización del sonido humano. [34] [36] Lord Rayleigh (1842-1919) haría estos mismos experimentos y llegaría a los resultados, sin saber que Venturi los había hecho primero, casi setenta y cinco años después. [36]
Charles Wheatstone (1802-1875) trabajó en óptica y mezcla de colores, y también exploró la audición. Inventó un dispositivo al que llamó "micrófono" que consistía en una placa de metal sobre cada oreja, cada una conectada a varillas de metal; utilizó este dispositivo para amplificar el sonido. También realizó experimentos sosteniendo diapasones en ambos oídos al mismo tiempo, o por separado, tratando de averiguar cómo funciona el sentido del oído, que publicó en 1827. [36] Ernst Heinrich Weber (1795-1878), August Seebeck (1805-1849) y William Charles Wells también intentaron comparar y contrastar lo que se conocería como audición binaural con los principios de la integración binocular en general. [36]
La comprensión de cómo las diferencias en las señales sonoras entre dos oídos contribuyen al procesamiento auditivo de tal manera que permiten la localización y dirección del sonido avanzó considerablemente después de la invención del estetófono por Somerville Scott Alison en 1859, quien acuñó el término "binaural". Alison basó el estetófono en el estetoscopio , que había sido inventado por René Théophile Hyacinthe Laennec (1781-1826); el estetófono tenía dos "capturas" separadas, lo que permitía al usuario escuchar y comparar sonidos derivados de dos ubicaciones discretas. [36]
sonidos que provienen del plano medio (directamente frente al oyente) con aproximadamente 1 grado de MAA, y se deteriora notablemente cuando los estímulos se mueven hacia un lado; por ejemplo, la MAA es de aproximadamente 7 grados para los sonidos que se originan a 75 grados hacia un lado.