La teoría de volea afirma que los grupos de neuronas del sistema auditivo responden a un sonido disparando potenciales de acción ligeramente desfasados entre sí, de modo que, al combinarse, se puede codificar una frecuencia de sonido mayor y enviarla al cerebro para su análisis. La teoría fue propuesta por Ernest Wever y Charles Bray en 1930 [1] como complemento a la teoría de frecuencias de la audición. Más tarde se descubrió que esto solo ocurre en respuesta a sonidos de entre 500 Hz y 5000 Hz.
La teoría de la descarga se explicó en profundidad en el libro de Ernest Wever de 1949, Theory of Hearing [2]. Los grupos de neuronas en la cóclea se activan individualmente a frecuencias subarmónicas de un sonido que se escucha y se sincronizan en fase colectivamente para coincidir con las frecuencias totales del sonido. La razón de esto es que las neuronas solo pueden activarse a un máximo de aproximadamente 500 Hz, pero otras teorías de la audición no explicaban la audición de sonidos por debajo de aproximadamente 5000 Hz.
Los sonidos suelen ser sumas de tonos de varias frecuencias. Cuando estas frecuencias son múltiplos enteros de una frecuencia fundamental, crean un armónico . Cuando se presentan armónicos a grupos de neuronas auditivas, cada neurona se activa en una frecuencia y, cuando se combinan, el armónico completo se codifica en la corteza auditiva primaria del cerebro. Esta es la base de la teoría de voleas.
El bloqueo de fase se conoce como la adaptación de los tiempos de amplitud a una determinada fase de otra forma de onda. En el caso de las neuronas auditivas, esto significa disparar un potencial de acción en una determinada fase del sonido de estímulo que se está emitiendo. Se ha visto que cuando se reproduce un tono puro , las fibras nerviosas auditivas se activan a la misma frecuencia que el tono. [3] La teoría de volea sugiere que los grupos de neuronas auditivas utilizan el bloqueo de fase para representar frecuencias subarmónicas de un sonido armónico. Esto se ha demostrado en modelos de cobayas y gatos.
En 1980, Don Johnson reveló experimentalmente un bloqueo de fase en las fibras del nervio auditivo del gato adulto. [4] En presencia de tonos únicos de -40 a -100 decibeles que duraban 15 o 30 segundos, las grabaciones de las fibras del nervio auditivo mostraron fluctuaciones de activación en sincronía con el estímulo. Johnson observó que durante frecuencias inferiores a 1000 Hz, se registran dos picos por cada ciclo del estímulo, que tenían fases variables según la frecuencia de estimulación. Este fenómeno se interpretó como el resultado de un segundo armónico, el bloqueo de fase con la forma de onda del estímulo. Sin embargo, en frecuencias entre aproximadamente 1000 Hz y 5000 Hz, el bloqueo de fase se vuelve progresivamente inexacto y los intervalos tienden a volverse más aleatorios. [5]
El tono es una propiedad perceptual asignada por la cual el oyente ordena las frecuencias sonoras de bajas a altas. Se plantea la hipótesis de que el tono se determina al recibir información sincronizada en fase de los axones neuronales y combinar esa información en armónicos. En sonidos simples que constan de una frecuencia, el tono es equivalente a la frecuencia. Hay dos modelos de percepción del tono: uno espectral y otro temporal. Los sonidos de baja frecuencia evocan los tonos más fuertes, lo que sugiere que el tono se basa en los componentes temporales del sonido. [6] Históricamente, ha habido muchos modelos de percepción del tono. (Terhardt, 1974; [7] Goldstein, 1973; [8] Wightman, 1973). Muchos consistían en una etapa periférica de análisis espectral y una etapa central de análisis de periodicidad. En su modelo, Terhardt afirma que el resultado del análisis espectral de sonidos complejos, específicamente los de baja frecuencia, es una entidad aprendida que finalmente permite una fácil identificación del tono virtual. [7] El principio de volea se observa predominantemente durante la percepción del tono de frecuencias más bajas donde los sonidos a menudo se resuelven. [9] Goldstein propuso que a través del bloqueo de fase y las frecuencias temporales codificadas en las tasas de activación de las neuronas, el cerebro tiene la clasificación de frecuencias que luego se pueden usar para estimar el tono. [8]
A lo largo del siglo XIX se crearon muchas teorías y conceptos sobre la audición. Ernest Wever propuso la teoría de la volea en 1937 con su artículo "La percepción de tonos bajos y la teoría de la volea de resonancia". [1] En este artículo, Wever analiza teorías anteriores sobre la audición e introduce la teoría de la volea con el apoyo de sus propios experimentos e investigaciones. La teoría se introdujo como complemento a la teoría de frecuencia o teoría temporal de la audición, que contrastaba con la teoría del lugar de la audición.
La figura más destacada en la creación de la teoría del lugar de la audición es Hermann von Helmholtz , quien publicó su teoría terminada en 1885. Helmholtz afirmó que la cóclea contenía fibras individuales para analizar cada tono y enviar esa información al cerebro. Muchos seguidores revisaron y ampliaron la teoría de Helmholtz y pronto se llegó al consenso de que los sonidos de alta frecuencia se codificaban cerca de la base de la cóclea y que los sonidos de frecuencia media se codificaban cerca del ápice. Georg von Békésy desarrolló un nuevo método para diseccionar el oído interno y usar iluminación estroboscópica para observar el movimiento de la membrana basilar , lo que agregó evidencia para apoyar la teoría. [10]
Las ideas relacionadas con la teoría de la frecuencia de la audición surgieron a finales del siglo XIX como resultado de la investigación de muchas personas. En 1865, Heinrich Adolf Rinne desafió la teoría del lugar; afirmó que no es muy eficiente que los sonidos complejos se descompongan en sonidos simples y luego se reconstruyan en el cerebro. Más tarde, Friedrich Voltolini agregó al proponer que cada célula pilosa auditiva es estimulada por cualquier sonido. En consecuencia, William Rutherford proporcionó evidencia de que esta hipótesis era cierta, lo que permitió una mayor precisión de la cóclea. En 1886, Rutherford también propuso que el cerebro interpretaba las vibraciones de las células pilosas y que la cóclea no realizaba ningún análisis de frecuencia o tono del sonido. Poco después, Max Friedrich Meyer , entre otras ideas, teorizó que los nervios se excitarían a la misma frecuencia del estímulo. [10]
De las diversas teorías y nociones creadas por Rinne, Rutherford y sus seguidores, nació la teoría de la frecuencia. En general, afirmaba que todos los sonidos eran codificados en el cerebro por neuronas que se activaban a una velocidad que imitaba la frecuencia del sonido. Sin embargo, como los humanos pueden oír frecuencias de hasta 20.000 Hz, pero las neuronas no pueden activarse a estas velocidades, la teoría de la frecuencia tenía un fallo importante. En un esfuerzo por combatir este fallo, Ernest Wever y Charles Bray, en 1930, propusieron la teoría de la descarga, afirmando que varias neuronas podían activarse en una descarga para luego combinarse e igualar la frecuencia del estímulo sonoro original. A través de más investigaciones, se determinó que, como la sincronía de fase solo es precisa hasta aproximadamente 1000 Hz, la teoría de la descarga no puede explicar todas las frecuencias a las que oímos. [10]
Finalmente, a medida que surgieron nuevos métodos de estudio del oído interno, se adoptó una combinación de la teoría del lugar y la teoría de la frecuencia. Hoy en día, se cree ampliamente que la audición sigue las reglas de la teoría de la frecuencia, incluida la teoría de la descarga, a frecuencias inferiores a 1000 Hz y la teoría del lugar a frecuencias superiores a 5000 Hz. Para los sonidos con frecuencias entre 1000 y 5000 Hz, ambas teorías entran en juego para que el cerebro pueda utilizar la ubicación de la membrana basilar y la velocidad del impulso. [10]
Debido a la invasividad de la mayoría de los experimentos relacionados con la audición, resulta difícil utilizar modelos humanos en el estudio del sistema auditivo. Sin embargo, se han revelado muchos hallazgos en gatos y cobayas. Además, existen pocas formas de estudiar la membrana basilar in vivo .
A finales del siglo XIX y principios del XX se fundaron muchos conceptos revolucionarios relacionados con la audición y la codificación del sonido en el cerebro. Se utilizaron diversas herramientas para inducir una respuesta en los nervios auditivos que se iban a registrar. Los experimentos de Helmholtz, Wever y Bray a menudo implicaban el uso de tubos de órgano, resortes estirados, lengüetas cargadas, láminas, diapasones vibrantes, golpes y tonos de interrupción para crear "clics", armónicos o tonos puros. [11] Hoy en día, los osciladores electrónicos se utilizan a menudo para crear ondas sinusoidales o cuadradas de frecuencias precisas.
Los intentos de registrar eléctricamente el nervio auditivo comenzaron ya en 1896. Se colocaron electrodos en el nervio auditivo de varios modelos animales para obtener información sobre la velocidad a la que se activan las neuronas. En un experimento de 1930 con el nervio auditivo de un gato, Wever y Bray descubrieron que los sonidos de 100 a 5000 Hz reproducidos al gato producían una frecuencia similar de activación en el nervio. Esto respaldó la teoría de la frecuencia y la teoría de la descarga. [10]
A mediados del siglo XX, Georg von Békésy fue el primero en desarrollar un método para observar la membrana basilar en acción. Békésy aisló la cóclea de cadáveres humanos y animales y etiquetó la membrana basilar con láminas de plata. Esto permitió que las imágenes estroboscópicas capturaran el movimiento de la membrana a medida que los sonidos estimulaban las células ciliadas. Esto condujo a la solidificación de la idea de que las frecuencias altas excitan el extremo basal de la cóclea y proporcionó nueva información de que las frecuencias bajas excitan una gran área de la cóclea. Este nuevo hallazgo sugirió que se están produciendo propiedades especializadas para la audición de alta frecuencia y que las frecuencias bajas involucran mecanismos explicados en la teoría de la frecuencia. [10]
Una frecuencia fundamental es la frecuencia más baja de un armónico. En algunos casos, el sonido puede tener todas las frecuencias de un armónico pero carecer de la frecuencia fundamental, lo que se conoce como frecuencia fundamental faltante . Al escuchar un sonido al que le falta una frecuencia fundamental, el cerebro humano sigue recibiendo información para todas las frecuencias, incluida la frecuencia fundamental que no existe en el sonido. [12] Esto implica que el sonido está codificado por neuronas que se activan en todas las frecuencias de un armónico, por lo tanto, las neuronas deben estar bloqueadas de alguna manera para que se pueda escuchar un sonido. [8]
La sordera congénita o pérdida auditiva neurosensorial es un modelo que se utiliza a menudo para el estudio del oído interno en relación con la percepción del tono y las teorías de la audición en general. El análisis de frecuencia de la audición de estos individuos ha proporcionado información sobre las desviaciones comunes de las curvas de afinación normales, [13] los patrones de excitación y los rangos de discriminación de frecuencia. Al aplicar tonos puros o complejos, se puede obtener información sobre la percepción del tono. En 1983, se demostró que los sujetos con pérdida auditiva neurosensorial de baja frecuencia demostraron curvas de afinación psicofísicas anormales. Los cambios en las respuestas espaciales en estos sujetos mostraron capacidades de juicio de tono similares en comparación con los sujetos con respuestas espaciales normales. Esto fue especialmente cierto con respecto a los estímulos de baja frecuencia. Estos resultados sugieren que la teoría del lugar de la audición no explica la percepción del tono a bajas frecuencias, pero que la teoría temporal (de frecuencia) es más probable. Esta conclusión se debe al hallazgo de que cuando se les priva de la información del lugar de la membrana basilar, estos pacientes aún demostraron una percepción normal del tono. [14] Los modelos informáticos para la percepción del tono y la percepción de la sonoridad se utilizan a menudo durante los estudios de audición en sujetos con discapacidad acústica. La combinación de este modelado y el conocimiento de la audición natural permite un mejor desarrollo de los audífonos. [15]