stringtranslate.com

Percepción del habla

La percepción del habla es el proceso mediante el cual se escuchan, interpretan y comprenden los sonidos del lenguaje . El estudio de la percepción del habla está estrechamente vinculado con los campos de la fonología y la fonética en lingüística y la psicología cognitiva y la percepción en psicología . La investigación sobre la percepción del habla busca comprender cómo los oyentes humanos reconocen los sonidos del habla y utilizan esta información para comprender el lenguaje hablado. La investigación sobre la percepción del habla tiene aplicaciones en la construcción de sistemas informáticos que puedan reconocer el habla , en la mejora del reconocimiento del habla para oyentes con problemas de audición y lenguaje y en la enseñanza de lenguas extranjeras.

El proceso de percepción del habla comienza en el nivel de la señal sonora y el proceso de audición. (Para obtener una descripción completa del proceso de audición, consulte Audición ). Después de procesar la señal auditiva inicial, los sonidos del habla se procesan aún más para extraer señales acústicas e información fonética. Esta información del habla se puede utilizar luego para procesos lingüísticos de nivel superior, como el reconocimiento de palabras.

Señales acústicas

Figura 1: Espectrogramas de las sílabas "dee" (arriba), "dah" (medio) y "doo" (abajo) que muestran cómo las transiciones formantes de inicio que definen perceptivamente la consonante [d] difieren dependiendo de la identidad de la siguiente vocal. . ( Los formantes están resaltados con líneas de puntos rojas; las transiciones son los comienzos de flexión de las trayectorias de los formantes).

Las señales acústicas son señales sensoriales contenidas en la señal sonora del habla que se utilizan en la percepción del habla para diferenciar los sonidos del habla que pertenecen a diferentes categorías fonéticas . Por ejemplo, una de las señales del habla más estudiadas es el tiempo de inicio de la voz o VOT. VOT es una señal primaria que señala la diferencia entre explosivas sonoras y sordas, como "b" y "p". Otras señales diferencian los sonidos que se producen en diferentes lugares de articulación o formas de articulación . El sistema de habla también debe combinar estas señales para determinar la categoría de un sonido del habla específico. A menudo se piensa en esto en términos de representaciones abstractas de fonemas . Estas representaciones pueden luego combinarse para su uso en el reconocimiento de palabras y otros procesos del lenguaje.

No es fácil identificar a qué señales acústicas son sensibles los oyentes cuando perciben un sonido del habla en particular:

A primera vista, la solución al problema de cómo percibimos el habla parece engañosamente sencilla. Si uno pudiera identificar tramos de la forma de onda acústica que corresponden a unidades de percepción, entonces el camino desde el sonido hasta el significado sería claro. Sin embargo, esta correspondencia o mapeo ha resultado extremadamente difícil de encontrar, incluso después de unos cuarenta y cinco años de investigación sobre el problema. [1]

Si un aspecto específico de la forma de onda acústica indicara una unidad lingüística, una serie de pruebas utilizando sintetizadores de voz sería suficiente para determinar dicha señal o señales. Sin embargo, existen dos obstáculos importantes:

  1. Un aspecto acústico de la señal del habla puede indicar diferentes dimensiones lingüísticamente relevantes. Por ejemplo, la duración de una vocal en inglés puede indicar si la vocal está acentuada o no, o si está en una sílaba cerrada por una consonante sonora o sorda y, en algunos casos (como en inglés americano /ɛ/ y / æ / ) puede distinguir la identidad de las vocales. [2] Algunos expertos incluso sostienen que la duración puede ayudar a distinguir lo que tradicionalmente se llama vocales cortas y largas en inglés. [3]
  2. Una unidad lingüística puede depender de varias propiedades acústicas. Por ejemplo, en un experimento clásico, Alvin Liberman (1957) demostró que las transiciones formantes de inicio de /d/ difieren dependiendo de la siguiente vocal (ver Figura 1), pero los oyentes las interpretan todas como el fonema /d/ . [4]

Linealidad y el problema de la segmentación.

Figura 2: Un espectrograma de la frase "Te debo". No existen límites claramente distinguibles entre los sonidos del habla.

Aunque los oyentes perciben el habla como una corriente de unidades discretas [ cita requerida ] ( fonemas , sílabas y palabras ), esta linealidad es difícil de ver en la señal física del habla (consulte la Figura 2 para ver un ejemplo). Los sonidos del habla no se suceden estrictamente, sino que se superponen. [5] Un sonido del habla está influenciado por los que preceden y los que siguen. Esta influencia puede incluso ejercerse a una distancia de dos o más segmentos (y a través de los límites de sílabas y palabras). [5]

Como la señal del habla no es lineal, existe un problema de segmentación. Es difícil delimitar un tramo de señal del habla como perteneciente a una única unidad perceptiva. A modo de ejemplo, las propiedades acústicas del fonema /d/ dependerán de la producción de la vocal siguiente (a causa de la coarticulación ).

Falta de invariancia

La investigación y aplicación de la percepción del habla debe abordar varios problemas que resultan de lo que se ha denominado falta de invariancia. Es difícil encontrar relaciones constantes y fiables entre un fonema de una lengua y su manifestación acústica en el habla. Hay varias razones para esto:

Variación inducida por el contexto

El entorno fonético afecta las propiedades acústicas de los sonidos del habla. Por ejemplo, /u/ en inglés va al frente cuando está rodeada de consonantes coronales . [6] O bien, el tiempo de inicio de la voz que marca el límite entre las oclusivas sonoras y sordas es diferente para las oclusivas labiales, alveolares y velares y cambian bajo estrés o dependiendo de la posición dentro de una sílaba. [7]

Variación debido a diferentes condiciones del habla.

Un factor importante que causa variación es la diferencia en la velocidad del habla. Muchos contrastes fonémicos están constituidos por características temporales (vocales o consonantes cortas versus largas, africadas versus fricativas, oclusivas versus deslizadas, oclusivas sonoras versus sordas, etc.) y ciertamente se ven afectados por cambios en el tempo del habla . [1] Otra fuente importante de variación es el cuidado articulatorio frente al descuido, que es típico del habla conectada (la "falta de alcance" articulatoria se refleja obviamente en las propiedades acústicas de los sonidos producidos).

Variación debido a la diferente identidad del hablante

La estructura acústica resultante de producciones de habla concretas depende de las propiedades físicas y psicológicas de cada hablante. Los hombres, las mujeres y los niños generalmente producen voces con tonos diferentes. Debido a que los hablantes tienen tractos vocales de diferentes tamaños (debido especialmente al sexo y la edad), las frecuencias resonantes ( formantes ), que son importantes para el reconocimiento de los sonidos del habla, variarán en sus valores absolutos entre los individuos [8] (consulte la Figura 3 para ver una ilustración). de esta). Las investigaciones muestran que los bebés de 7,5 meses de edad no pueden reconocer la información presentada por hablantes de diferentes géneros; sin embargo, a la edad de 10,5 meses, pueden detectar las similitudes. [9] El dialecto y el acento extranjero también pueden causar variaciones, al igual que las características sociales del hablante y del oyente. [10]

Constancia perceptiva y normalización.

Figura 3: El panel izquierdo muestra las tres vocales periféricas del inglés americano /i/ , /ɑ/ y /u/ en un gráfico estándar F1 por F2 (en Hz). La discrepancia entre los valores masculinos, femeninos y infantiles es evidente. En el panel derecho, se representan las distancias de los formantes (en Bark ), en lugar de los valores absolutos, utilizando el procedimiento de normalización propuesto por Syrdal y Gopal en 1986. [11] Los valores de los formantes se toman de Hillenbrand et al. (1995) [8]

A pesar de la gran variedad de hablantes y condiciones diferentes, los oyentes perciben las vocales y las consonantes como categorías constantes. Se ha propuesto que esto se logra mediante el proceso de normalización perceptual en el que los oyentes filtran el ruido (es decir, la variación) para llegar a la categoría subyacente. Las diferencias en el tamaño del tracto vocal dan como resultado una variación de la frecuencia de los formantes entre los hablantes; por lo tanto, el oyente tiene que ajustar su sistema de percepción a las características acústicas de un hablante en particular. Esto se puede lograr considerando las proporciones de formantes en lugar de sus valores absolutos. [11] [12] [13] Este proceso se ha denominado normalización del tracto vocal (consulte la Figura 3 para ver un ejemplo). De manera similar, se cree que los oyentes ajustan la percepción de la duración al ritmo actual del discurso que están escuchando; esto se conoce como normalización de la velocidad del habla.

Si la normalización realmente se produce o no y cuál es su naturaleza exacta es un tema de controversia teórica (véanse las teorías a continuación). La constancia perceptiva es un fenómeno que no es específico únicamente de la percepción del habla; también existe en otros tipos de percepción.

Percepción categórica

Figura 4: Ejemplos de funciones de identificación (rojo) y discriminación (azul)

La percepción categórica está involucrada en procesos de diferenciación perceptiva. Las personas perciben los sonidos del habla de manera categórica, es decir, es más probable que noten las diferencias entre categorías (fonemas) que dentro de ellas. Por lo tanto, el espacio perceptivo entre categorías está deformado, y los centros de las categorías (o "prototipos") funcionan como un tamiz [14] o como imanes [15] para los sonidos entrantes del habla.

En un continuo artificial entre una explosiva bilabial sorda y una sonora , cada nuevo paso difiere del anterior en la cantidad de VOT . El primer sonido es una [b] presonora , es decir, tiene un VOT negativo. Luego, aumentando el VOT, llega a cero, es decir, la explosiva es una simple [p] sorda no aspirada . Gradualmente, agregando la misma cantidad de VOT a la vez, la explosiva eventualmente se convierte en un bilabial [pʰ] sordo fuertemente aspirado . ( Lisker y Abramson utilizaron este continuo en un experimento en 1970. [16] Los sonidos que usaron están disponibles en línea). En este continuo de, por ejemplo, siete sonidos, los oyentes nativos de inglés identificarán los primeros tres sonidos como / b/ y los últimos tres sonidos como /p/ con un límite claro entre las dos categorías. [16] Una prueba de identificación (o categorización) de dos alternativas producirá una función de categorización discontinua (ver curva roja en la Figura 4).

En pruebas de la capacidad de discriminar entre dos sonidos con valores de VOT variables pero que tienen una distancia de VOT constante entre sí (20 ms, por ejemplo), es probable que los oyentes se desempeñen en un nivel de probabilidad si ambos sonidos caen dentro de la misma categoría y a casi 100 ms. % de nivel si cada sonido cae en una categoría diferente (consulte la curva de discriminación azul en la Figura 4).

La conclusión que se puede extraer tanto de la prueba de identificación como de la de discriminación es que los oyentes tendrán una sensibilidad diferente al mismo aumento relativo en el VOT dependiendo de si se cruzó o no el límite entre categorías. También se atestigua un ajuste perceptivo similar para otras señales acústicas.

Influencias de arriba hacia abajo

En un experimento clásico, Richard M. Warren (1970) reemplazó un fonema de una palabra por un sonido parecido a una tos. Perceptualmente, sus sujetos restauraron el sonido faltante del habla sin ninguna dificultad y no pudieron identificar con precisión qué fonema había sido alterado, [17] un fenómeno conocido como efecto de restauración fonémica . Por tanto, el proceso de percepción del habla no es necesariamente unidireccional.

Otro experimento básico comparó el reconocimiento de palabras habladas naturalmente dentro de una frase versus las mismas palabras de forma aislada, descubriendo que la precisión de la percepción generalmente disminuye en esta última condición. Para probar la influencia del conocimiento semántico en la percepción, Garnes y Bond (1976) utilizaron de manera similar oraciones portadoras en las que las palabras objetivo sólo diferían en un único fonema (bahía/día/gay, por ejemplo) cuya calidad cambiaba a lo largo de un continuo. Cuando se las ponía en diferentes oraciones, cada una de las cuales conducía naturalmente a una interpretación, los oyentes tendían a juzgar las palabras ambiguas de acuerdo con el significado de la oración completa [18] . [19] Es decir, los procesos del lenguaje de nivel superior relacionados con la morfología , la sintaxis o la semántica pueden interactuar con los procesos básicos de percepción del habla para ayudar en el reconocimiento de los sonidos del habla.

Puede darse el caso de que no sea necesario o incluso imposible que un oyente reconozca los fonemas antes de reconocer unidades superiores, como por ejemplo palabras. Después de obtener a partir de la señal acústica al menos una información fundamental sobre la estructura fonémica de la entidad percibida, los oyentes pueden compensar los fonemas faltantes o enmascarados por ruido utilizando su conocimiento del lenguaje hablado. Los mecanismos compensatorios podrían incluso operar a nivel de oración, como en canciones, frases y versos aprendidos, un efecto respaldado por patrones de codificación neuronal consistentes con los fragmentos continuos del habla omitidos, [20] a pesar de la falta de toda la información sensorial relevante de abajo hacia arriba. .

Deterioro adquirido del lenguaje

La primera hipótesis de la percepción del habla se utilizó con pacientes que adquirieron un déficit de comprensión auditiva, también conocido como afasia receptiva . Desde entonces se han clasificado muchas discapacidades, lo que ha dado como resultado una verdadera definición de "percepción del habla". [21] El término 'percepción del habla' describe el proceso de interés que emplea contextos subléxicos para el proceso de investigación. Consta de muchas funciones lingüísticas y gramaticales diferentes, tales como: características, segmentos (fonemas), estructura silábica (unidad de pronunciación), formas fonológicas de las palabras (cómo se agrupan los sonidos), características gramaticales, morfemia (prefijos y sufijos) y Información semántica (el significado de las palabras). En los primeros años, estaban más interesados ​​en la acústica del habla. Por ejemplo, estaban observando las diferencias entre /ba/ o /da/, pero ahora la investigación se ha dirigido a la respuesta en el cerebro a los estímulos. En los últimos años, se ha desarrollado un modelo para crear una idea de cómo funciona la percepción del habla; este modelo se conoce como modelo de doble corriente. Este modelo ha cambiado drásticamente con respecto a la forma en que los psicólogos ven la percepción. La primera sección del modelo de corriente dual es la vía ventral. Esta vía incorpora la circunvolución temporal media, el surco temporal inferior y quizás la circunvolución temporal inferior . La vía ventral va desde las representaciones fonológicas a las representaciones léxicas o conceptuales, que es el significado de las palabras. La segunda sección del modelo de corriente dual es la vía dorsal. Esta vía incluye la parietotemporal silviana, la circunvolución frontal inferior, la ínsula anterior y la corteza premotora. Su función principal es tomar los estímulos sensoriales o fonológicos y transferirlos a una representación articulatorio-motora (formación del habla). [22]

Afasia

La afasia es un deterioro del procesamiento del lenguaje causado por un daño al cerebro. Diferentes partes del procesamiento del lenguaje se ven afectadas según el área del cerebro dañada, y la afasia se clasifica además según la ubicación de la lesión o la constelación de síntomas. El daño al área del cerebro de Broca a menudo resulta en afasia expresiva que se manifiesta como un deterioro en la producción del habla. El daño al área de Wernicke a menudo resulta en afasia receptiva donde se altera el procesamiento del habla. [23]

La afasia con alteración de la percepción del habla generalmente muestra lesiones o daños ubicados en los lóbulos temporal o parietal izquierdo . Las dificultades léxicas y semánticas son comunes y la comprensión puede verse afectada. [23]

agnosia

La agnosia es "la pérdida o disminución de la capacidad de reconocer objetos o estímulos familiares generalmente como resultado de un daño cerebral". [24] Hay varios tipos diferentes de agnosia que afectan cada uno de nuestros sentidos, pero los dos más comunes relacionados con el habla son la agnosia del habla y la fonagnosia .

Agnosia del habla : la sordera pura de palabras, o agnosia del habla, es una discapacidad en la que una persona mantiene la capacidad de oír, producir el habla e incluso leer el habla, pero no puede comprender ni percibir correctamente el habla. Estos pacientes parecen tener todas las habilidades necesarias para procesar adecuadamente el habla, pero no parecen tener experiencia asociada con los estímulos del habla. Los pacientes han informado: "Puedo oírte hablar, pero no puedo traducirlo". [25] Aunque reciben y procesan físicamente los estímulos del habla, sin la capacidad de determinar el significado del habla, esencialmente son incapaces de percibir el habla en absoluto. No se han encontrado tratamientos conocidos, pero a partir de estudios de casos y experimentos se sabe que la agnosia del habla está relacionada con lesiones en el hemisferio izquierdo o en ambos, específicamente disfunciones temporoparietales derechas. [26]

Fonagnosia : La fonagnosia se asocia con la incapacidad de reconocer voces familiares. En estos casos, los estímulos del habla pueden oírse e incluso entenderse pero se pierde la asociación del habla a una determinada voz. Esto puede deberse al "procesamiento anormal de propiedades vocales complejas (timbre, articulación y prosodia, elementos que distinguen una voz individual". [27] No se conoce ningún tratamiento; sin embargo, hay un informe de caso de una mujer epiléptica que comenzó Los resultados de su EEG y MRI mostraron "una lesión hiperintensa en T2 parietal cortical derecha sin realce con gadolinio y con un deterioro discreto de la difusión de las moléculas de agua". [27] Entonces , aunque no se ha descubierto ningún tratamiento, la fonagnosia puede ser correlacionado con la disfunción cortical parietal postictal.

Percepción del habla infantil

Los bebés comienzan el proceso de adquisición del lenguaje al ser capaces de detectar diferencias muy pequeñas entre los sonidos del habla. Pueden discriminar todos los contrastes posibles del habla (fonemas). Gradualmente, a medida que se exponen a su lengua materna, su percepción se vuelve específica de la lengua, es decir, aprenden a ignorar las diferencias dentro de las categorías fonémicas de la lengua (diferencias que bien pueden ser contrastivas en otras lenguas; por ejemplo, el inglés distingue dos voces). categorías de explosivas , mientras que el tailandés tiene tres categorías ; los bebés deben aprender qué diferencias son distintivas en los usos de su lengua materna y cuáles no). A medida que los bebés aprenden a clasificar los sonidos entrantes del habla en categorías, ignorando las diferencias irrelevantes y reforzando las contrastivas, su percepción se vuelve categórica. Los bebés aprenden a contrastar diferentes fonemas vocales de su lengua materna aproximadamente a los 6 meses de edad. Los contrastes consonánticos nativos se adquieren a los 11 o 12 meses de edad. [28] Algunos investigadores han propuesto que los bebés pueden aprender las categorías de sonido de su lengua materna a través de la escucha pasiva, utilizando un proceso llamado aprendizaje estadístico . Otros incluso afirman que ciertas categorías de sonido son innatas, es decir, están genéticamente especificadas (ver discusión sobre el carácter distintivo categórico innato versus adquirido ).

Si a los bebés de un día se les presenta la voz de su madre hablando normalmente, de forma anormal (en monótono) y la voz de un extraño, reaccionan sólo a la voz de su madre hablando normalmente. Cuando se reproduce un sonido humano y otro no humano, los bebés giran la cabeza sólo hacia la fuente del sonido humano. Se ha sugerido que el aprendizaje auditivo comienza ya en el período prenatal. [29]

Una de las técnicas utilizadas para examinar cómo los bebés perciben el habla, además del procedimiento de giro de cabeza mencionado anteriormente, es medir su tasa de succión. En un experimento de este tipo, un bebé chupa un pezón especial mientras se le presentan sonidos. Primero, se establece la tasa de succión normal del bebé. Luego se reproduce un estímulo repetidamente. Cuando el bebé escucha el estímulo por primera vez, la tasa de succión aumenta, pero a medida que el bebé se acostumbra a la estimulación, la tasa de succión disminuye y se estabiliza. Luego, se le presenta un nuevo estímulo al bebé. Si el bebé percibe el estímulo recién introducido como diferente del estímulo de fondo, la tasa de succión mostrará un aumento. [29] La tasa de succión y el método de giro de cabeza son algunos de los métodos conductuales más tradicionales para estudiar la percepción del habla. Entre los nuevos métodos (ver Métodos de investigación a continuación) que nos ayudan a estudiar la percepción del habla, la espectroscopia de infrarrojo cercano se usa ampliamente en bebés. [28]

También se ha descubierto que, aunque la capacidad de los bebés para distinguir entre las diferentes propiedades fonéticas de varias lenguas comienza a disminuir alrededor de los nueve meses de edad, es posible revertir este proceso exponiéndolos a una nueva lengua de manera suficiente. En un estudio de investigación realizado por Patricia K. Kuhl, Feng-Ming Tsao y Huei-Mei Liu, se descubrió que si un hablante nativo de chino mandarín habla e interactúa con los bebés, en realidad se les puede condicionar para que conserven su capacidad. distinguir diferentes sonidos del habla en mandarín que son muy diferentes de los sonidos del habla que se encuentran en el idioma inglés. Demostrando así que, dadas las condiciones adecuadas, es posible prevenir que los bebés pierdan la capacidad de distinguir sonidos del habla en idiomas distintos de los que se encuentran en su lengua materna. [30]

Cruce de lenguas y segunda lengua

Una gran cantidad de investigaciones han estudiado cómo los usuarios de un idioma perciben el habla extranjera (lo que se conoce como percepción del habla entre idiomas) o el habla de una segunda lengua (percepción del habla en una segunda lengua). Este último cae dentro del ámbito de la adquisición de una segunda lengua .

Las lenguas difieren en sus inventarios fonémicos. Naturalmente, esto crea dificultades cuando se trata de una lengua extranjera. Por ejemplo, si dos sonidos de una lengua extranjera se asimilan a una única categoría de lengua materna, será muy difícil discernir la diferencia entre ellos. Un ejemplo clásico de esta situación es la observación de que los estudiantes japoneses de inglés tendrán problemas para identificar o distinguir las consonantes líquidas inglesas /l/ y /r/ (ver Percepción del inglés /r/ y /l/ por parte de hablantes japoneses ). [31]

Best (1995) propuso un modelo de asimilación perceptual que describe posibles patrones de asimilación de categorías entre idiomas y predice sus consecuencias. [32] Flege (1995) formuló un modelo de aprendizaje del habla que combina varias hipótesis sobre la adquisición del habla en una segunda lengua (L2) y que predice, en palabras simples, que un sonido en una L2 que no sea demasiado similar a un idioma nativo (L1) Un sonido será más fácil de adquirir que un sonido L2 que sea relativamente similar a un sonido L1 (porque el alumno lo percibirá como más obviamente "diferente"). [33]

En problemas de lenguaje o audición.

La investigación sobre cómo las personas con discapacidad auditiva o del lenguaje perciben el habla no sólo pretende descubrir posibles tratamientos. Puede proporcionar información sobre los principios que subyacen a la percepción del habla sin alteraciones. [34] Dos áreas de investigación pueden servir como ejemplo:

Oyentes con afasia

La afasia afecta tanto a la expresión como a la recepción del lenguaje. Los dos tipos más comunes, la afasia expresiva y la afasia receptiva , afectan hasta cierto punto la percepción del habla. La afasia expresiva provoca dificultades moderadas para la comprensión del lenguaje. El efecto de la afasia receptiva sobre la comprensión es mucho más grave. Se acepta que los afásicos sufren de déficits de percepción. Por lo general, no pueden distinguir completamente el lugar de articulación y sonorización. [35] En cuanto a otras características, las dificultades varían. Aún no se ha demostrado si las habilidades de percepción del habla de bajo nivel se ven afectadas en los pacientes con afasia o si sus dificultades son causadas únicamente por un deterioro de nivel superior. [35]

Oyentes con implantes cocleares

El implante coclear restablece el acceso a la señal acústica en personas con pérdida auditiva neurosensorial. La información acústica transmitida por un implante suele ser suficiente para que los usuarios de implantes reconozcan correctamente el habla de personas que conocen, incluso sin pistas visuales. [36] Para los usuarios de implantes cocleares, es más difícil comprender hablantes y sonidos desconocidos. Las capacidades de percepción de los niños que recibieron un implante después de los dos años son significativamente mejores que las de aquellos a los que se les implantó en la edad adulta. Se ha demostrado que varios factores influyen en el rendimiento perceptual, específicamente: duración de la sordera antes de la implantación, edad de aparición de la sordera, edad en el momento de la implantación (dichos efectos de la edad pueden estar relacionados con la hipótesis del período crítico ) y la duración del uso de un implante. . Existen diferencias entre niños con sordera congénita y adquirida. Los niños sordos poslingualmente tienen mejores resultados que los sordos prelocutivos y se adaptan más rápidamente a un implante coclear. [36] Tanto en niños con implantes cocleares como con audición normal, las vocales y el tiempo de aparición de la voz se vuelven prevalentes en el desarrollo antes que la capacidad de discriminar el lugar de articulación. Varios meses después de la implantación, los niños con implantes cocleares pueden normalizar la percepción del habla.

Ruido

Uno de los problemas fundamentales en el estudio del habla es cómo abordar el ruido. Así lo demuestra la dificultad para reconocer el habla humana que tienen los sistemas de reconocimiento informático. Si bien pueden funcionar bien en el reconocimiento del habla si se entrenan en la voz de un hablante específico y en condiciones de silencio, estos sistemas a menudo funcionan mal en situaciones de escucha más realistas en las que los humanos entenderían el habla sin relativa dificultad. Para emular patrones de procesamiento que se mantendrían en el cerebro en condiciones normales, el conocimiento previo es un factor neuronal clave, ya que una historia de aprendizaje sólida puede anular hasta cierto punto los efectos de enmascaramiento extremos involucrados en la ausencia total de señales continuas del habla. [20]

Conexión música-lenguaje

La investigación sobre la relación entre la música y la cognición es un campo emergente relacionado con el estudio de la percepción del habla. Originalmente se teorizó que las señales neuronales de la música se procesaban en un "módulo" especializado en el hemisferio derecho del cerebro. Por el contrario, las señales neuronales del lenguaje debían ser procesadas por un "módulo" similar en el hemisferio izquierdo. [37] Sin embargo, utilizando tecnologías como máquinas de resonancia magnética funcional, la investigación ha demostrado que dos regiones del cerebro tradicionalmente consideradas exclusivamente para procesar el habla, las áreas de Broca y Wernicke, también se activan durante actividades musicales como escuchar una secuencia de acordes musicales. [37] Otros estudios, como el realizado por Marques et al. en 2006 demostró que niños de 8 años que recibieron seis meses de entrenamiento musical mostraron un aumento tanto en su rendimiento de detección de tono como en sus medidas electrofisiológicas cuando se les hizo escuchar un idioma extranjero desconocido. [38]

Por el contrario, algunas investigaciones han revelado que, en lugar de que la música afecte nuestra percepción del habla, nuestro habla nativa puede afectar nuestra percepción de la música. Un ejemplo es la paradoja del tritono . La paradoja del tritono es cuando al oyente se le presentan dos tonos generados por computadora (como C y F-Sharp) que están separados por media octava (o un tritono) y luego se le pide que determine si el tono de la secuencia es descendente o ascendente. Uno de esos estudios, realizado por la Sra. Diana Deutsch, encontró que la interpretación del oyente del tono ascendente o descendente estaba influenciada por el idioma o dialecto del oyente, mostrando una variación entre los criados en el sur de Inglaterra y los de California o los de Vietnam y aquellos en California cuya lengua materna era el inglés. [37] Un segundo estudio, realizado en 2006 en un grupo de angloparlantes y tres grupos de estudiantes de Asia Oriental en la Universidad del Sur de California, descubrió que los angloparlantes que habían comenzado su formación musical a los 5 años o antes tenían un 8% de posibilidades de tener tono perfecto. [37]

Fenomenología del habla

La experiencia del habla.

Casey O'Callaghan , en su artículo Experiencing Speech , analiza si "la experiencia perceptiva de escuchar el habla difiere en su carácter fenomenal" [39] con respecto a la comprensión del lenguaje que se escucha. Sostiene que la experiencia de un individuo cuando escucha un idioma que comprende, a diferencia de su experiencia cuando escucha un idioma que no conoce, muestra una diferencia en características fenoménicas que él define como "aspectos de cómo es una experiencia" [39] para un individuo.

Si a un sujeto que es un hablante nativo monolingüe de inglés se le presenta un estímulo del habla en alemán, la cadena de fonemas aparecerá como meros sonidos y producirá una experiencia muy diferente que si se le presentara exactamente el mismo estímulo a un sujeto que habla alemán. .

También examina cómo cambia la percepción del habla cuando se aprende un idioma. Si a un sujeto sin conocimiento del idioma japonés se le presentara un estímulo del habla japonesa y luego se le dieran exactamente los mismos estímulos después de aprender japonés, este mismo individuo tendría una experiencia extremadamente diferente .

Métodos de búsqueda

Los métodos utilizados en la investigación de la percepción del habla se pueden dividir a grandes rasgos en tres grupos: métodos conductuales, computacionales y, más recientemente, neurofisiológicos.

Métodos conductuales

Los experimentos conductuales se basan en el papel activo del participante, es decir, a los sujetos se les presentan estímulos y se les pide que tomen decisiones conscientes sobre ellos. Esto puede tomar la forma de una prueba de identificación, una prueba de discriminación , una calificación de similitud, etc. Este tipo de experimentos ayudan a proporcionar una descripción básica de cómo los oyentes perciben y categorizan los sonidos del habla.

Discurso de onda sinusoidal

La percepción del habla también se ha analizado a través del habla sinusoidal, una forma de habla sintética en la que la voz humana se reemplaza por ondas sinusoidales que imitan las frecuencias y amplitudes presentes en el habla original. Cuando a los sujetos se les presenta este discurso por primera vez, el discurso de onda sinusoidal se interpreta como ruidos aleatorios. Pero cuando se informa a los sujetos que el estímulo en realidad es habla y se les dice lo que se dice, "se produce un cambio distintivo y casi inmediato" [39] en la forma en que se percibe el habla sinusoidal.

Métodos computacionales

El modelado computacional también se ha utilizado para simular cómo el cerebro puede procesar el habla para producir comportamientos que se observan. Se han utilizado modelos informáticos para abordar varias cuestiones de la percepción del habla, incluido cómo se procesa la propia señal de sonido para extraer las señales acústicas utilizadas en el habla y cómo se utiliza la información del habla para procesos de nivel superior, como el reconocimiento de palabras. [40]

Métodos neurofisiológicos

Los métodos neurofisiológicos se basan en la utilización de información procedente de procesos más directos y no necesariamente conscientes (preatención). A los sujetos se les presentan estímulos del habla en diferentes tipos de tareas y se miden las respuestas del cerebro. El cerebro mismo puede ser más sensible de lo que parece a través de respuestas conductuales. Por ejemplo, es posible que el sujeto no muestre sensibilidad a la diferencia entre dos sonidos del habla en una prueba de discriminación, pero las respuestas cerebrales pueden revelar sensibilidad a estas diferencias. [28] Los métodos utilizados para medir las respuestas neuronales al habla incluyen potenciales relacionados con eventos , magnetoencefalografía y espectroscopia de infrarrojo cercano . Una respuesta importante utilizada con los potenciales relacionados con eventos es la negatividad de desajuste , que ocurre cuando los estímulos del habla son acústicamente diferentes de un estímulo que el sujeto escuchó anteriormente.

Los métodos neurofisiológicos se introdujeron en la investigación de la percepción del habla por varias razones:

Las respuestas conductuales pueden reflejar procesos conscientes tardíos y verse afectadas por otros sistemas como la ortografía y, por lo tanto, pueden enmascarar la capacidad del hablante para reconocer sonidos basados ​​en distribuciones acústicas de nivel inferior. [41]

Sin necesidad de participar activamente en la prueba, incluso los bebés pueden ser examinados; esta característica es crucial en la investigación de procesos de adquisición. La posibilidad de observar procesos auditivos de bajo nivel independientemente de los de nivel superior permite abordar cuestiones teóricas de larga data, como si los humanos poseen o no un módulo especializado para percibir el habla [42] [43] o si algunos La invariancia acústica compleja (ver falta de invariancia más arriba) subyace al reconocimiento de un sonido del habla. [44]

Teorias

teoría motora

Algunos de los primeros trabajos en el estudio de cómo los humanos perciben los sonidos del habla fueron realizados por Alvin Liberman y sus colegas de los Laboratorios Haskins . [45] Utilizando un sintetizador de voz, construyeron sonidos del habla que variaban en lugar de articulación a lo largo de un continuo desde /bɑ/ hasta /dɑ/ y /ɡɑ/ . Se pidió a los oyentes que identificaran qué sonido escuchaban y que discriminaran entre dos sonidos diferentes. Los resultados del experimento mostraron que los oyentes agruparon los sonidos en categorías discretas, aunque los sonidos que escuchaban variaban continuamente. Basándose en estos resultados, propusieron la noción de percepción categórica como un mecanismo mediante el cual los humanos pueden identificar los sonidos del habla.

Investigaciones más recientes que utilizan diferentes tareas y métodos sugieren que los oyentes son muy sensibles a las diferencias acústicas dentro de una sola categoría fonética, contrariamente a una explicación categórica estricta de la percepción del habla.

Para proporcionar una explicación teórica de los datos de percepción categórica , Liberman y sus colegas [46] desarrollaron la teoría motora de la percepción del habla, donde "se suponía que la complicada codificación articulatoria era decodificada en la percepción del habla mediante los mismos procesos que están implicados en la percepción del habla". producción" [1] (esto se conoce como análisis por síntesis). Por ejemplo, la consonante inglesa /d/ puede variar en sus detalles acústicos en diferentes contextos fonéticos (ver arriba), sin embargo, todas las /d/ percibidas por un oyente caen dentro de una categoría (plosiva alveolar sonora) y eso se debe a que " Las representaciones lingüísticas son segmentos abstractos, canónicos, fonéticos o los gestos que subyacen a estos segmentos". [1] Al describir las unidades de percepción, Liberman abandonó más tarde los movimientos articulatorios y procedió a las órdenes neuronales a los articuladores [47] e incluso más tarde a los gestos articulatorios previstos, [48] de ahí "la representación neuronal del enunciado que determina la producción del hablante". es el objeto distal que percibe el oyente". [48] ​​La teoría está estrechamente relacionada con la hipótesis de la modularidad , que propone la existencia de un módulo de propósito especial, que se supone que es innato y probablemente específico del ser humano.

La teoría ha sido criticada por no poder "proporcionar una explicación de cómo los oyentes traducen las señales acústicas en gestos previstos" [49] . Además, no está claro cómo se codifica/descodifica la información indexada (por ejemplo, la identidad del hablante) junto con la información lingüísticamente relevante.

Teoría ejemplar

Los modelos ejemplares de percepción del habla difieren de las cuatro teorías mencionadas anteriormente, que suponen que no existe conexión entre el reconocimiento de palabras y el del hablante y que la variación entre los hablantes es "ruido" que debe filtrarse.

Los enfoques basados ​​en ejemplos afirman que los oyentes almacenan información para el reconocimiento tanto de palabras como de hablantes. Según esta teoría, casos particulares de sonidos del habla se almacenan en la memoria del oyente. En el proceso de percepción del habla, los casos recordados de, por ejemplo, una sílaba almacenada en la memoria del oyente se comparan con el estímulo entrante para que el estímulo pueda clasificarse. De manera similar, al reconocer a un hablante, se activan todos los rastros de memoria de las expresiones producidas por ese hablante y se determina la identidad del hablante. Apoyando esta teoría hay varios experimentos reportados por Johnson [13] que sugieren que nuestra identificación de señales es más precisa cuando estamos familiarizados con el hablante o cuando tenemos una representación visual del género del hablante. Cuando el hablante es impredecible o el sexo se identifica erróneamente, la tasa de error en la identificación de palabras es mucho mayor.

Los modelos ejemplares tienen que enfrentar varias objeciones, dos de las cuales son (1) capacidad de memoria insuficiente para almacenar cada expresión escuchada y, en relación con la capacidad de producir lo que se escuchó, (2) si también se almacenan o calculan los propios gestos articulatorios del hablante. al producir expresiones que sonarían como recuerdos auditivos. [13] [49]

Puntos de referencia acústicos y características distintivas.

Kenneth N. Stevens propuso puntos de referencia acústicos y rasgos distintivos como una relación entre los rasgos fonológicos y las propiedades auditivas. Según este punto de vista, los oyentes inspeccionan la señal entrante en busca de los llamados puntos de referencia acústicos, que son eventos particulares en el espectro que transportan información sobre los gestos que los produjeron. Dado que estos gestos están limitados por las capacidades de los articuladores humanos y los oyentes son sensibles a sus correlatos auditivos, la falta de invariancia simplemente no existe en este modelo. Las propiedades acústicas de los monumentos constituyen la base para establecer las características distintivas. Conjuntos de ellos especifican de forma única segmentos fonéticos (fonemas, sílabas, palabras). [50]

En este modelo, se cree que la señal acústica entrante se procesa primero para determinar los llamados puntos de referencia, que son eventos espectrales especiales en la señal; por ejemplo, las vocales suelen estar marcadas por una frecuencia más alta del primer formante, las consonantes pueden especificarse como discontinuidades en la señal y tener amplitudes más bajas en las regiones medias e inferiores del espectro. Estas características acústicas resultan de la articulación. De hecho, se pueden utilizar movimientos articulatorios secundarios cuando es necesario mejorar los puntos de referencia debido a condiciones externas como el ruido. Stevens afirma que la coarticulación sólo provoca una variación limitada y, además, sistemática y, por tanto, predecible en la señal que el oyente es capaz de afrontar. Por lo tanto, dentro de este modelo, lo que se llama falta de invariancia simplemente se afirma que no existe.

Los hitos se analizan para determinar ciertos eventos articulatorios (gestos) que están conectados con ellos. En la siguiente etapa, se extraen señales acústicas de la señal en las proximidades de los puntos de referencia mediante la medición mental de ciertos parámetros, como las frecuencias de los picos espectrales, las amplitudes en la región de baja frecuencia o la sincronización.

La siguiente etapa de procesamiento comprende la consolidación de señales acústicas y la derivación de características distintivas. Estas son categorías binarias relacionadas con la articulación (por ejemplo, [+/- alta], [+/- atrás], [+/- labios redondos] para vocales; [+/- sonorante], [+/- lateral] o [ +/- nasal] para consonantes.

Conjuntos de estas características identifican de forma única segmentos del habla (fonemas, sílabas, palabras). Estos segmentos forman parte del léxico almacenado en la memoria del oyente. Sus unidades se activan en el proceso de acceso léxico y se asignan a la señal original para saber si coinciden. En caso contrario, se realiza otro intento con un patrón candidato diferente. De esta manera iterativa, los oyentes reconstruyen los eventos articulatorios que fueron necesarios para producir la señal del habla percibida. Por lo tanto, esto puede describirse como análisis por síntesis.

Por tanto, esta teoría postula que el objeto distal de la percepción del habla son los gestos articulatorios que subyacen al habla. Los oyentes dan sentido a la señal del habla refiriéndose a ellos. El modelo pertenece a los denominados análisis por síntesis.

Modelo de lógica difusa

La teoría lógica difusa de la percepción del habla desarrollada por Dominic Massaro [51] propone que las personas recuerdan los sonidos del habla de forma probabilística o gradual. Sugiere que las personas recuerden descripciones de las unidades perceptuales del lenguaje, llamadas prototipos. Dentro de cada prototipo se pueden combinar varias características. Sin embargo, las características no son sólo binarias (verdaderas o falsas), sino que existe un valor difuso que corresponde a la probabilidad de que un sonido pertenezca a una categoría de habla particular. Así, cuando percibimos una señal de habla, nuestra decisión sobre lo que realmente escuchamos se basa en la bondad relativa de la correspondencia entre la información del estímulo y los valores de prototipos particulares. La decisión final se basa en múltiples características o fuentes de información, incluso información visual (esto explica el efecto McGurk ). [49] Se han utilizado modelos informáticos de la teoría de la lógica difusa para demostrar que las predicciones de la teoría sobre cómo se clasifican los sonidos del habla corresponden al comportamiento de los oyentes humanos. [52]

Hipótesis del modo de habla

La hipótesis del modo del habla es la idea de que la percepción del habla requiere el uso de un procesamiento mental especializado. [53] [54] La hipótesis del modo de habla es una rama de la teoría de la modularidad de Fodor (ver modularidad de la mente ). Utiliza un mecanismo de procesamiento vertical en el que los estímulos limitados son procesados ​​por áreas del cerebro con fines especiales que son estímulos específicos. [54]

Dos versiones de la hipótesis del modo del habla: [53]

Tres importantes paradigmas experimentales han evolucionado en la búsqueda de evidencia para la hipótesis del modo de habla. Éstas son la escucha dicótica , la percepción categórica y la percepción dúplex . [53] A través de la investigación en estas categorías se ha descubierto que puede no haber un modo de habla específico sino uno para códigos auditivos que requieren un procesamiento auditivo complicado. También parece que la modularidad se aprende en los sistemas perceptivos. [53] A pesar de esto, la evidencia y la contraevidencia de la hipótesis del modo de habla aún no están claras y necesitan más investigación.

Teoría realista directa

La teoría realista directa de la percepción del habla (principalmente asociada con Carol Fowler ) es parte de la teoría más general del realismo directo , que postula que la percepción nos permite tener conciencia directa del mundo porque implica la recuperación directa de la fuente distal de la percepción del habla. acontecimiento que se percibe. Para la percepción del habla, la teoría afirma que los objetos de percepción son movimientos o gestos reales del tracto vocal, y no fonemas abstractos o (como en la teoría motora) eventos que son causalmente antecedentes a estos movimientos, es decir, gestos intencionados. Los oyentes perciben los gestos no mediante un decodificador especializado (como en la teoría motora), sino porque la información de la señal acústica especifica los gestos que la forman. [55] Al afirmar que los gestos articulatorios reales que producen diferentes sonidos del habla son en sí mismos las unidades de percepción del habla, la teoría pasa por alto el problema de la falta de invariancia.

Ver también

Referencias

  1. ^ abcd Nygaard, LC, Pisoni, DB (1995). "Percepción del habla: nuevas direcciones en investigación y teoría". En JL Miller; PD Eimas (eds.). Manual de percepción y cognición: habla, lenguaje y comunicación . San Diego: Prensa académica.{{cite encyclopedia}}: CS1 maint: multiple names: authors list (link)
  2. ^ Klatt, DH (1976). "Usos lingüísticos de duración segmentaria en inglés: evidencia acústica y perceptiva". Revista de la Sociedad de Acústica de América . 59 (5): 1208-1221. Código bibliográfico : 1976ASAJ...59.1208K. doi : 10.1121/1.380986. PMID  956516.
  3. ^ Halle, M., Mohanan, KP (1985). "Fonología segmentaria del inglés moderno". Consulta Lingüística . 16 (1): 57-116.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  4. ^ Liberman, AM (1957). «Algunos resultados de investigaciones sobre percepción del habla» (PDF) . Revista de la Sociedad de Acústica de América . 29 (1): 117-123. Código bibliográfico : 1957ASAJ...29..117L. doi :10.1121/1.1908635. hdl : 11858/00-001M-0000-002C-5789-A . Archivado desde el original (PDF) el 3 de marzo de 2016 . Consultado el 17 de mayo de 2007 .
  5. ^ ab Fowler, CA (1995). "La producción del habla". En JL Miller; PD Eimas (eds.). Manual de percepción y cognición: habla, lenguaje y comunicación . San Diego: Prensa académica.
  6. ^ Hillenbrand, JM, Clark, MJ, Nearey, TM (2001). "Efectos del entorno de consonantes en los patrones de formantes de vocales". Revista de la Sociedad de Acústica de América . 109 (2): 748–763. Código Bib : 2001ASAJ..109..748H. doi :10.1121/1.1337959. PMID  11248979. S2CID  10751216.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  7. ^ Lisker, L., Abramson, AS (1967). "Algunos efectos del contexto en el tiempo de aparición de la voz en explosivos en inglés" (PDF) . Lenguaje y Habla . 10 (1): 1–28. doi :10.1177/002383096701000101. PMID  6044530. S2CID  34616732. Archivado desde el original (PDF) el 3 de marzo de 2016 . Consultado el 17 de mayo de 2007 .{{cite journal}}: CS1 maint: multiple names: authors list (link)
  8. ^ ab Hillenbrand, J., Getty, LA, Clark, MJ, Wheeler, K. (1995). "Características acústicas de las vocales del inglés americano". Revista de la Sociedad de Acústica de América . 97 (5 partes 1): 3099–3111. Código bibliográfico : 1995ASAJ...97.3099H. doi : 10.1121/1.411872. PMID  7759650. S2CID  10104073.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  9. ^ Houston, Derek M.; Juscyk, Peter W. (octubre de 2000). "El papel de la información específica del hablante en la segmentación de palabras por parte de los bebés" (PDF) . Revista de Psicología Experimental: Percepción y desempeño humanos . 26 (5): 1570-1582. doi :10.1037/0096-1523.26.5.1570. PMID  11039485. Archivado desde el original (PDF) el 30 de abril de 2014 . Consultado el 1 de marzo de 2012 .
  10. ^ Heno, Jennifer; Drager, Katie (2010). "Peluches y percepción del habla". Lingüística . 48 (4): 865–892. doi :10.1515/LING.2010.027. S2CID  143639653.
  11. ^ ab Syrdal, Alaska ; Gopal, SA (1986). "Un modelo perceptual de reconocimiento de vocales basado en la representación auditiva de las vocales del inglés americano". Revista de la Sociedad de Acústica de América . 79 (4): 1086-1100. Código bibliográfico : 1986ASAJ...79.1086S. doi : 10.1121/1.393381. PMID  3700864.
  12. ^ Extraño, W. (1999). "Percepción de las vocales: constancia dinámica". En JM Pickett (ed.). La acústica de la comunicación del habla: fundamentos, teoría de la percepción del habla y tecnología . Needham Heights (MA): Allyn y Bacon.
  13. ^ abc Johnson, K. (2005). "Normalización del hablante en la percepción del habla" (PDF) . En Pisoni, DB; Remez, R. (eds.). El manual de percepción del habla . Oxford: Editores Blackwell . Consultado el 17 de mayo de 2007 .
  14. ^ Trubetzkoy, Nikolay S. (1969). Principios de fonología . Berkeley y Los Ángeles: University of California Press. ISBN 978-0-520-01535-7.
  15. ^ Iverson, P., Kuhl, PK (1995). "Mapeo del efecto imán perceptual del habla utilizando la teoría de detección de señales y escalamiento multidimensional". Revista de la Sociedad de Acústica de América . 97 (1): 553–562. Código bibliográfico : 1995ASAJ...97..553I. doi : 10.1121/1.412280. PMID  7860832.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  16. ^ ab Lisker, L., Abramson, AS (1970). "La dimensión de la sonoridad: algunos experimentos en fonética comparada" (PDF) . Proc. VI Congreso Internacional de Ciencias Fonéticas . Praga: Academia. págs. 563–567. Archivado desde el original (PDF) el 3 de marzo de 2016 . Consultado el 17 de mayo de 2007 .{{cite conference}}: CS1 maint: multiple names: authors list (link)
  17. ^ Warren, RM (1970). "Restauración de los sonidos del habla faltantes". Ciencia . 167 (3917): 392–393. Código Bib : 1970 Ciencia... 167.. 392W. doi : 10.1126/ciencia.167.3917.392. PMID  5409744. S2CID  30356740.
  18. ^ Garnes, S., Bond, ZS (1976). "La relación entre información acústica y expectativa semántica". Fonológica 1976 . Innsbruck. págs. 285–293.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  19. ^ Jongman A, Wang Y, Kim BH (diciembre de 2003). "Aportaciones de la información semántica y facial a la percepción de fricativas no sibilantes" (PDF) . J. Lenguaje del habla. Escuchar. Res . 46 (6): 1367–77. doi :10.1044/1092-4388(2003/106). hdl : 1808/13411 . PMID  14700361. Archivado desde el original (PDF) el 14 de junio de 2013 . Consultado el 14 de septiembre de 2017 .
  20. ^ ab Cervantes Constantino, F; Simón, JZ (2018). "La restauración y la eficiencia del procesamiento neuronal del habla continua se promueven mediante conocimientos previos". Fronteras en la neurociencia de sistemas . 12 (56): 56. doi : 10.3389/fnsys.2018.00056 . PMC 6220042 . PMID  30429778. 
  21. ^ Poeppel, David; Monahan, Philip J. (2008). "Percepción del habla: fundamentos cognitivos e implementación cortical". Direcciones actuales de la ciencia psicológica . 17 (2): 80–85. doi :10.1111/j.1467-8721.2008.00553.x. ISSN  0963-7214. S2CID  18628411.
  22. ^ Hickok G, Poeppel D (mayo de 2007). "La organización cortical del procesamiento del habla". Nat. Rev. Neurociencias . 8 (5): 393–402. doi :10.1038/nrn2113. PMID  17431404. S2CID  6199399.
  23. ^ ab Hessler, Dorté; Jonkers, Bastiaanse (diciembre de 2010). "La influencia de las dimensiones fonéticas en la percepción del habla afásica". Lingüística Clínica y Fonética . 12. 24 (12): 980–996. doi :10.3109/02699206.2010.507297. PMID  20887215. S2CID  26478503.
  24. ^ "Definición de AGNOSIA". www.merriam-webster.com . Consultado el 15 de diciembre de 2017 .
  25. ^ Howard, Harry (2017). "Bienvenido a Cerebro y Lenguaje". Bienvenido a Cerebro y Lenguaje .
  26. ^ Lambert, J. (1999). "Agnosia auditiva con relativa moderación de la percepción del habla". Neurocaso . 5 (5): 71–82. doi :10.1093/neucas/5.5.394. PMID  2707006.
  27. ^ ab Rocha, Sofía; Amorim, José Manuel; Machado, Álvaro Alexandre; Ferreira, Carla María (1 de abril de 2015). "Fonagnosia e incapacidad para percibir el paso del tiempo en la epilepsia del lóbulo parietal derecho". La Revista de Neuropsiquiatría y Neurociencias Clínicas . 27 (2): e154-e155. doi : 10.1176/appi.neuropsych.14040073. ISSN  0895-0172. PMID  25923865.
  28. ^ abc Minagawa-Kawai, Y., Mori, K., Naoi, N., Kojima, S. (2006). "Procesos de sintonía neuronal en bebés durante la adquisición de un contraste fonémico específico del lenguaje". La Revista de Neurociencia . 27 (2): 315–321. doi :10.1523/JNEUROSCI.1984-06.2007. PMC 6672067 . PMID  17215392. {{cite journal}}: CS1 maint: multiple names: authors list (link)
  29. ^ ab Crystal, David (2005). La enciclopedia del lenguaje de Cambridge . Cambridge: COPA. ISBN 978-0-521-55967-6.
  30. ^ Kuhl, Patricia K.; Feng Ming Tsao; Huei-Mei Liu (julio de 2003). "Experiencia de lenguas extranjeras en la infancia: efectos de la exposición a corto plazo y la interacción social en el aprendizaje fonético". Procedimientos de la Academia Nacional de Ciencias . 100 (15): 9096–9101. Código Bib : 2003PNAS..100.9096K. doi : 10.1073/pnas.1532872100 . PMC 166444 . PMID  12861072. 
  31. ^ Iverson, P., Kuhl, PK, Akahane-Yamada, R., Diesh, E., Thokura, Y., Kettermann, A., Siebert, C. (2003). "Una explicación de la interferencia perceptiva de las dificultades de adquisición de fonemas no nativos". Cognición . 89 (1): B47-B57. doi :10.1016/S0010-0277(02)00198-1. PMID  12499111. S2CID  463529.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  32. ^ Mejor, CT (1995). "Una visión realista directa de la percepción del habla en varios idiomas: nuevas direcciones en la investigación y la teoría". En Winifred Strange (ed.). Percepción del habla y experiencia lingüística: cuestiones teóricas y metodológicas . Baltimore: York Press. págs. 171-204.
  33. ^ Flege, J. (1995). "Aprendizaje del habla en una segunda lengua: teoría, hallazgos y problemas". En Winifred Strange (ed.). Percepción del habla y experiencia lingüística: cuestiones teóricas y metodológicas . Baltimore: York Press. págs. 233–277.
  34. ^ Uhler; Yoshinaga-Itano; Gabbardo; Rothpletz; Jenkins (marzo de 2011). "Percepción del habla infantil en jóvenes usuarios de implantes cocleares". Revista de la Academia Estadounidense de Audiología . 22 (3): 129-142. doi :10.3766/jaaa.22.3.2. PMID  21545766.
  35. ^ ab Csépe, V.; Osman-Sagi, J.; Molnar, M.; Gosy, M. (2001). "Deterioro de la percepción del habla en pacientes afásicos: potencial relacionado con eventos y evaluación neuropsicológica". Neuropsicología . 39 (11): 1194-1208. doi :10.1016/S0028-3932(01)00052-5. PMID  11527557. S2CID  17307242.
  36. ^ ab Loizou, P. (1998). "Introducción a los implantes cocleares". Revista de procesamiento de señales IEEE . 39 (11): 101-130. doi : 10.1109/79.708543.
  37. ^ abcd Deutsch, Diana; Henthorn, Trevor; Dolson, Mark (primavera de 2004). "Los patrones del habla escuchados en una etapa temprana de la vida influyen en la percepción posterior de la paradoja del tritono" (PDF) . Percepción musical . 21 (3): 357–72. doi : 10.1525/mp.2004.21.3.357 . Consultado el 29 de abril de 2014 .
  38. ^ Marqués, C y col. (2007). Los músicos detectan la violación del tono en idiomas extranjeros mejor que los no músicos: evidencia conductual y electrofisiológica. "Revista de Neurociencia Cognitiva, 19", 1453-1463.
  39. ^ abc O'Callaghan, Casey (2010). "Experimentar el habla". Cuestiones filosóficas . 20 : 305–327. doi :10.1111/j.1533-6077.2010.00186.x.
  40. ^ McClelland, JL y Elman, JL (1986). "El modelo TRACE de percepción del habla" (PDF) . Psicología cognitiva . 18 (1): 1–86. doi :10.1016/0010-0285(86)90015-0. PMID  3753912. S2CID  7428866. Archivado desde el original (PDF) el 21 de abril de 2007 . Consultado el 19 de mayo de 2007 .
  41. ^ Kazanina, N., Phillips, C., Idsardi, W. (2006). "La influencia del significado en la percepción de los sonidos del habla" (PDF) . PNAS . vol. 30. págs. 11381-11386 . Consultado el 19 de mayo de 2007 .{{cite conference}}: CS1 maint: multiple names: authors list (link)[ enlace muerto permanente ]
  42. ^ Gocken, JM y Fox RA (2001). "Evidencia neurológica que respalda un módulo de procesamiento fonético especializado". Cerebro y lenguaje . 78 (2): 241–253. doi :10.1006/brln.2001.2467. PMID  11500073. S2CID  28469116.
  43. ^ Dehaene-Lambertz, G .; Pallier, C.; Serniclas, W.; Sprenger-Charolles, L.; Jobert, A.; Dehaene, S. (2005). "Correlaciones neuronales del cambio de la percepción auditiva a la del habla" (PDF) . NeuroImagen . 24 (1): 21–33. doi : 10.1016/j.neuroimage.2004.09.039. PMID  15588593. S2CID  11899232 . Consultado el 4 de julio de 2007 .
  44. ^ Näätänen, R. (2001). "La percepción de los sonidos del habla por parte del cerebro humano reflejada por la negatividad de desajuste (MMN) y su equivalente magnético (MMNm)". Psicofisiología . 38 (1): 1–21. doi : 10.1111/1469-8986.3810001 . PMID  11321610.
  45. ^ Liberman, AM, Harris, KS, Hoffman, HS, Griffith, BC (1957). "La discriminación de los sonidos del habla dentro y a través de los límites de los fonemas" (PDF) . Revista de Psicología Experimental . 54 (5): 358–368. doi :10.1037/h0044417. PMID  13481283. S2CID  10117886 . Consultado el 18 de mayo de 2007 .{{cite journal}}: CS1 maint: multiple names: authors list (link)
  46. ^ Liberman, AM, Cooper, FS, Shankweiler, DP y Studdert-Kennedy, M. (1967). «Percepción del código del habla» (PDF) . Revisión psicológica . 74 (6): 431–461. doi :10.1037/h0020279. PMID  4170865 . Consultado el 19 de mayo de 2007 .{{cite journal}}: CS1 maint: multiple names: authors list (link)
  47. ^ Liberman, AM (1970). «Las gramáticas del habla y del lenguaje» (PDF) . Psicología cognitiva . 1 (4): 301–323. doi :10.1016/0010-0285(70)90018-6. Archivado desde el original (PDF) el 31 de diciembre de 2015 . Consultado el 19 de julio de 2007 .
  48. ^ ab Liberman, AM y Mattingly, IG (1985). "Revisión de la teoría motora de la percepción del habla" (PDF) . Cognición . 21 (1): 1–36. CiteSeerX 10.1.1.330.220 . doi :10.1016/0010-0277(85)90021-6. PMID  4075760. S2CID  112932. Archivado desde el original (PDF) el 15 de abril de 2021 . Consultado el 19 de julio de 2007 . 
  49. ^ abc Hayward, Katrina (2000). Fonética experimental: una introducción . Harlow: Longman.
  50. ^ Stevens, KN ​​(2002). «Hacia un modelo de acceso léxico basado en hitos acústicos y rasgos distintivos» (PDF) . Revista de la Sociedad de Acústica de América . 111 (4): 1872–1891. Código bibliográfico : 2002ASAJ..111.1872S. doi :10.1121/1.1458026. PMID  12002871. Archivado desde el original (PDF) el 9 de junio de 2007 . Consultado el 17 de mayo de 2007 .
  51. ^ Massaro, DW (1989). "Prueba entre el modelo TRACE y el modelo lógico difuso de percepción del habla". Psicología cognitiva . 21 (3): 398–421. doi :10.1016/0010-0285(89)90014-5. PMID  2758786. S2CID  7629786.
  52. ^ Oden, GC, Massaro, DW (1978). "Integración de información característica en la percepción del habla". Revisión psicológica . 85 (3): 172-191. doi :10.1037/0033-295X.85.3.172. PMID  663005.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  53. ^ abcd Ingram, John. CL (2007). Neurolingüística: una introducción al procesamiento del lenguaje hablado y sus trastornos . Cambridge: Prensa de la Universidad de Cambridge. págs. 113-127.
  54. ^ ab Parker, Ellen M.; RL Diehl; KR Kluender (1986). "Relaciones comerciales en el habla y la no habla". Atención, percepción y psicofísica . 39 (2): 129-142. doi : 10.3758/bf03211495 . PMID  3725537.
  55. ^ Randy L. Diehl; Andrés J. Lotto; Lori L. Holt (2004). "Percepción del habla". Revista Anual de Psicología . 55 (1): 149-179. doi : 10.1146/annurev.psych.55.090902.142028. PMID  14744213. S2CID  937985.

enlaces externos