stringtranslate.com

Lectura de labios

La lectura de labios , también conocida como lectura del habla , es una técnica para comprender un rango limitado del habla mediante la interpretación visual de los movimientos de los labios, la cara y la lengua sin sonido. Las estimaciones del rango de lectura de labios varían, con algunas cifras tan bajas como el 30% porque la lectura de labios depende del contexto, el conocimiento del lenguaje y cualquier audición residual. [1] Aunque la lectura de labios es utilizada más ampliamente por personas sordas y con problemas de audición, la mayoría de las personas con audición normal procesan cierta información del habla a partir de la vista de la boca en movimiento. [2]

Proceso

Aunque la percepción del habla se considera una habilidad auditiva, es intrínsecamente multimodal, ya que producir el habla requiere que el hablante realice movimientos de los labios, los dientes y la lengua que a menudo son visibles en la comunicación cara a cara. La información de los labios y la cara apoya la comprensión auditiva [3] y los oyentes más fluidos de un idioma son sensibles a las acciones del habla vistas (ver efecto McGurk ). El grado en que las personas hacen uso de las acciones del habla vistas varía con la visibilidad de la acción del habla y el conocimiento y habilidad del perceptor.

Fonemas y visemas

El fonema es la unidad de sonido más pequeña detectable en una lengua y sirve para distinguir palabras entre sí. /pit/ y /pik/ se diferencian por un fonema y se refieren a conceptos diferentes. El inglés hablado tiene alrededor de 44 fonemas. Para la lectura de labios, el número de unidades visualmente distintivas ( visemas ) es mucho menor, por lo que varios fonemas se corresponden con unos pocos visemas. Esto se debe a que muchos fonemas se producen dentro de la boca y la garganta y son difíciles de ver. Estos incluyen consonantes glotales y la mayoría de los gestos de la lengua. Los pares sonoros y sordos parecen idénticos, como [p] y [b], [k] y [g], [t] y [d], [f] y [v], y [s] y [z]; lo mismo ocurre con la nasalización (por ejemplo, [m] frente a [b]). Los homófenos son palabras que parecen similares cuando se leen los labios, pero que contienen fonemas diferentes. Debido a que en inglés hay aproximadamente tres veces más fonemas que visemas, a menudo se afirma que sólo el 30% del habla se puede leer en los labios. Los homofenos son una fuente crucial de lectura incorrecta de los labios.

La leyenda de este rompecabezas dice: "Aquí hay una clase de una docena de niños, quienes, al ser llamados para dar sus nombres, fueron fotografiados mediante el proceso instantáneo justo cuando cada uno comenzaba a pronunciar su propio nombre. Los doce nombres eran Oom, Alden , Eastman, Alfred, Arthur, Luke, Fletcher, Matthew, Theodore, Richard, Shirmer y Hisswald Ahora no parecería posible poder dar el nombre correcto a cada uno de los doce niños, pero si practicas la lista. Para cada uno, no te resultará difícil localizar el nombre propio de cada uno de los muchachos. [4]

Coarticulación

Los visemas pueden capturarse como imágenes fijas, pero el habla se desarrolla en el tiempo. La suave articulación de los sonidos del habla en secuencia puede significar que los patrones de la boca pueden ser "modelados" por un fonema adyacente: el sonido "th" en "diente" y en "dientes" parece muy diferente debido al contexto vocálico . Esta característica de la lectura dinámica del habla afecta la lectura de labios "más allá del visema". [5]

¿Cómo puede "funcionar" con tan pocos visemas?

Si bien los visemas ofrecen un punto de partida útil para comprender la lectura de labios, las distinciones habladas dentro de un visema pueden distinguirse y ayudar a respaldar la identificación. [6] Además, la distribución estadística de los fonemas dentro del léxico de una lengua es desigual. Si bien hay grupos de palabras que son fonémicamente similares entre sí ('vecinos léxicos', como spit/sip/sit/stick...etc.), otras son diferentes a todas las demás palabras: son 'únicas' en términos de la distribución de sus fonemas ('paraguas' puede ser un ejemplo). Los usuarios expertos del idioma aplican este conocimiento al interpretar el habla, por lo que generalmente es más difícil identificar una palabra escuchada con muchos vecinos léxicos que una con pocos vecinos. Aplicando esta idea al habla vista, algunas palabras del lenguaje pueden leerse sin ambigüedades en los labios incluso cuando contienen pocos visemas, simplemente porque ninguna otra palabra podría "encajar". [7]

Variación en legibilidad y habilidad.

Muchos factores afectan la visibilidad de una cara que habla, incluida la iluminación, el movimiento del cabezal/cámara, la velocidad de fotogramas de la imagen en movimiento y la distancia desde el espectador (ver, por ejemplo, [8] ). El movimiento de la cabeza que acompaña al habla normal también puede mejorar la lectura de los labios, independientemente de las acciones orales. [9] Sin embargo, cuando se habla mediante lectura de labios , el conocimiento del idioma hablado por parte del espectador, la familiaridad con el hablante y el estilo del habla, y el contexto del material leído por los labios [10] son ​​tan importantes como la visibilidad del hablante. . Si bien la mayoría de las personas oyentes son sensibles al habla vista, existe una gran variabilidad en la habilidad individual de lectura del habla. Los buenos lectores de labios suelen ser más precisos que los malos lectores de labios a la hora de identificar fonemas a partir del habla visual.

Algunos investigadores han cuestionado una simple medida visémica de la "legibilidad de los labios". [11] La medida de la 'clase de equivalencia de fonemas' tiene en cuenta la estructura estadística del léxico y también puede adaptarse a las diferencias individuales en la capacidad de lectura de labios. [12] [13] En consonancia con esto, una excelente lectura de labios a menudo se asocia con habilidades cognitivas de base más amplia, incluido el dominio general del lenguaje, la función ejecutiva y la memoria de trabajo . [14] [15]

Lectura de labios y aprendizaje del lenguaje en bebés y niños oyentes

Los primeros meses

Ver la boca influye en la sensibilidad temprana al habla de los bebés muy pequeños y los prepara para convertirse en hablantes entre 1 y 2 años. Para poder imitar, un bebé debe aprender a moldear sus labios de acuerdo con los sonidos que escucha; ver al orador puede ayudarles a hacer esto. [16] Los recién nacidos imitan los movimientos de la boca de los adultos, como sacar la lengua o abrir la boca, lo que podría ser un precursor de una mayor imitación y un posterior aprendizaje del lenguaje. [17] Los bebés se perturban cuando el habla audiovisual de un hablante familiar no está sincronizado [18] y tienden a mostrar patrones de mirada diferentes para rostros familiares y desconocidos cuando se los compara con voces (grabadas). [19] Los bebés son sensibles a las ilusiones de McGurk meses antes de aprender a hablar. [20] [21] Estos estudios y muchos más apuntan a un papel de la visión en el desarrollo de la sensibilidad al habla (auditiva) en la primera mitad de la vida.

Los próximos seis meses; un papel en el aprendizaje de una lengua materna

Hasta aproximadamente los seis meses de edad, la mayoría de los bebés oyentes son sensibles a una amplia gama de gestos del habla, incluidos los que se pueden ver en la boca, que pueden o no formar parte más adelante de la fonología de su lengua materna. Pero en los segundos seis meses de vida, el bebé oyente muestra una reducción de la percepción de la estructura fonética de su propio lenguaje y puede perder la sensibilidad temprana a los patrones bucales que no son útiles. Los sonidos del habla /v/ y /b/, que son visémicamente distintivos en inglés pero no en castellano, se distinguen con precisión en bebés expuestos al español y expuestos al inglés hasta la edad de aproximadamente 6 meses. Sin embargo, los bebés mayores expuestos al español pierden la capacidad de "ver" esta distinción, mientras que la conservan los bebés expuestos al inglés. [22] Tales estudios sugieren que, en lugar de que la audición y la visión se desarrollen de manera independiente en la infancia, el procesamiento multimodal es la regla, no la excepción, en el desarrollo (del lenguaje) del cerebro infantil. [23]

Producción temprana del lenguaje: uno a dos años.

Dados los numerosos estudios que indican un papel de la visión en el desarrollo del lenguaje en el bebé prelocutivo, los efectos de la ceguera congénita en el desarrollo del lenguaje son sorprendentemente pequeños. Los niños de 18 meses aprenden palabras nuevas más fácilmente cuando las escuchan y no las aprenden cuando se les muestran los movimientos del habla sin oírlas. [24] Sin embargo, los niños ciegos de nacimiento pueden confundir /m/ y /n/ en su propia producción temprana de palabras en inglés, una confusión que rara vez se observa en niños videntes y oyentes, ya que /m/ y /n/ son visiblemente distintivas, pero auditivamente. confuso. [25] El papel de la visión en niños de 1 a 2 años puede ser menos crítico para la producción de su lengua materna, ya que, a esa edad, han adquirido las habilidades que necesitan para identificar e imitar los sonidos del habla. Sin embargo, escuchar un idioma no nativo puede desviar la atención del niño hacia la participación visual y auditiva mediante la lectura de labios y la escucha para procesar, comprender y producir el habla. [26]

En la niñez

Los estudios con bebés y niños prelocutivos utilizan medidas no verbales indirectas para indicar la sensibilidad al habla vista. La lectura explícita de labios puede comprobarse de forma fiable en niños preescolares oyentes pidiéndoles que "digan en voz alta lo que digo en silencio". [27] En los niños en edad escolar, la lectura de labios de palabras familiares cerradas, como las palabras numéricas, se puede obtener fácilmente. [28] Las diferencias individuales en la habilidad de lectura de labios, evaluadas al pedirle al niño que "pronuncie la palabra que lee en los labios", o al hacer coincidir una expresión de lectura de labios con una imagen, [29] muestran una relación entre Habilidad lectora y edad. [30] [31]

En adultos oyentes: consideraciones sobre la duración de la vida

Si bien la lectura de labios en silencio representa un desafío para la mayoría de las personas oyentes, agregar la vista del hablante al habla escuchada mejora el procesamiento del habla en muchas condiciones. Los mecanismos para esto y las formas precisas en que ayuda la lectura de labios son temas de investigación actual. [32] Ver al hablante ayuda en todos los niveles del procesamiento del habla, desde la discriminación de características fonéticas hasta la interpretación de expresiones pragmáticas . [33] Los efectos positivos de agregar visión al habla escuchada son mayores en entornos ruidosos que tranquilos, [34] donde, al facilitar la percepción del habla, ver al hablante puede liberar recursos cognitivos, lo que permite un procesamiento más profundo del contenido del habla.

A medida que la audición se vuelve menos fiable en la vejez , las personas pueden tender a confiar más en la lectura de labios, y se les anima a hacerlo. Sin embargo, es posible que una mayor dependencia de la lectura de labios no siempre mejore los efectos de la pérdida auditiva relacionada con la edad. El deterioro cognitivo con el envejecimiento puede estar precedido y/o asociado con una pérdida auditiva mensurable. [35] [36] Por lo tanto, es posible que la lectura de labios no siempre pueda compensar completamente las disminuciones combinadas de audición y cognitivas relacionadas con la edad.

En poblaciones específicas (auditivas)

Varios estudios informan anomalías en la lectura de labios en poblaciones con trastornos del desarrollo distintivos. Autismo : las personas con autismo pueden mostrar una capacidad reducida para leer los labios y una menor dependencia de la visión en la percepción del habla audiovisual. [37] [38] Esto puede estar asociado con anomalías en la mirada a la cara en estas personas. [39] Síndrome de Williams : Las personas con síndrome de Williams muestran algunos déficits en la lectura del habla que pueden ser independientes de sus dificultades visuoespaciales. [40] Deterioro específico del lenguaje : También se informa que los niños con TEL muestran una sensibilidad reducida a la lectura de labios, [41] al igual que las personas con dislexia . [42]

Sordera

Durante cientos de años se ha debatido sobre el papel de la lectura de labios (" oralismo ") en comparación con otros métodos de comunicación (más recientemente, la comunicación total ) en la educación de las personas sordas. El grado en que uno u otro enfoque es beneficioso depende de una variedad de factores, incluido el nivel de pérdida auditiva de la persona sorda, la edad de la pérdida auditiva, la participación de los padres y el lenguaje de los padres. Luego surge la cuestión de los objetivos de la persona sorda y de su comunidad y sus cuidadores. ¿El objetivo de la educación es mejorar la comunicación en general, desarrollar la lengua de signos como primera lengua o desarrollar habilidades en la lengua hablada de la comunidad oyente? Los investigadores ahora se centran en qué aspectos del lenguaje y la comunicación pueden transmitirse mejor, con qué medios y en qué contextos, teniendo en cuenta el estado auditivo del niño y su familia, y sus planes educativos. [43] El bilingüismo bimodal (dominio tanto del habla como del lenguaje de señas) es un enfoque actual dominante en la educación lingüística para niños sordos. [44]

Las personas sordas suelen leer mejor los labios que las personas con audición normal. [45] Algunas personas sordas practican como lectores de labios profesionales, por ejemplo en lectura de labios forense . En las personas sordas que tienen un implante coclear , la habilidad de lectura de labios previa al implante puede predecir el procesamiento del habla (auditivo o audiovisual) posterior al implante. [46] En los adultos, cuanto más tardía sea la edad de implantación, mejores serán las capacidades de lectura visual del habla de la persona sorda. [47] Para muchas personas sordas, el acceso a la comunicación hablada puede ser facilitado cuando un mensaje hablado se transmite a través de un hablante labial profesional y capacitado . [48] ​​[49]

En relación con la lectura de labios y el desarrollo de la alfabetización, los niños nacidos sordos suelen mostrar un retraso en el desarrollo de las habilidades de alfabetización [50], lo que puede reflejar dificultades en la adquisición de elementos del lenguaje hablado. [51] En particular, el mapeo confiable de fonemas y grafemas puede ser más difícil para los niños sordos, quienes necesitan ser hábiles lectores del habla para dominar este paso necesario en la adquisición de la alfabetización. La habilidad de leer los labios está asociada con la capacidad de alfabetización en adultos y niños sordos [52] [53] y el entrenamiento en lectura de labios puede ayudar a desarrollar habilidades de alfabetización. [54]

Cued Speech utiliza la lectura de labios acompañada de formas de manos que eliminan la ambigüedad de la forma de los labios visémica (consonante). Se dice que el lenguaje con claves es más fácil de aprender para los padres oyentes que el lenguaje de señas, y estudios, principalmente en Bélgica, muestran que un niño sordo expuesto al lenguaje con claves en la infancia puede progresar más eficientemente en el aprendizaje de un lenguaje hablado que leyendo únicamente los labios. [55] Es probable que el uso del habla con claves en la implantación coclear para la sordera sea positivo. [56] Un enfoque similar, que implica el uso de formas de manos que acompañan al habla vista, es Visual Phonics, que algunos educadores utilizan para apoyar el aprendizaje del lenguaje escrito y hablado.

Enseñanza y formación

El objetivo de la enseñanza y la formación en lectura de labios es desarrollar la conciencia de la naturaleza de la lectura de labios y practicar formas de mejorar la capacidad de percibir el habla "a simple vista". [57] Si bien el valor del entrenamiento en lectura de labios para mejorar la "audición visual" no siempre estuvo claro, especialmente para las personas con pérdida auditiva adquirida, existe evidencia de que el entrenamiento sistemático para alertar a los estudiantes para que presten atención a las acciones del habla vistas puede ser beneficioso. [58] Las clases de lectura de labios, a menudo llamadas clases de lectura de labios y manejo de la pérdida auditiva , están dirigidas principalmente a adultos que tienen pérdida auditiva. La mayor proporción de adultos con pérdida auditiva tiene una pérdida relacionada con la edad o el ruido ; En ambas formas de pérdida auditiva, los sonidos de alta frecuencia se pierden primero. Dado que muchas de las consonantes del habla son sonidos de alta frecuencia, el habla se distorsiona. Los audífonos ayudan, pero es posible que no curen esto. Se ha demostrado que las clases de lectura de labios son beneficiosas en estudios del Reino Unido encargados por la organización benéfica Action on Hearing Loss [59] (2012).

Los formadores reconocen que leer los labios es un arte inexacto. Se enseña a los estudiantes a observar los movimientos de los labios, la lengua y la mandíbula, a seguir la tensión y el ritmo del lenguaje, a utilizar su audición residual, con o sin audífonos, a observar la expresión y el lenguaje corporal, y a utilizar su capacidad de razonar y deducir. . Se les enseña el alfabeto de los lectores de labios, grupos de sonidos que se parecen en los labios (visemas) como p, b, m o f, v. El objetivo es captar la esencia para tener la confianza necesaria para unirse a la conversación. y evitar el dañino aislamiento social que a menudo acompaña a la pérdida auditiva. Se recomiendan clases de lectura de labios para cualquier persona que tenga dificultades para oír en ambientes ruidosos y ayudan a adaptarse a la pérdida auditiva.

Pruebas

La mayoría de las pruebas de lectura de labios se idearon para medir las diferencias individuales en la realización de tareas específicas de procesamiento del habla y para detectar cambios en el rendimiento después del entrenamiento. Las pruebas de lectura de labios se han utilizado con grupos relativamente pequeños en entornos experimentales, o como indicadores clínicos con pacientes y clientes individuales. Es decir, la mayoría de las pruebas de lectura de labios hasta la fecha tienen una validez limitada como marcadores de la habilidad de lectura de labios en la población general. [60]

Lectura y expresión labial mediante máquina.

La lectura de labios automatizada ha sido un tema de interés en la ingeniería computacional, así como en las películas de ciencia ficción. El ingeniero computacional Steve Omohundro , entre otros, fue pionero en su desarrollo. En la animación facial , el objetivo es generar acciones faciales realistas, especialmente movimientos de la boca, que simulen las acciones del habla humana. Los algoritmos informáticos para deformar o manipular imágenes de rostros pueden funcionar mediante lenguaje oído o escrito. Los sistemas pueden basarse en modelos detallados derivados de movimientos faciales ( captura de movimiento ); sobre modelado anatómico de las acciones de la mandíbula, boca y lengua; o en el mapeo de propiedades conocidas de visemas-fonemas. [61] [62] La animación facial se ha utilizado en el entrenamiento de lectura de discursos (demostrando cómo "se ven" los diferentes sonidos). [63] Estos sistemas son un subconjunto de modelos de síntesis de voz cuyo objetivo es ofrecer resultados confiables de "texto a (visto) voz". Un objetivo complementario (lo contrario de hacer que las caras se muevan al hablar) es desarrollar algoritmos informáticos que puedan ofrecer interpretaciones realistas del habla (es decir, una transcripción escrita o un registro de audio) a partir de datos de vídeo naturales de una cara en acción: esto es el reconocimiento facial del habla. Estos modelos también pueden obtenerse de una variedad de datos. [64] El reconocimiento visual automático del habla a partir de vídeo ha tenido bastante éxito a la hora de distinguir diferentes idiomas (a partir de un corpus de datos del idioma hablado). [65] Los modelos de demostración, que utilizan algoritmos de aprendizaje automático, han tenido cierto éxito en la lectura de elementos del habla, como palabras específicas, a partir de videos [66] y en la identificación de fonemas difíciles de leer en los labios a partir de acciones bucales vistas visémicamente similares. [67] La ​​lectura de voz basada en máquinas ahora está haciendo un uso exitoso de algoritmos basados ​​en redes neuronales que utilizan grandes bases de datos de hablantes y material de voz (siguiendo el exitoso modelo de reconocimiento auditivo automático del habla ). [68]

Los usos de la lectura de labios automática podrían incluir la lectura de labios automática de grabaciones de vídeo, la lectura de labios automática de hablantes con tractos vocales dañados y el procesamiento del habla en vídeo cara a cara (es decir, a partir de datos de videoteléfono). La lectura de labios automatizada puede ayudar a procesar el habla ruidosa o desconocida. [69] La lectura de labios automatizada puede contribuir a la identificación biométrica de personas, reemplazando la identificación basada en contraseñas. [70] [71]

El cerebro

Tras el descubrimiento de que las regiones auditivas del cerebro , incluida la circunvolución de Heschl , se activaban con el habla vista, [72] se demostró que el circuito neuronal para la lectura del habla incluía regiones de procesamiento supramodal, especialmente el surco temporal superior (todas las partes), así como el occipital posteroinferior. -regiones temporales que incluyen regiones especializadas para el procesamiento de rostros y movimientos biológicos . [73] En algunos estudios, pero no en todos, se informa la activación del área de Broca para la lectura del habla, [74] [75] lo que sugiere que los mecanismos articulatorios pueden activarse en la lectura del habla. [76] Los estudios del curso temporal del procesamiento audiovisual del habla demostraron que la visión del habla puede preparar las regiones de procesamiento auditivo antes de la señal acústica. [77] [78] Una mejor habilidad para leer los labios se asocia con una mayor activación en el surco temporal superior (izquierdo) y las regiones temporales (visuales) inferiores adyacentes en personas oyentes. [79] [80] En las personas sordas, el circuito dedicado a la lectura del habla parece ser muy similar al de las personas oyentes, con asociaciones similares de activación temporal superior (izquierda) y habilidad de lectura de labios. [81]

Referencias

  1. ^ Altieri, NA; Pisoni, DB; Townsend, JT (2011). "Algunos datos normativos sobre la capacidad de leer los labios (L)". La Revista de la Sociedad de Acústica de América . 130 (1): 1–4. Código Bib : 2011ASAJ..130....1A. doi : 10.1121/1.3593376. PMC  3155585 . PMID  21786870.
  2. ^ Casa de madera, L; Hickson, L; Dodd, B (2009). "Revisión de la percepción visual del habla por parte de personas auditivas y con discapacidad auditiva: implicaciones clínicas". Revista Internacional de Trastornos del Lenguaje y la Comunicación . 44 (3): 253–70. doi :10.1080/13682820802090281. PMID  18821117.
  3. ^ Erber, NP (1969). "Interacción de audición y visión en el reconocimiento de estímulos del habla oral". J Discurso Escuchar Res . 12 (2): 423–5. doi :10.1044/jshr.1202.423. PMID  5808871.
  4. ^ Enciclopedia de rompecabezas de Sam Loyd , 1914
  5. ^ Benguerel, AP; Pichora-Fuller, MK (1982). "Efectos de coarticulación en la lectura de labios". J Discurso Escuchar Res . 25 (4): 600–7. doi :10.1044/jshr.2504.600. PMID  7162162.
  6. ^ Archivos, BT (2015). "Discriminación visual del habla e identificación de estímulos consonánticos naturales y sintéticos". Frente. Psicólogo . 6 : 878. doi : 10.3389/fpsyg.2015.00878 . PMC 4499841 . PMID  26217249. 
  7. ^ Auer, et (2010). "Investigando la lectura del habla y la sordera". Revista de la Academia Estadounidense de Audiología . 21 (3): 163–8. doi :10.3766/jaaa.21.3.4. PMC 3715375 . PMID  20211120. 
  8. ^ Jordania, TR; Thomas, SM (2011). "Cuando la mitad de una cara es tan buena como un todo: efectos de una simple oclusión sustancial en la percepción del habla visual y audiovisual". Atención a la psicofisía de la percepción . 73 (7): 2270–85. doi : 10.3758/s13414-011-0152-4 . PMID  21842332.
  9. ^ Thomas, SM; Jordania, TR (2004). "Contribuciones del movimiento facial oral y extraoral a la percepción del habla visual y audiovisual". J Exp Psychol Hum Percept Realizar . 30 (5): 873–88. doi :10.1037/0096-1523.30.5.873. PMID  15462626.
  10. ^ Spehar, B; Goebel, S; Tye-Murray, N (2015). "Efectos del tipo de contexto en la lectura de labios y el rendimiento auditivo e implicaciones para el procesamiento de oraciones". J Speech Lang Escuchar Res . 58 (3): 1093–102. doi :10.1044/2015_JSLHR-H-14-0360. PMC 4610295 . PMID  25863923. 
  11. ^ Archivos, BT; Tjan, BS; Jiang, J; Bernstein, LE (2015). "Discriminación visual del habla e identificación de estímulos consonánticos naturales y sintéticos". Psicólogo Frontal . 6 : 878. doi : 10.3389/fpsyg.2015.00878 . PMC 4499841 . PMID  26217249. 
  12. ^ Auer, et al; Bernstein, LE (1997). "Lectura de discursos y estructura del léxico: modelado computacional de los efectos de la distintividad fonética reducida en la unicidad léxica". Revista de la Sociedad de Acústica de América . 102 (6): 3704–10. Código bibliográfico : 1997ASAJ..102.3704A. doi : 10.1121/1.420402. PMID  9407662.
  13. ^ Feld J1, Sommers M 2011 Ahí va el vecindario: lectura de labios y la estructura del léxico mental. Comunión de discurso. febrero;53(2):220-228
  14. ^ Tye-Murray, N; Hale, S; Spehar, B; Myerson, J; Sommers, MS (2014). "Lectura de labios en niños en edad escolar: el papel de la edad, el estado auditivo y la capacidad cognitiva". J Speech Lang Escuchar Res . 57 (2): 556–65. doi :10.1044/2013_JSLHR-H-12-0273. PMC 5736322 . PMID  24129010. 
  15. ^ Feld, JE; Sommers, MS (2009). "Lectura de labios, velocidad de procesamiento y memoria de trabajo en adultos jóvenes y mayores". J Speech Lang Escuchar Res . 52 (6): 1555–65. doi :10.1044/1092-4388(2009/08-0137). PMC 3119632 . PMID  19717657. 
  16. ^ "HuffPost: noticias de última hora, noticias de Estados Unidos y del mundo". Huffpost . Consultado el 11 de octubre de 2020 .
  17. ^ Meltzoff, AN; Moore, MK (1977). "La imitación de gestos faciales y manuales de neonatos humanos". Ciencia . 198 (4312): 74–8. doi : 10.1126/ciencia.897687. PMID  897687. S2CID  30956329.
  18. ^ Dodd B.1976 Lectura de labios en bebés: atención al habla presentada en sincronía y fuera de sincronía. Psicología cognitiva Oct;11(4):478-84
  19. ^ Spelke, E (1976). "Percepción intermodal de los acontecimientos en los bebés". Psicología cognitiva . 8 (4): 553–560. doi :10.1016/0010-0285(76)90018-9. S2CID  1226796.
  20. ^ Burnham, D; Dodd, B (2004). "Integración del habla auditivo-visual por bebés prelingüísticos: percepción de una consonante emergente en el efecto McGurk". Psicobiología del desarrollo . 45 (4): 204–20. doi :10.1002/dev.20032. PMID  15549685.
  21. ^ Rosenblum, LD; Schmuckler, MA; Johnson, JA (1997). "El efecto McGurk en los bebés". Psicofisía de la percepción . 59 (3): 347–57. doi : 10.3758/BF03211902 . PMID  9136265.
  22. ^ Pons, F; et al. (2009). "Estrechamiento de la percepción intersensorial del habla en la infancia". Procedimientos de la Academia Nacional de Ciencias . 106 (26): 10598–602. Código Bib : 2009PNAS..10610598P. doi : 10.1073/pnas.0904134106 . PMC 2705579 . PMID  19541648. 
  23. ^ Lewkowicz, DJ; Ghazanfar, AA (2009). "El surgimiento de sistemas multisensoriales mediante reducción de la percepción". Tendencias en Ciencias Cognitivas . 13 (11): 470–8. CiteSeerX 10.1.1.554.4323 . doi :10.1016/j.tics.2009.08.004. PMID  19748305. S2CID  14289579. 
  24. ^ Havy, M., Foroud, A., Fais, L. y Werker, JF (en prensa; en línea el 26 de enero de 2017). El papel del habla auditiva y visual en el aprendizaje de palabras a los 18 meses y en la edad adulta. Desarrollo infantil. (Versión preimpresa)
  25. ^ Mills, AE 1987 El desarrollo de la fonología en el niño ciego. En B.Dodd & R.Campbell (Eds) Audición ocular: la psicología de la lectura de labios, Hove Reino Unido, Lawrence Erlbaum Associates
  26. ^ Lewkowicz, DJ; Hansen-Tift, AM (enero de 2012). "Los bebés prestan atención selectiva a la boca de una cara que habla cuando aprenden a hablar". Procedimientos de la Academia Nacional de Ciencias . 109 (5): 1431–6. Código bibliográfico : 2012PNAS..109.1431L. doi : 10.1073/pnas.1114783109 . PMC 3277111 . PMID  22307596. 
  27. ^ Davies R1, Kidd E; Lander, K (2009). "Investigar los correlatos psicolingüísticos de la lectura del habla en niños en edad preescolar". Revista Internacional de Trastornos del Lenguaje y la Comunicación . 44 (2): 164–74. doi : 10.1080/13682820801997189. hdl : 11858/00-001M-0000-002E-2344-8 . PMID  18608607.{{cite journal}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  28. ^ Dodd B. 1987 La adquisición de habilidades de lectura de labios por parte de niños con audición normal. En B.Dodd y R.Campbell (Eds) Audición ocular, Erlbaum NJ pp163-176
  29. ^ Jerger, S; et al. (2009). "Cambios en el desarrollo de la sensibilidad de los niños al habla visual: una nueva tarea multimodal con imágenes y palabras". J Exp Psicología Infantil . 102 (1): 40–59. doi :10.1016/j.jecp.2008.08.002. PMC 2612128 . PMID  18829049. 
  30. ^ Kyle, FE; Campbell, R; Mahoma, T; Coleman, M; MacSweeney, M (2013). "Desarrollo de la lectura del habla en niños sordos y oyentes: introducción de la prueba de lectura del habla infantil". Revista de investigación del habla, el lenguaje y la audición . 56 (2): 416–26. doi :10.1044/1092-4388(2012/12-0039). PMC 4920223 . PMID  23275416. 
  31. ^ Tye-Murray, N; Hale, S; Spehar, B; Myerson, J; Sommers, MS (2014). "Lectura de labios en niños en edad escolar: el papel de la edad, el estado auditivo y la capacidad cognitiva". J Speech Lang Escuchar Res . 57 (2): 556–65. doi :10.1044/2013_JSLHR-H-12-0273. PMC 5736322 . PMID  24129010. 
  32. ^ Peelle, JE; Sommers, MS (2015). "Predicción y restricción en la percepción del habla audiovisual". Corteza . 68 : 169–81. doi :10.1016/j.cortex.2015.03.006. PMC 4475441 . PMID  25890390. 
  33. ^ Campbell, R (2008). "El procesamiento del habla audiovisual: bases empíricas y neuronales". Transacciones filosóficas de la Royal Society B. 363 (1493): 1001–1010. doi :10.1098/rstb.2007.2155. PMC 2606792 . PMID  17827105. 
  34. ^ Sumby, WH; Pollack, yo (1954). "Contribución visual a la inteligibilidad del habla en ruido". Revista de la Sociedad de Acústica de América . 26 (2): 212–215. Código bibliográfico : 1954ASAJ...26..212S. doi :10.1121/1.1907309. hdl : 11858/00-001M-0000-002C-6664-3 .
  35. ^ Taljaard, Schmulian; et al. (2015). "La relación entre la discapacidad auditiva y la función cognitiva: un metanálisis en adultos" (PDF) . Clin Otorrinolaringol . 41 (6): 718–729. doi :10.1111/coa.12607. hdl : 2263/60768 . PMID  26670203. S2CID  5327755.
  36. ^ Colgado, Carolina del Sur; et al. (2015). "La pérdida de audición se asocia con el riesgo de enfermedad de Alzheimer: un estudio de casos y controles en personas mayores". J Epidemiol . 25 (8): 517–21. doi :10.2188/jea.JE20140147. PMC 4517989 . PMID  25986155. 
  37. ^ Smith, por ejemplo; Bennetto, LJ (2007). "Integración del habla audiovisual y lectura de labios en el autismo". Revista de Psicología y Psiquiatría Infantil . 48 (8): 813–21. doi :10.1111/j.1469-7610.2007.01766.x. PMID  17683453.
  38. ^ Irwin, JR; Tornatore, Luisiana; Brancazio, L; Whalen, DH (2011). "¿Pueden los niños con trastornos del espectro autista" oír "una cara que habla?". Desarrollo infantil . 82 (5): 1397–403. doi :10.1111/j.1467-8624.2011.01619.x. PMC 3169706 . PMID  21790542. 
  39. ^ Irwin, JR; Brancazio, L (2014). "¿Ver para oír? Patrones de mirada a caras que hablan en niños con trastornos del espectro autista". Psicólogo Frontal . 5 : 397. doi : 10.3389/fpsyg.2014.00397 . PMC 4021198 . PMID  24847297. 
  40. ^ Böhning, M; Campbell, R; Karmiloff-Smith, A (2002). "Percepción del habla audiovisual en el síndrome de Williams". Neuropsicología . 40 (8): 1396–406. doi :10.1016/s0028-3932(01)00208-1. PMID  11931944. S2CID  9125298.
  41. ^ Leybaert, J; Macchi, L; Huyse, A; Champoux, F; Bayard, C; Colin, C; Berthommier, F (2014). "Percepción atípica del habla audiovisual y efectos de McGurk en niños con discapacidad específica del lenguaje". Psicólogo Frontal . 5 : 422. doi : 10.3389/fpsyg.2014.00422 . PMC 4033223 . PMID  24904454. 
  42. ^ Mohammed T1, Campbell R; Macsweeney, M; Barry, F; Coleman, M (2006). "La lectura de discursos y su asociación con la lectura entre personas sordas, oyentes y disléxicas". Lingüística Clínica y Fonética . 20 (7–8): 621–30. doi :10.1080/02699200500266745. PMID  17056494. S2CID  34877573.{{cite journal}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  43. ^ "Manos y Voces :: Artículos".
  44. ^ Swanwick, R (2016). "Educación y bilingüismo bimodal de niños sordos" (PDF) . Enseñanza de idiomas . 49 (1): 1–34. doi :10.1017/S0261444815000348. S2CID  146626144.
  45. ^ Bernstein, LE; Demorest, YO; Tucker, PE (2000). "Percepción del habla sin audición". Percepción y Psicofísica . 62 (2): 233–52. doi : 10.3758/bf03205546 . PMID  10723205.
  46. ^ Bergeson TR1, PisoniDB; Davis, RA (2005). "Desarrollo de habilidades de comprensión audiovisual en niños sordos prelocutivos con implante coclear". Oído y audición . 26 (2): 149–64. doi :10.1097/00003446-200504000-00004. PMC 3432935 . PMID  15809542. {{cite journal}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  47. ^ Pimperton, Hannah; Ralph-Lewis, Amelia; MacSweeney, Mairead (2017). "Lectura de discursos en adultos sordos con implantes cocleares: evidencia de compensación perceptiva". Frente. Psicólogo . 8 : 106. doi : 10.3389/fpsyg.2017.00106 . PMC 5294775 . PMID  28223951. 
  48. ^ "Apoyo comunicacional para personas sordas". 2015-11-24.
  49. ^ "Lipspeaker UK: servicios de comunicación para personas sordas y con problemas de audición".
  50. ^ "Lectura y dislexia en niños sordos | Fundación Nuffield". 19 de noviembre de 2019.
  51. ^ Mayer, C. (2007). "Lo que realmente importa en el desarrollo alfabetizador temprano de los niños sordos". J Deaf Stud Deaf Educ . 12 (4): 411–31. doi : 10.1093/sordo/enm020 . PMID  17566067.
  52. ^ Mahoma, Tara; Campbell, Rut; MacSweeney, Mairéad; Barry, Fiona; Coleman, Michael (2006). "La lectura de discursos y su asociación con la lectura entre personas sordas, oyentes y disléxicas". Lingüística clínica y fonética . 20 (7–8): 621–630. doi :10.1080/02699200500266745. PMID  17056494. S2CID  34877573.
  53. ^ Kyle, FE; Harris, M. (2010). "Predictores del desarrollo lector en niños sordos: un estudio longitudinal de 3 años" (PDF) . J Exp Psicología Infantil . 107 (3): 229–243. doi :10.1016/j.jecp.2010.04.011. PMID  20570282.
  54. ^ Kyle, Fiona E.; Campbell, Rut; Mahoma, Tara; Coleman, Mike; MacSweeney, Mairéad (2013). "Desarrollo de la lectura de discursos en niños sordos y oyentes: introducción de la prueba de lectura de discursos infantiles". Revista de investigación del habla, el lenguaje y la audición . 56 (2): 416–426. doi :10.1044/1092-4388(2012/12-0039). PMC 4920223 . PMID  23275416. 
  55. ^ Nicholls, GH; Ling, D (1982). "Cued Speech y la recepción del lenguaje hablado". J Discurso Escuchar Res . 25 (2): 262–9. doi :10.1044/jshr.2502.262. PMID  7120965.
  56. ^ Leybaert, J; LaSasso, CJ (2010). "Habla con claves para mejorar la percepción del habla y el desarrollo del primer lenguaje en niños con implantes cocleares". Tendencias en amplificación . 14 (2): 96-112. doi :10.1177/1084713810375567. PMC 4111351 . PMID  20724357. 
  57. ^ "Alfabeto de lectura de labios: vocales redondas". Archivado desde el original el 23 de junio de 2014 . Consultado el 23 de junio de 2014 .
  58. ^ Bernstein, LE; Jordania, N; Auer, ET; Eberhardt, SP (2022). "Lectura de labios: una revisión de su importancia continua para el reconocimiento del habla con pérdida auditiva adquirida y posibilidades de un entrenamiento eficaz". Revista Estadounidense de Audiología . 31 (2): 453–469. doi : 10.1044/2021_AJA-21-00112. PMC 9524756 . PMID  35316072. 
  59. ^ "Campañas e influencias".
  60. ^ Altieri, NA; Pisoni, DB; Townsend, JT (2011). "Algunos datos normativos sobre la capacidad de lectura de labios". Revista de la Sociedad de Acústica de América . 130 (1): 1–4. Código Bib : 2011ASAJ..130....1A. doi : 10.1121/1.3593376. PMC 3155585 . PMID  21786870. 
  61. ^ "Inicio> Rachel-Walker> Facultad de Letras, Artes y Ciencias Dana y David Dornsife de la USC" (PDF) .
  62. ^ "Síntesis del habla visual basada en reglas". 1995, págs. 299–302.
  63. ^ Bosseler, Alexis; Massaro, Dominic W. (2003). "Desarrollo y evaluación de un tutor animado por computadora para el aprendizaje de vocabulario y idiomas en niños con autismo". Revista de autismo y trastornos del desarrollo . 33 (6): 653–672. doi :10.1023/B:JADD.0000006002.82367.4f. PMID  14714934. S2CID  17406145.
  64. ^ "Síntesis del habla visual - UEA".
  65. ^ "La computadora que lee los labios puede distinguir idiomas".
  66. ^ Archivado en Ghostarchive y Wayback Machine: "Video a texto: lectura de labios y localización de palabras". YouTube .
  67. ^ Hickey, Shane (24 de abril de 2016). "Los innovadores: ¿Se puede enseñar a las computadoras a leer los labios?". El guardián .
  68. ^ "La IA DeepMind de Google puede leer programas de televisión con los labios mejor que un profesional".
  69. ^ Petajan, E.; Bischoff, B.; Bodoff, D.; Brooke, Nuevo México (1988). "Un sistema mejorado de lectura de labios automática para mejorar el reconocimiento de voz". Actas de la conferencia SIGCHI sobre factores humanos en sistemas informáticos - CHI '88 . págs. 19-25. doi :10.1145/57167.57170. ISBN 978-0201142372. S2CID  15211759.
  70. ^ Luettin, Jürgen; Thacker, Neil A.; Beet, Steve W. "Identificación del hablante mediante lectura de labios" (PDF) . Laboratorios de Ciencias Aplicadas e Ingeniería .
  71. ^ http://www.planetbiometrics.com-article-details-i-2250 [ enlace muerto permanente ]
  72. ^ Calvert, Georgia; Bullmore, et al; Brammer, MJ; et al. (1997). "Activación de la corteza auditiva durante la lectura de labios silenciosa". Ciencia . 276 (5312): 593–6. doi : 10.1126/ciencia.276.5312.593. PMID  9110978.
  73. ^ Bernstein, LE; Liebenthal, E (2014). "Vías neuronales para la percepción visual del habla". Neurociencias frontales . 8 : 386. doi : 10.3389/fnins.2014.00386 . PMC 4248808 . PMID  25520611. 
  74. ^ Patrón, JI; van Wassenhove, V; Nusbaum, HC; Pequeño, SL (2007). "Escuchar labios y ver voces: cómo las áreas corticales que apoyan la producción del habla median la percepción audiovisual del habla". Corteza cerebral . 17 (10): 2387–2399. doi :10.1093/cercor/bhl147. PMC 2896890 . PMID  17218482. 
  75. ^ Campbell, R; MacSweeney, M; Surguladze, S; Calvert, G; McGuire, P; Amamantar, J; Brammer, MJ; David, AS (2001). "Sustratos corticales para la percepción de acciones faciales: un estudio de resonancia magnética funcional de la especificidad de la activación del habla vista y de actos sin sentido en la parte inferior de la cara (gurning)". Res. cerebral Cogn Res . cerebral. 12 (2): 233–43. doi :10.1016/s0926-6410(01)00054-4. PMID  11587893.
  76. ^ Swaminathan, S.; MacSweeney, M.; Boyles, R.; Aguas, D.; Watkins, KE; Möttönen, R. (2013). "Excitabilidad motora durante la percepción visual de lenguas habladas conocidas y desconocidas". Cerebro y lenguaje . 126 (1): 1–7. doi :10.1016/j.bandl.2013.03.002. PMC 3682190 . PMID  23644583. 
  77. ^ Sams, M; et al. (1991). "Aulenko et al. 1991 Ver el habla: la información visual de los movimientos de los labios modifica la actividad en la corteza auditiva humana". Cartas de Neurociencia . 127 (1): 141-145. doi :10.1016/0304-3940(91)90914-f. PMID  1881611. S2CID  9035639.
  78. ^ Van Wassenhove, V; Grant, KW; Poeppel, D (enero de 2005). "El habla visual acelera el procesamiento neuronal del habla auditiva". Procedimientos de la Academia Nacional de Ciencias . 102 (4): 1181–6. Código Bib : 2005PNAS..102.1181V. doi : 10.1073/pnas.0408949102 . PMC 545853 . PMID  15647358. 
  79. ^ Salón DA1, Fussell C, Summerfield AQ. 2005 Lectura del habla fluida de caras parlantes: redes cerebrales típicas y diferencias individuales. J. Cogn Neurociencias. 17(6):939-53.
  80. ^ Bernstein, LE; Jiang, J; Pantazis, D; Lu, ZL; Joshi, A (2011). "Procesamiento fonético visual localizado mediante gestos faciales hablados y no hablados en video y pantallas puntuales". Mapa cerebral Hum . 32 (10): 1660–76. doi :10.1002/hbm.21139. PMC 3120928 . PMID  20853377. 
  81. ^ Capek, CM; Macsweeney, M; Woll, B; Aguas, D; McGuire, PK; David, AS; Brammer, MJ; Campbell, R (2008). "Circuitos corticales para la lectura silenciosa del habla en personas sordas y oyentes". Neuropsicología . 46 (5): 1233–41. doi :10.1016/j.neuropsychologia.2007.11.026. PMC 2394569 . PMID  18249420. 

Bibliografía

Otras lecturas

Ver también

enlaces externos