stringtranslate.com

Traducción automática de lenguas de signos

La traducción automática de lenguas de señas ha sido posible, aunque de manera limitada, desde 1977. Cuando un proyecto de investigación unió con éxito letras inglesas de un teclado con letras del alfabeto manual en ASL que fueron simuladas en una mano robótica. Estas tecnologías traducen lenguas de señas a lengua escrita o hablada, y lengua escrita o hablada a lengua de señas, sin el uso de un intérprete humano . Las lenguas de signos poseen características fonológicas diferentes a las lenguas habladas, lo que ha creado obstáculos para los desarrolladores. Los desarrolladores utilizan la visión por computadora y el aprendizaje automático para reconocer parámetros fonológicos específicos y epéntesis [1] exclusivos de las lenguas de signos, y el reconocimiento del habla y el procesamiento del lenguaje natural permiten la comunicación interactiva entre personas oyentes y sordas.

Limitaciones

Las tecnologías de traducción de lengua de signos están limitadas del mismo modo que la traducción de lengua hablada. Ninguno puede traducir con un 100% de precisión. De hecho, las tecnologías de traducción de lengua de signos están muy por detrás de sus homólogas de lengua hablada. Esto se debe, de ninguna manera, al hecho de que las lenguas de señas tienen múltiples articuladores. Mientras que las lenguas habladas se articulan a través del tracto vocal, las lenguas de señas se articulan a través de las manos, los brazos, la cabeza, los hombros, el torso y partes de la cara. Esta articulación multicanal dificulta mucho la traducción de las lenguas de signos. Un desafío adicional para la lengua de signos MT es el hecho de que no existe un formato escrito formal para las lenguas de signos. Existen sistemas de notación, pero la comunidad internacional de sordos no ha adoptado ningún sistema de escritura lo suficientemente amplio como para poder considerarlo la "forma escrita" de una determinada lengua de signos. Luego, las lenguas de signos se graban en varios formatos de vídeo. No existe un corpus paralelo estándar que sea lo suficientemente grande para SMT, por ejemplo.

Historia

La historia de la traducción automática del lenguaje de señas comenzó con el desarrollo de hardware como las manos robóticas que deletrean con los dedos. En 1977, un proyecto de escritura manual llamado RALPH (abreviatura de "Robotic Alphabet") creó una mano robótica que puede traducir alfabetos en escritura manual. [2] Más tarde, el uso de guantes con sensores de movimiento se convirtió en algo habitual y nacieron algunos proyectos como CyberGlove y VPL Data Glove. [3] El hardware portátil hizo posible capturar las formas y movimientos de las manos de los firmantes con la ayuda del software de computadora. Sin embargo, con el desarrollo de la visión por computadora, los dispositivos portátiles fueron reemplazados por cámaras debido a su eficiencia y menos restricciones físicas para los firmantes. [3] Para procesar los datos recopilados a través de los dispositivos, los investigadores implementaron redes neuronales como el Simulador de redes neuronales de Stuttgart [4] para el reconocimiento de patrones en proyectos como CyberGlove. Los investigadores también utilizan muchos otros métodos para el reconocimiento de señales. Por ejemplo, los modelos ocultos de Markov se utilizan para analizar datos estadísticamente, [3] y GRASP y otros programas de aprendizaje automático utilizan conjuntos de entrenamiento para mejorar la precisión del reconocimiento de señales. [5] Se ha demostrado que la fusión de tecnologías no portátiles, como cámaras y controladores Leap Motion, aumenta la capacidad del software de traducción y reconocimiento automático del lenguaje de señas. [6]

Tecnologías

VISICAST

http://www.visicast.cmp.uea.ac.uk/Visicast_index.html

proyecto eSIGN

http://www.visicast.cmp.uea.ac.uk/eSIGN/index.html

El Proyecto Avatar del Lenguaje de Señas Estadounidense en la Universidad DePaul

http://asl.cs.depaul.edu/

Español a LSE

firmar en voz alta

SignAloud es una tecnología que incorpora un par de guantes fabricados por un grupo de estudiantes de la Universidad de Washington que transliteran [7] el lenguaje de signos americano (ASL) al inglés. [8] En febrero de 2015, Thomas Pryor, un estudiante de audición de la Universidad de Washington, creó el primer prototipo de este dispositivo en Hack Arizona, un hackathon en la Universidad de Arizona. Pryor continuó desarrollando la invención y en octubre de 2015, Pryor incorporó a Navid Azodi al proyecto SignAloud para marketing y ayuda con relaciones públicas. Azodi tiene una rica formación y participación en administración de empresas, mientras que Pryor tiene una gran experiencia en ingeniería. [9] En mayo de 2016, el dúo le dijo a NPR que están trabajando más estrechamente con personas que usan ASL para que puedan comprender mejor a su audiencia y adaptar su producto a las necesidades de estas personas en lugar de a las necesidades supuestas. [10] Sin embargo, no se han publicado más versiones desde entonces. El invento fue uno de los siete que ganaron el Premio para Estudiantes Lemelson-MIT, que busca premiar y aplaudir a los jóvenes inventores. Su invento se encuadró en el grupo "¡Úselo!" Categoría del premio que incluye avances tecnológicos sobre productos existentes. Se les concedió 10.000 dólares. [11] [12]

Los guantes tienen sensores que rastrean los movimientos de las manos del usuario y luego envían los datos a un sistema informático a través de Bluetooth . El sistema informático analiza los datos y los compara con palabras en inglés, que luego se pronuncian en voz alta mediante una voz digital. [10] Los guantes no tienen la capacidad de escribir en inglés para emitir el movimiento del guante o la capacidad de escuchar el lenguaje y luego señas a una persona sorda, lo que significa que no proporcionan comunicación recíproca. El dispositivo tampoco incorpora expresiones faciales ni otros marcadores no manuales de lenguajes de señas, que pueden alterar la interpretación real del ASL. [13]

prosordos

ProDeaf (WebLibras) [14] es un software informático que puede traducir texto y voz al portugués Libras (lengua de signos portuguesa) "con el objetivo de mejorar la comunicación entre personas sordas y oyentes". [15] Actualmente también hay una edición beta en producción para el lenguaje de signos americano . El equipo original comenzó el proyecto en 2010 con una combinación de expertos que incluían lingüistas, diseñadores, programadores y traductores, tanto oyentes como sordos. El equipo surgió en la Universidad Federal de Pernambuco (UFPE) a partir de un grupo de estudiantes involucrados en un proyecto de informática. El grupo tenía un miembro sordo que tenía dificultades para comunicarse con el resto del grupo. Para completar el proyecto y ayudar al compañero a comunicarse, el grupo creó Proativa Soluções y desde entonces ha seguido adelante. [16] La versión beta actual en lenguaje de signos americano es muy limitada. Por ejemplo, hay una sección de diccionario y la única palabra debajo de la letra 'j' es 'saltar'. Si el dispositivo no ha sido programado con la palabra, entonces el avatar digital debe deletrear la palabra con los dedos. La última actualización de la aplicación fue en junio de 2016, pero ProDeaf ha aparecido en más de 400 historias en los medios de comunicación más populares del país. [17]

La aplicación no puede leer el lenguaje de señas y convertirlo en palabra o texto, por lo que solo sirve como comunicación unidireccional. Además, el usuario no puede iniciar sesión en la aplicación y recibir una traducción al inglés de ninguna forma, ya que el inglés todavía se encuentra en la edición beta.

Traductor de lenguaje de señas Kinect

Desde 2012, investigadores de la Academia China de Ciencias y especialistas en educación para sordos de la Universidad Unión de Beijing en China han estado colaborando con el equipo asiático de investigación de Microsoft para crear Kinect Sign Language Translator. [18] El traductor consta de dos modos: modo traductor y modo comunicación. El modo traductor es capaz de traducir palabras individuales de signos a palabras escritas y viceversa. El modo de comunicación puede traducir frases completas y la conversación se puede traducir automáticamente con el uso del avatar 3D . El modo traductor también puede detectar las posturas y formas de las manos de un firmante, así como la trayectoria del movimiento utilizando tecnologías de aprendizaje automático , reconocimiento de patrones y visión por computadora . El dispositivo también permite la comunicación recíproca porque la tecnología de reconocimiento de voz permite traducir el lenguaje hablado al lenguaje de señas y el avatar modelado en 3D puede devolverle señas a las personas sordas. [19]

El proyecto original se inició en China basándose en la traducción del lenguaje de signos chino . En 2013, el proyecto se presentó en la Cumbre de la Facultad de Investigación de Microsoft y en la reunión de la empresa Microsoft. [20] Actualmente, este proyecto también lo están trabajando investigadores en Estados Unidos para implementar la traducción a la Lengua de Señas Americana . [21] A partir de ahora, el dispositivo es todavía un prototipo y la precisión de la traducción en el modo de comunicación aún no es perfecta.

Firmar todo

SignAll [22] es un sistema de traducción automática de lengua de signos proporcionado por Dolphio Technologies [23] en Hungría. El equipo es "pionero en la primera solución automatizada de traducción de lenguaje de señas, basada en visión por computadora y procesamiento del lenguaje natural (NLP), para permitir la comunicación diaria entre personas con audición que usan inglés hablado y personas sordas o con problemas de audición que usan ASL". El sistema de SignAll utiliza Kinect de Microsoft y otras cámaras web con sensores de profundidad conectados a una computadora. La tecnología de visión por computadora puede reconocer la forma de la mano y el movimiento de una persona que hace señas, y el sistema de procesamiento del lenguaje natural convierte los datos recopilados por la visión por computadora en una simple frase en inglés. El desarrollador del dispositivo es sordo y el resto del equipo del proyecto está formado por muchos ingenieros y lingüistas especialistas de comunidades sordas y oyentes. La tecnología tiene la capacidad de incorporar los cinco parámetros de ASL, que ayudan al dispositivo a interpretar con precisión al firmante. SignAll ha contado con el respaldo de muchas empresas, incluidas Deloitte y LT-innovate, y ha creado asociaciones con Microsoft Bizspark y Hungría's Renewal. [24] Esta tecnología se utiliza actualmente en Fort Bend Christian Academy en Sugar Land, Texas y en la Universidad Estatal Sam Houston . [25]

Experto en movimiento

MotionSavvy [26] fue el primer sistema de lenguaje de señas para voz. El dispositivo fue creado en 2012 por un grupo del Instituto de Tecnología de Rochester/Instituto Técnico Nacional para Sordos y "surgió del acelerador Leap Motion AXLR8R". [27] El equipo utilizó una funda para tableta que aprovecha la potencia del controlador Leap Motion. Todo el equipo de seis personas fue creado por estudiantes sordos de la rama de educación para sordos de la escuela. [28] El dispositivo es actualmente uno de los dos únicos dispositivos de comunicación recíproca exclusivamente para el lenguaje de señas americano. Permite a las personas sordas hacer señas en el dispositivo, que luego se interpreta o viceversa, tomando el inglés hablado e interpretándolo al lenguaje de señas estadounidense. El dispositivo se envía por $198. Algunas otras características incluyen la capacidad de interactuar, comentarios en vivo, creador de letreros y crowdsign.

El dispositivo ha sido reseñado por todo el mundo, desde revistas de tecnología hasta Time . Wired dijo: "No fue difícil ver cuán transformadora podría ser una tecnología como [UNI]" y que "[UNI] me pareció algo mágico". Katy Steinmetz de TIME dijo: "Esta tecnología podría cambiar la forma en que viven los sordos." Sean Buckley de Engadget mencionó: "UNI podría convertirse en una increíble herramienta de comunicación ".

Referencias

  1. ^ Mocialov, Boris; Turner, Graham; Lohan, Katrin; Hastie, Helen (2017). "Hacia el reconocimiento continuo de la lengua de signos con aprendizaje profundo" (PDF) . Creando significado con asistentes robóticos: la brecha que dejan los dispositivos inteligentes (Conferencia internacional IEEE-RAS sobre robots humanoides) . S2CID  5525834. Archivado desde el original (PDF) el 10 de enero de 2021 . Consultado el 4 de mayo de 2020 .
  2. ^ Jaffe, DL (agosto de 1994). "Evolución de las manos mecánicas de deletreo manual para personas sordociegas". Revista de Investigación y Desarrollo en Rehabilitación . 31 (3): 236–244. PMID  7965881.
  3. ^ abc Parton, BS (12 de octubre de 2005). "Reconocimiento y traducción de lenguas de signos: un enfoque multidisciplinario desde el campo de la inteligencia artificial". Revista de estudios y educación para sordos . 11 (1): 94-101. doi : 10.1093/sordo/enj003 . PMID  16192405.
  4. ^ Weissmann, J.; Salomón, R. (1999). "Reconocimiento de gestos para aplicaciones de realidad virtual mediante guantes de datos y redes neuronales". IJCNN'99. Conferencia conjunta internacional sobre redes neuronales. Actas (Nº de catálogo 99CH36339) . vol. 3. págs. 2043-2046. doi :10.1109/IJCNN.1999.832699. ISBN 978-0-7803-5529-3. S2CID  18434944.
  5. ^ Bowden, Richard; Zisserman, Andrés; Windridge, Dave; Kadir, Timor; Brady, Mike (2003). "Interpretación basada en la visión de lenguas de signos naturales" (PDF) . S2CID  67094263. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  6. ^ Pájaro, Jordan J.; Ekárt, Anikó; Faria, Diego R. (9 de septiembre de 2020). "Reconocimiento del lenguaje de señas británico mediante la fusión tardía de la visión por computadora y el movimiento de salto con transferencia de aprendizaje al lenguaje de señas americano". Sensores . 20 (18): 5151. Código bibliográfico : 2020Senso..20.5151B. doi : 10.3390/s20185151 . PMC 7571093 . PMID  32917024. 
  7. ^ "¿Cuál es la diferencia entre traducción y transliteración?". english.stackexchange.com . Consultado el 6 de abril de 2017 .
  8. ^ "Firmar en voz alta". Archivado desde el original el 21 de septiembre de 2020 . Consultado el 28 de febrero de 2017 .
  9. ^ "Thomas Pryor y Navid Azodi | Programa Lemelson-MIT". lemelson.mit.edu . Archivado desde el original el 21 de septiembre de 2020 . Consultado el 4 de julio de 2019 .
  10. ^ ab "Estos guantes ofrecen un toque moderno al lenguaje de señas". Toda la tecnología considerada . NPR. 17 de mayo de 2016.
  11. ^ "Inventores colegiados reciben el premio para estudiantes Lemelson-MIT". Programa Lemelson-MIT. Archivado desde el original el 13 de enero de 2021 . Consultado el 9 de marzo de 2017 .
  12. ^ "El equipo universitario de la Universidad de Washington gana el premio para estudiantes Lemelson-MIT de 10.000 dólares por guantes que traducen el lenguaje de señas". Universidad de Washington. 2016-04-12 . Consultado el 9 de abril de 2017 .
  13. ^ "Marcadores no manuales en lenguaje de señas americano (ASL)". www.lifeprint.com . Consultado el 6 de abril de 2017 .
  14. ^ "Prosordos". prodeaf.net . Archivado desde el original el 12 de marzo de 2021 . Consultado el 9 de abril de 2017 .
  15. ^ "Prosordos". www.prodeaf.net . Consultado el 9 de marzo de 2017 .
  16. ^ "Prosordos". www.prodeaf.net . Consultado el 16 de marzo de 2017 .
  17. ^ "ProDeaf Tradutor para Libras en la App Store". Tienda de aplicaciones . Consultado el 9 de marzo de 2017 .
  18. ^ Chen, Xilin; Li, Hanjing; Pan, Tim; Tansley, Stewart; Zhou, Ming. "Kinect Sign Language Translator amplía las posibilidades de comunicación" (PDF) . Conexiones de investigación de Microsoft. Archivado desde el original (PDF) el 29 de marzo de 2014.
  19. ^ Chai, Xiujuan; Li, Guang; Lin, Yushun; Xu, Zhihao; Tang, YB; Chen, Xilin (2013). "Reconocimiento y traducción de lengua de signos con Kinect" (PDF) . CiteSeerX 10.1.1.711.4714 . S2CID  17957882.  {{cite journal}}: Citar diario requiere |journal=( ayuda )
  20. ^ "Traductor de lenguaje de señas Kinect". Microsoft . 29 de octubre de 2013.
  21. ^ Zafrulla, Zahoor; Brashear, Helena; Starner, Thad; Hamilton, Harley; Presti, Peter (2011). "Reconocimiento de la lengua de signos americana con Kinect". Actas de la 13ª conferencia internacional sobre interfaces multimodales - ICMI '11 . pag. 279. doi :10.1145/2070481.2070532. ISBN 978-1-4503-0641-6. S2CID  5488882.
  22. ^ "SignAll. Traducimos lengua de signos. Automáticamente". www.signall.us . Archivado desde el original el 2 de febrero de 2021 . Consultado el 9 de abril de 2017 .
  23. ^ "Dolphio | Tecnologías de TI únicas". www.dolphio.hu . Consultado el 6 de abril de 2017 .
  24. ^ "SignAll. Traducimos lengua de signos. Automáticamente". www.signall.us . Archivado desde el original el 2 de febrero de 2021 . Consultado el 9 de marzo de 2017 .
  25. ^ "El programa piloto de lengua de señas estadounidense de Fort Bend Christian Academy pone a prueba nuevas tecnologías | Revista Fort Bend Focus" . Consultado el 8 de agosto de 2023 .
  26. ^ "MotionSavvy UNI: primer sistema de lenguaje de señas a voz". Indiegogo . Consultado el 9 de marzo de 2017 .
  27. ^ "Instituto de Tecnología de Rochester (RIT)". Instituto de Tecnología de Rochester (RIT) . Consultado el 6 de abril de 2017 .
  28. ^ Tsotsis, Alexia (6 de junio de 2014). "MotionSavvy es una aplicación para tableta que comprende el lenguaje de señas". TechCrunch . Consultado el 9 de abril de 2017 .