stringtranslate.com

Reconocimiento de gestos

Un algoritmo de reconocimiento de gestos detecta la ubicación y el movimiento de la mano de un niño

El reconocimiento de gestos es un área de investigación y desarrollo en informática y tecnología del lenguaje que se ocupa del reconocimiento y la interpretación de los gestos humanos . Es una subdisciplina de la visión artificial que emplea algoritmos matemáticos para interpretar los gestos. [1]

El reconocimiento de gestos ofrece un camino para que las computadoras comiencen a comprender e interpretar mejor el lenguaje corporal humano , algo que antes no era posible a través de texto o interfaces de usuario gráficas (GUI) no mejoradas.

Los gestos pueden tener su origen en cualquier movimiento o estado corporal, pero normalmente se originan en el rostro o la mano . Un área de este campo es el reconocimiento de emociones derivadas de las expresiones faciales y los gestos de las manos. Los usuarios pueden hacer gestos simples para controlar o interactuar con dispositivos sin tocarlos físicamente.

Se han realizado muchos enfoques utilizando cámaras y algoritmos de visión por computadora para interpretar el lenguaje de señas , sin embargo, la identificación y el reconocimiento de la postura, la marcha, la proxémica y los comportamientos humanos también es objeto de técnicas de reconocimiento de gestos. [2]

Descripción general

El middleware generalmente procesa el reconocimiento de gestos y luego envía los resultados al usuario.

El reconocimiento de gestos tiene aplicación en áreas como: [ ¿cuándo? ]

El reconocimiento de gestos se puede realizar con técnicas de visión por computadora y procesamiento de imágenes . [5]

La literatura incluye trabajos en curso en el campo de la visión por computadora sobre la captura de gestos o poses y movimientos humanos más generales mediante cámaras conectadas a una computadora. [6] [7] [8] [9]

El término "reconocimiento de gestos" se ha utilizado para referirse de forma más restringida a símbolos escritos a mano que no son de entrada de texto, como el entintado en una tableta gráfica , los gestos multitáctiles y el reconocimiento de gestos del ratón . Se trata de la interacción con la computadora a través del dibujo de símbolos con el cursor de un dispositivo señalador. [10] [11] [12] La computación con lápiz expande el reconocimiento de gestos digitales más allá de los dispositivos de entrada tradicionales, como teclados y ratones, y reduce el impacto del hardware de un sistema. [ ¿Cómo? ]

Tipos de gestos

En las interfaces de computadora se distinguen dos tipos de gestos: [13] Consideramos los gestos en línea, que también pueden considerarse como manipulaciones directas como escalar y rotar, y por el contrario, los gestos fuera de línea generalmente se procesan una vez finalizada la interacción; por ejemplo, se dibuja un círculo para activar un menú contextual .

Interfaz sin contacto

Una interfaz de usuario sin contacto (TUI) es un tipo emergente de tecnología en la que un dispositivo se controla mediante el movimiento del cuerpo y gestos sin tocar un teclado, un mouse o una pantalla. [14]

Tipos de tecnología sin contacto

Hay varios dispositivos que utilizan este tipo de interfaz, como teléfonos inteligentes, computadoras portátiles, juegos, televisores y equipos de música.

Un tipo de interfaz sin contacto utiliza la conectividad Bluetooth de un teléfono inteligente para activar el sistema de gestión de visitantes de una empresa. Esto elimina la necesidad de tocar una interfaz, por conveniencia o para evitar una posible fuente de contaminación, como ocurrió durante la pandemia de COVID-19 . [15]

Dispositivos de entrada

La capacidad de rastrear los movimientos de una persona y determinar qué gestos puede estar realizando se puede lograr mediante varias herramientas. Las interfaces de usuario cinéticas (KUI) son un tipo emergente de interfaces de usuario que permiten a los usuarios interactuar con dispositivos informáticos a través del movimiento de objetos y cuerpos. [ cita requerida ] Los ejemplos de KUI incluyen interfaces de usuario tangibles y juegos que detectan el movimiento como Wii y Kinect de Microsoft , y otros proyectos interactivos. [ 16 ]

Si bien existe una gran cantidad de investigaciones realizadas en reconocimiento de gestos basado en imágenes y videos, existen algunas variaciones en las herramientas y entornos utilizados entre las implementaciones.

Algoritmos

Algunos métodos alternativos de seguimiento y análisis de gestos y sus respectivas relaciones

Dependiendo del tipo de datos de entrada, la interpretación de un gesto puede realizarse de diferentes maneras. Sin embargo, la mayoría de las técnicas se basan en punteros clave representados en un sistema de coordenadas 3D. Con base en el movimiento relativo de estos, el gesto puede detectarse con alta precisión, dependiendo de la calidad de la entrada y del enfoque del algoritmo. [30]

Para interpretar los movimientos del cuerpo es necesario clasificarlos según sus propiedades comunes y el mensaje que puedan transmitir. Por ejemplo, en el lenguaje de signos, cada gesto representa una palabra o frase.

En la literatura se distinguen dos enfoques diferentes para el reconocimiento de gestos: uno basado en modelos 3D y otro basado en la apariencia [31] . El método más importante utiliza información 3D sobre elementos clave de las partes del cuerpo para obtener varios parámetros importantes, como la posición de la palma o los ángulos de las articulaciones. Los enfoques derivados de él, como los modelos volumétricos, han demostrado ser muy intensivos en términos de potencia computacional y requieren más desarrollos tecnológicos para poder implementarse para el análisis en tiempo real. Alternativamente, los sistemas basados ​​en la apariencia utilizan imágenes o videos para la interpretación directa. Estos modelos son más fáciles de procesar, pero generalmente carecen de la generalidad requerida para la interacción entre humanos y computadoras.

Algoritmos basados ​​en modelos 3D

Una mano real (izquierda) se interpreta como una colección de vértices y líneas en la versión de malla 3D (derecha), y el software utiliza su posición relativa e interacción para inferir el gesto.

El enfoque del modelo 3D puede utilizar modelos volumétricos o esqueléticos o incluso una combinación de ambos. Los enfoques volumétricos se han utilizado ampliamente en la industria de la animación por computadora y para fines de visión artificial. Los modelos generalmente se crean a partir de superficies 3D complejas, como NURBS o mallas poligonales.

El inconveniente de este método es que requiere un gran esfuerzo computacional y aún se deben desarrollar sistemas de análisis en tiempo real. Por el momento, un enfoque más interesante sería asignar objetos primitivos simples a las partes más importantes del cuerpo de la persona (por ejemplo, cilindros para los brazos y el cuello, esferas para la cabeza) y analizar la forma en que interactúan entre sí. Además, algunas estructuras abstractas como las supercuadrículas y los cilindros generalizados pueden ser incluso más adecuadas para aproximar las partes del cuerpo.

Algoritmos basados ​​en esqueletos

La versión esquelética (derecha) modela eficazmente la mano (izquierda). Tiene menos parámetros que la versión volumétrica y es más fácil de calcular, lo que la hace adecuada para sistemas de análisis de gestos en tiempo real.

En lugar de utilizar un procesamiento intensivo de los modelos 3D y trabajar con una gran cantidad de parámetros, se puede utilizar una versión simplificada de los parámetros de los ángulos de las articulaciones junto con las longitudes de los segmentos. Esto se conoce como una representación esquelética del cuerpo, donde se calcula un esqueleto virtual de la persona y se asignan partes del cuerpo a determinados segmentos. El análisis aquí se realiza utilizando la posición y la orientación de estos segmentos y la relación entre cada uno de ellos (por ejemplo, el ángulo entre las articulaciones y la posición u orientación relativa).

Ventajas de utilizar modelos esqueléticos:

Modelos basados ​​en la apariencia

Estas imágenes binarias de silueta (izquierda) o contorno (derecha) representan una entrada típica para algoritmos basados ​​en la apariencia. Se comparan con diferentes plantillas de mano y, si coinciden, se infiere el gesto correspondiente.

Los modelos basados ​​en la apariencia ya no utilizan una representación espacial del cuerpo, sino que derivan sus parámetros directamente de las imágenes o los vídeos mediante una base de datos de plantillas. Algunos se basan en plantillas 2D deformables de las partes del cuerpo humano, en particular las manos. Las plantillas deformables son conjuntos de puntos en el contorno de un objeto, que se utilizan como nodos de interpolación para la aproximación del contorno del objeto. Una de las funciones de interpolación más sencillas es la lineal, que realiza una forma media a partir de conjuntos de puntos, parámetros de variabilidad de puntos y deformación externa. Estos modelos basados ​​en plantillas se utilizan principalmente para el seguimiento de manos, pero también se pueden utilizar para la clasificación de gestos simples.

El segundo método de detección de gestos que utiliza modelos basados ​​en la apariencia utiliza secuencias de imágenes como plantillas de gestos. Los parámetros de este método son las propias imágenes o determinadas características derivadas de ellas. La mayoría de las veces, se utilizan solo una (monoscópica) o dos (estereoscópicas).

Modelos basados ​​en electromiografía

La electromiografía (EMG) se ocupa del estudio de las señales eléctricas producidas por los músculos del cuerpo. Mediante la clasificación de los datos recibidos de los músculos del brazo, es posible clasificar la acción y, de este modo, introducir el gesto en un software externo. [1] Los dispositivos de EMG para el consumidor permiten métodos no invasivos, como una banda para el brazo o la pierna, y se conectan a través de Bluetooth. Debido a esto, la EMG tiene una ventaja sobre los métodos visuales, ya que el usuario no necesita estar frente a una cámara para proporcionar información, lo que permite una mayor libertad de movimiento.

Desafíos

Existen muchos desafíos asociados con la precisión y utilidad del reconocimiento de gestos y el software diseñado para implementarlo. Para el reconocimiento de gestos basado en imágenes, existen limitaciones en el equipo utilizado y el ruido de la imagen . Es posible que las imágenes o el video no estén bajo una iluminación uniforme o en la misma ubicación. Los elementos en el fondo o las características distintivas de los usuarios pueden dificultar el reconocimiento.

La variedad de implementaciones para el reconocimiento de gestos basado en imágenes también puede causar problemas con la viabilidad de la tecnología para el uso general. Por ejemplo, un algoritmo calibrado para una cámara puede no funcionar para otra cámara. La cantidad de ruido de fondo también causa dificultades de seguimiento y reconocimiento, especialmente cuando se producen oclusiones (parciales y totales). Además, la distancia desde la cámara y la resolución y calidad de la cámara también causan variaciones en la precisión del reconocimiento.

Para capturar gestos humanos mediante sensores visuales, también se requieren métodos robustos de visión por computadora, por ejemplo, para el seguimiento de la mano y el reconocimiento de la postura de la mano [32] [33] [34] [35] [36] [37] [38] [39] [40] o para capturar movimientos de la cabeza, expresiones faciales o dirección de la mirada.

Aceptabilidad social

Un desafío importante para la adopción de interfaces gestuales en dispositivos móviles de consumo, como teléfonos inteligentes y relojes inteligentes, se deriva de las implicaciones de aceptabilidad social de la entrada gestual. Si bien los gestos pueden facilitar la entrada rápida y precisa en muchas computadoras de formato novedoso, su adopción y utilidad a menudo se ven limitadas por factores sociales en lugar de técnicos. Con este fin, los diseñadores de métodos de entrada gestual pueden tratar de equilibrar tanto las consideraciones técnicas como la disposición del usuario a realizar gestos en diferentes contextos sociales. [41] Además, diferentes dispositivos de hardware y mecanismos de detección admiten diferentes tipos de gestos reconocibles.

Dispositivo móvil

Las interfaces de gestos en dispositivos móviles y de formato pequeño suelen estar respaldadas por la presencia de sensores de movimiento, como unidades de medición inercial (IMU). En estos dispositivos, la detección de gestos depende de que los usuarios realicen gestos basados ​​en el movimiento que puedan ser reconocidos por estos sensores de movimiento. Esto puede dificultar potencialmente la captura de señales de gestos sutiles o de poco movimiento, ya que pueden volverse difíciles de distinguir de los movimientos naturales o el ruido. A través de una encuesta y un estudio de la usabilidad de los gestos, los investigadores descubrieron que los gestos que incorporan un movimiento sutil, que parecen similares a la tecnología existente, se ven o se sienten similares a cada acción y son agradables tenían más probabilidades de ser aceptados por los usuarios, mientras que los gestos que parecen extraños, son incómodos de realizar, interfieren con la comunicación o implican un movimiento poco común hicieron que los usuarios tuvieran más probabilidades de rechazar su uso. [41] La aceptabilidad social de los gestos de los dispositivos móviles depende en gran medida de la naturalidad del gesto y del contexto social.

Computadoras corporales y portátiles

Los ordenadores portátiles suelen diferenciarse de los dispositivos móviles tradicionales en que su uso y la ubicación de la interacción se producen en el cuerpo del usuario. En estos contextos, las interfaces gestuales pueden llegar a ser preferidas a los métodos de entrada tradicionales, ya que su pequeño tamaño hace que las pantallas táctiles o los teclados sean menos atractivos. Sin embargo, comparten muchos de los mismos obstáculos de aceptabilidad social que los dispositivos móviles cuando se trata de interacción gestual. Sin embargo, la posibilidad de que los ordenadores portátiles se oculten a la vista o se integren en otros objetos cotidianos, como la ropa, permite la entrada gestual para imitar interacciones comunes con la ropa, como ajustar el cuello de una camisa o frotar el bolsillo delantero del pantalón. [42] [43] Una consideración importante para la interacción con ordenadores portátiles es la ubicación de la colocación y la interacción del dispositivo. Un estudio que exploró las actitudes de terceros hacia la interacción con dispositivos portátiles realizado en Estados Unidos y Corea del Sur encontró diferencias en la percepción del uso de la informática portátil de hombres y mujeres, en parte debido a las diferentes áreas del cuerpo consideradas socialmente sensibles. [43] Otro estudio que investigó la aceptabilidad social de las interfaces proyectadas sobre el cuerpo encontró resultados similares: ambos estudios etiquetaron las áreas alrededor de la cintura, la ingle y la parte superior del cuerpo (para mujeres) como las menos aceptables, mientras que las áreas alrededor del antebrazo y la muñeca como las más aceptables. [44]

Instalaciones públicas

Las instalaciones públicas , como las pantallas públicas interactivas, permiten el acceso a información y muestran medios interactivos en entornos públicos como museos, galerías y teatros. [45] Si bien las pantallas táctiles son una forma frecuente de entrada para las pantallas públicas, las interfaces gestuales brindan beneficios adicionales, como una mejor higiene, interacción a distancia y una mejor capacidad de descubrimiento, y pueden favorecer la interacción performativa. [42] Una consideración importante para la interacción gestual con pantallas públicas es la alta probabilidad o expectativa de una audiencia de espectadores. [45]

Fatiga

La fatiga de los brazos era un efecto secundario del uso de pantallas táctiles o lápices ópticos orientados verticalmente. En períodos de uso prolongado, los brazos de los usuarios comenzaban a sentirse fatigados y/o incómodos. Este efecto contribuyó a la disminución de la interacción con pantallas táctiles a pesar de su popularidad inicial en la década de 1980. [46] [47]

Para medir los efectos secundarios de la fatiga del brazo, los investigadores desarrollaron una técnica llamada Resistencia consumida. [48] [49]

Véase también

Referencias

  1. ^ ab Kobylarz, Jhonatan; Bird, Jordan J.; Faria, Diego R.; Ribeiro, Eduardo Parente; Ekárt, Anikó (7 de marzo de 2020). "Pulgares arriba, pulgares abajo: interacción no verbal humano-robot a través de la clasificación EMG en tiempo real mediante aprendizaje de transferencia transductiva inductiva y supervisada" (PDF) . Revista de inteligencia ambiental y computación humanizada . 11 (12). Springer Science and Business Media LLC: 6021–6031. doi : 10.1007/s12652-020-01852-z . ISSN  1868-5137.
  2. ^ Matthias Rehm, Nikolaus Bee, Elisabeth André, Saluda como un egipcio: reconocimiento de gestos basado en acelerómetro para interacciones culturales específicas, British Computer Society, 2007
  3. ^ "Informe de reconocimiento de gestos de la mano sobre paisajes de patentes PatSeer Pro". PatSeer . Archivado desde el original el 2019-10-20 . Consultado el 2017-11-02 .
  4. ^ Chai, Xiujuan, et al. "Reconocimiento y traducción del lenguaje de señas con Kinect Archivado el 10 de enero de 2021 en Wayback Machine ". Conferencia IEEE sobre AFGR. Vol. 655. 2013.
  5. ^ Sultana A, Rajapuspha T (2012), "Reconocimiento de gestos basado en la visión para gestos manuales alfabéticos utilizando el clasificador SVM" [ enlace muerto permanente ] , Revista internacional de ciencias de la computación y tecnología de ingeniería (IJCSET)., 2012
  6. ^ Pavlovic, V., Sharma, R. y Huang, T. (1997), "Interpretación visual de gestos manuales para la interacción hombre-computadora: una revisión", IEEE Transactions on Pattern Analysis and Machine Intelligence, julio de 1997. Vol. 19(7), págs. 677-695.
  7. ^ R. Cipolla y A. Pentland, Visión artificial para la interacción hombre-máquina, Cambridge University Press, 1998, ISBN 978-0-521-62253-0 
  8. ^ Ying Wu y Thomas S. Huang, "Reconocimiento de gestos basado en la visión: una revisión" Archivado el 25 de agosto de 2011 en Wayback Machine , en: Comunicación basada en gestos en la interacción hombre-ordenador, volumen 1739 de Springer Lecture Notes in Computer Science, páginas 103-115, 1999, ISBN 978-3-540-66935-7 , doi :10.1007/3-540-46616-9 
  9. ^ Alejandro Jaimes y Nicu Sebe, Interacción multimodal entre humanos y computadoras: una encuesta Archivado el 6 de junio de 2011 en Wayback Machine , Computer Vision and Image Understanding Volumen 108, números 1 y 2, octubre-noviembre de 2007, páginas 116-134 Número especial sobre visión para la interacción entre humanos y computadoras, doi : 10.1016/j.cviu.2006.10.019
  10. ^ Dopertchouk, Oleg; "Reconocimiento de gestos de escritura a mano", gamedev.net , 9 de enero de 2004
  11. ^ Chen, Shijie; "Técnicas de reconocimiento de gestos en la aplicación del reconocimiento de escritura a mano", Frontiers in Handwriting Recognition , págs. 142-147, noviembre de 2010
  12. ^ Balaji, R; Deepu, V; Madhvanath, Sriganesh; Prabhakaran, Jayasree "Reconocimiento de gestos escritos a mano para teclados gestuales" Archivado el 6 de septiembre de 2008 en Wayback Machine , Hewlett-Packard Laboratories
  13. ^ Dietrich Kammer, Mandy Keck, Georg Freitag, Markus Wacker, Taxonomía y descripción general de los marcos multitáctiles: arquitectura, alcance y características Archivado el 25 de enero de 2011 en Wayback Machine.
  14. ^ "Definición de interfaz de usuario sin contacto de la Enciclopedia PC Magazine". pcmag.com . Consultado el 28 de julio de 2017 .
  15. ^ "La necesidad emergente de tecnologías de interacción sin contacto". ResearchGate . Consultado el 30 de junio de 2021 .
  16. ^ S. Benford; H. Schnadelbach; B. Koleva; B. Gaver; A. Schmidt; A. Boucher; A. Steed; R. Anastasi; C. Greenhalgh; T. Rodden; H. Gellersen (2003). "Sensible, sensato y deseable: un marco para diseñar interfaces físicas" (PDF) . CiteSeerX 10.1.1.190.2504 . Archivado desde el original (PDF) el 26 de enero de 2006.  {{cite journal}}: Requiere citar revista |journal=( ayuda )
  17. ^ Thomas G. Zimmerman, Jaron Lanier, Chuck Blanchard, Steve Bryson y Young Harvill. http://portal.acm.org. "UN DISPOSITIVO DE INTERFAZ DE GESTOS CON LA MANO Archivado el 2 de octubre de 2011 en Wayback Machine ." http://portal.acm.org.
  18. ^ Yang Liu, Yunde Jia, Un método robusto de seguimiento de manos y reconocimiento de gestos para interfaces visuales portátiles y sus aplicaciones, Actas de la Tercera Conferencia Internacional sobre Imágenes y Gráficos (ICIG'04), 2004
  19. ^ Kue-Bum Lee, Jung-Hyun Kim, Kwang-Seok Hong, Una implementación de una interfaz de juego multimodal basada en PDA, Quinta Conferencia Internacional sobre Investigación, Gestión y Aplicaciones de Ingeniería de Software, 2007
  20. ^ "Gestigon Gesture Tracking - TechCrunch Disrupt". TechCrunch . Consultado el 11 de octubre de 2016 .
  21. ^ Matney, Lucas (29 de agosto de 2016). «uSens muestra nuevos sensores de seguimiento que buscan ofrecer experiencias más completas para la realidad virtual móvil». TechCrunch . Consultado el 29 de agosto de 2016 .
  22. ^ Khalili, Abdullah; Soliman, Abdel-Hamid; Asaduzzaman, Md; Griffiths, Alison (marzo de 2020). "Detección Wi-Fi: aplicaciones y desafíos". The Journal of Engineering . 2020 (3): 87–97. arXiv : 1901.00715 . doi : 10.1049/joe.2019.0790 . ISSN  2051-3305.
  23. ^ Per Malmestig, Sofie Sundberg, SignWiiver – implementación de tecnología de lenguaje de señas Archivado el 25 de diciembre de 2008 en Wayback Machine.
  24. ^ Thomas Schlomer, Benjamin Poppinga, Niels Henze, Susanne Boll, Reconocimiento de gestos con un controlador Wii Archivado el 27 de julio de 2013 en Wayback Machine , Actas de la 2.ª Conferencia internacional sobre interacción tangible e integrada, 2008
  25. ^ AiLive Inc., Libro blanco de LiveMove Archivado el 13 de julio de 2007 en Wayback Machine , 2006
  26. ^ Diseño electrónico 8 de septiembre de 2011. William Wong. La interfaz de usuario natural emplea la integración de sensores.
  27. ^ Cable & Satellite International Septiembre/Octubre de 2011. Stephen Cousins. Una mirada a una película emocionante. Archivado el 19 de enero de 2012 en Wayback Machine.
  28. ^ TechJournal South 7 de enero de 2008. Hillcrest Labs cierra una ronda de financiación de 25 millones de dólares.
  29. ^ Blog de Percussa AudioCubes, 4 de octubre de 2012. Control gestual en la síntesis de sonido. Archivado el 10 de septiembre de 2015 en Wayback Machine.
  30. ^ Mamtaz Alam; Dileep Kumar Tiwari (2016). "Reconocimiento de gestos y sus aplicaciones". doi :10.13140/RG.2.2.28139.54563. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  31. ^ Vladimir I. Pavlovic, Rajeev Sharma, Thomas S. Huang, Interpretación visual de gestos manuales para la interacción hombre-ordenador; una revisión, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997
  32. ^ Ivan Laptev y Tony Lindeberg "Seguimiento de modelos de manos de múltiples estados mediante filtrado de partículas y una jerarquía de características de imágenes de múltiples escalas", Proceedings Scale-Space and Morphology in Computer Vision, Volumen 2106 de Springer Lecture Notes in Computer Science, páginas 63-74, Vancouver, BC, 1999. ISBN 978-3-540-42317-1 , doi :10.1007/3-540-47778-0 
  33. ^ von Hardenberg, Christian; Bérard, François (2001). "Interacción hombre-ordenador con las manos desnudas". Actas del taller de 2001 sobre interfaces de usuario perceptivas . Serie de actas de conferencias internacionales de la ACM. Archivo del vol. 15. Orlando, Florida. págs. 1–8. CiteSeerX 10.1.1.23.4541 . 
  34. ^ Lars Bretzner, Ivan Laptev, Tony Lindeberg "Reconocimiento de gestos de la mano mediante características de color de múltiples escalas, modelos jerárquicos y filtrado de partículas", Actas de la Quinta Conferencia Internacional IEEE sobre Reconocimiento Automático de Rostros y Gestos, Washington, DC, EE. UU., 21-21 de mayo de 2002, páginas 423-428. ISBN 0-7695-1602-5 , doi :10.1109/AFGR.2002.1004190 
  35. ^ Domitilla Del Vecchio , Richard M. Murray Pietro Perona, "Descomposición del movimiento humano en primitivos basados ​​en dinámica con aplicación a tareas de dibujo" Archivado el 2 de febrero de 2010 en Wayback Machine , Automatica Volumen 39, Número 12, diciembre de 2003, Páginas 2085–2098, doi :10.1016/S0005-1098(03)00250-4.
  36. ^ Thomas B. Moeslund y Lau Nørgaard, "Una breve descripción general de los gestos manuales utilizados en interfaces portátiles entre humanos y computadoras", archivado el 19 de julio de 2011 en Wayback Machine , Informe técnico: CVMT 03-02, ISSN  1601-3646, Laboratorio de Visión por Computadora y Tecnología de Medios, Universidad de Aalborg, Dinamarca.
  37. ^ M. Kolsch y M. Turk "Seguimiento rápido de manos en 2D con grupos de características e integración de múltiples señales" Archivado el 21 de agosto de 2008 en Wayback Machine , CVPRW '04. Actas del taller Computer Vision and Pattern Recognition, 27 de mayo-2 de junio de 2004, doi :10.1109/CVPR.2004.71
  38. ^ Xia Liu Fujimura, K., "Reconocimiento de gestos de la mano utilizando datos de profundidad", Actas de la Sexta Conferencia Internacional IEEE sobre Reconocimiento Automático de Rostros y Gestos, 17-19 de mayo de 2004, páginas 529-534, ISBN 0-7695-2122-3 , doi :10.1109/AFGR.2004.1301587. 
  39. ^ Stenger B, Thayananthan A, Torr PH, Cipolla R: "Seguimiento de manos basado en modelos utilizando un filtro bayesiano jerárquico", IEEE Transactions on IEEE Transactions on Pattern Analysis and Machine Intelligence, 28(9):1372-84, septiembre de 2006.
  40. ^ A Erol, G Bebis, M Nicolescu, RD Boyle, X Twombly, "Estimación de la postura de la mano basada en la visión: una revisión", Computer Vision and Image Understanding Volumen 108, Números 1-2, octubre-noviembre de 2007, Páginas 52-73, Número especial sobre visión para la interacción hombre-computadora, doi :10.1016/j.cviu.2006.10.012.
  41. ^ ab Rico, Julie; Brewster, Stephen (2010). "Gestos utilizables para interfaces móviles". Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . CHI '10. Nueva York, NY, EE. UU.: ACM. págs. 887–896. doi :10.1145/1753326.1753458. ISBN 9781605589299.S2CID16118067  .​
  42. ^ de Walter, Robert; Bailly, Gilles; Müller, Jörg (2013). "StrikeAPose". Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . Nueva York, Nueva York, EE. UU.: ACM Press. págs. 841–850. doi :10.1145/2470654.2470774. ISBN 9781450318990.S2CID2041073  .​
  43. ^ ab Profita, Halley P.; Clawson, James; Gilliland, Scott; Zeagler, Clint; Starner, Thad; Budd, Jim; Do, Ellen Yi-Luen (2013). "No te preocupes por tocarme la muñeca". Actas del Simposio Internacional de 2013 sobre Computadoras Portátiles . ISWC '13. Nueva York, NY, EE. UU.: ACM. págs. 89–96. doi :10.1145/2493988.2494331. ISBN 9781450321273. Número de identificación del sujeto  3236927.
  44. ^ Harrison, Chris; Faste, Haakon (2014). "Implicaciones de la ubicación y el tacto para interfaces proyectadas sobre el cuerpo". Actas de la conferencia de 2014 sobre Diseño de sistemas interactivos . DIS '14. Nueva York, NY, EE. UU.: ACM. págs. 543–552. doi :10.1145/2598510.2598587. ISBN 9781450329026.S2CID1121501  .​
  45. ^ ab Reeves, Stuart; Benford, Steve; O'Malley, Claire; Fraser, Mike (2005). "Designing the viewer experience" (PDF) . Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos (PDF) . Nueva York, Nueva York, EE. UU.: ACM Press. págs. 741–750. doi :10.1145/1054972.1055074. ISBN 978-1581139983. Número de identificación del sujeto  5739231.
  46. ^ Rupert Goodwins. "¿Windows 7? No tiene brazo". ZDNet .
  47. ^ "brazo de gorila". catb.org .
  48. ^ Hincapié-Ramos, JD, Guo, X., Moghadasian, P. e Irani. P. 2014. "Resistencia consumida: una métrica para cuantificar la fatiga del brazo en interacciones en el aire". En Actas de la 32.ª conferencia anual de la ACM sobre factores humanos en sistemas informáticos (CHI '14). ACM, Nueva York, NY, EE. UU., 1063–1072. DOI=10.1145/2556288.2557130
  49. ^ Hincapié-Ramos, JD, Guo, X., y Irani, P. 2014. "The Consumed Endurance Workbench: A Tool to Assess Arm Fatigue During Mid-Air Interactions" (El banco de trabajo de resistencia consumida: una herramienta para evaluar la fatiga del brazo durante las interacciones en el aire). En las actas de la publicación complementaria de 2014 sobre el diseño de sistemas interactivos (DIS Companion '14). ACM, Nueva York, NY, EE. UU., 109-112. DOI=10.1145/2598784.2602795

Enlaces externos