stringtranslate.com

Servicio visual

El servovisual , también conocido como control de robot basado en visión y abreviado VS , es una técnica que utiliza información de retroalimentación extraída de un sensor de visión (retroalimentación visual [1] ) para controlar el movimiento de un robot . Uno de los primeros artículos que habla sobre el servo visual fue el de SRI International Labs en 1979. [2]

Taxonomía de servicio visual

Un ejemplo de servo visual en un sistema de captura de alta velocidad [3]

Hay dos configuraciones fundamentales del efector final del robot (mano) y la cámara: [4]

Las técnicas de control de Visual Servoing se clasifican en términos generales en los siguientes tipos: [5] [6]

El IBVS fue propuesto por Weiss y Sanderson. [7] La ​​ley de control se basa en el error entre las características actuales y deseadas en el plano de la imagen, y no implica ninguna estimación de la pose del objetivo. Las características pueden ser las coordenadas de características visuales, líneas o momentos de regiones. IBVS tiene dificultades [8] con movimientos de rotación muy grandes, lo que se ha dado en llamar retroceso de cámara. [9]

PBVS es una técnica basada en modelos (con una sola cámara). Esto se debe a que se estima la pose del objeto de interés con respecto a la cámara y luego se emite un comando al controlador del robot, que a su vez controla el robot. En este caso, las características de la imagen también se extraen, pero se utilizan adicionalmente para estimar información 3D ( pose del objeto en el espacio cartesiano), por lo que se trata de servicio en 3D.

Los enfoques híbridos utilizan alguna combinación de servo 2D y 3D. Ha habido algunos enfoques diferentes para el servo híbrido.

Encuesta

La siguiente descripción del trabajo previo se divide en 3 partes.

Estudio de los métodos de servo visual existentes

Los sistemas de servo visual, también llamados servoing, existen desde principios de la década de 1980, [11] aunque el término servo visual en sí no se acuñó hasta 1987. [4] [5] [6] Visual Servoing es, en esencia, un método para Control de robot donde el sensor utilizado es una cámara (sensor visual). El servoing consta principalmente de dos técnicas, [6] una implica el uso de información de la imagen para controlar directamente los grados de libertad (DOF) del robot, lo que se conoce como servoing visual basado en imágenes (IBVS). Mientras que el otro implica la interpretación geométrica de la información extraída de la cámara, como estimar la pose del objetivo y los parámetros de la cámara (suponiendo que se conozca algún modelo básico del objetivo). Existen otras clasificaciones de servos basadas en las variaciones en cada componente de un sistema de servos, [5] por ejemplo, la ubicación de la cámara; los dos tipos son configuraciones ojo en mano y mano-ojo. Según el bucle de control, los dos tipos son bucle abierto de punto final y bucle cerrado de punto final. Según si el control se aplica a las articulaciones (o DOF) directamente o como un comando de posición a un controlador de robot, los dos tipos son servodirecto y mirar y mover dinámico. Siendo uno de los primeros trabajos [12], los autores propusieron un esquema de servo visual jerárquico aplicado al servo basado en imágenes. La técnica se basa en el supuesto de que se puede extraer un buen conjunto de características del objeto de interés (por ejemplo, bordes, esquinas y centroides) y utilizarlo como modelo parcial junto con modelos globales de la escena y el robot. La estrategia de control se aplica a una simulación de un brazo robótico de dos y tres grados de libertad.

Feddema et al. [13] introdujo la idea de generar la trayectoria de la tarea con respecto a la velocidad de la característica. Esto es para garantizar que los sensores no queden ineficaces (deteniendo la retroalimentación) ante ningún movimiento del robot. Los autores suponen que los objetos se conocen a priori (por ejemplo, modelo CAD) y que se pueden extraer todas las características del objeto. El trabajo de Espiau et al. [14] analiza algunas de las cuestiones básicas del servo visual. Las discusiones se concentran en el modelado de la matriz de interacción, la cámara, las características visuales (puntos, líneas, etc.). En [15] se propuso un sistema de servo adaptable con una arquitectura de servo de mirar y mover. El método utilizó flujo óptico junto con SSD para proporcionar una métrica de confianza y un controlador estocástico con filtrado de Kalman para el esquema de control. El sistema supone (en los ejemplos) que el plano de la cámara y el plano de las características son paralelos. [16] analiza un enfoque de control de velocidad utilizando la relación jacobiana s˙ = Jv˙. Además, el autor utiliza el filtrado de Kalman, asumiendo que la posición extraída del objetivo tiene errores inherentes (errores del sensor). Se desarrolla un modelo de la velocidad objetivo y se utiliza como entrada de avance en el circuito de control. Además, menciona la importancia de analizar la discrepancia cinemática, los efectos dinámicos, la repetibilidad, las oscilaciones del tiempo de estabilización y el retraso en la respuesta.

Corke [17] plantea una serie de preguntas muy críticas sobre el servocontrol visual e intenta desarrollar sus implicaciones. El artículo se centra principalmente en la dinámica del servo visual. El autor intenta abordar problemas como el retraso y la estabilidad, al mismo tiempo que habla de rutas de avance en el circuito de control. El artículo también intenta buscar justificación para la generación de trayectorias, la metodología de control de ejes y el desarrollo de métricas de desempeño.

Chaumette en [18] proporciona una buena visión de los dos problemas principales del IBVS. Uno, servir a un mínimo local y segundo, alcanzar una singularidad jacobiana. El autor muestra que los puntos de la imagen por sí solos no constituyen buenas características debido a la aparición de singularidades. El artículo continúa discutiendo las posibles comprobaciones adicionales para evitar singularidades, es decir, números de condición de J_s y Jˆ+_s, para verificar el espacio nulo de ˆ J_s y J^T_s. Un punto principal que destaca el autor es la relación entre los mínimos locales y los movimientos irrealizables de las características de la imagen.

A lo largo de los años se han desarrollado muchas técnicas híbridas. [4] Estos implican calcular la pose parcial/completa de la Geometría Epipolar utilizando múltiples vistas o múltiples cámaras. Los valores se obtienen por estimación directa o mediante un aprendizaje o un esquema estadístico. Mientras que otros han utilizado un enfoque de conmutación que cambia entre basado en imágenes y basado en posición según una función de Lyapnov. [4] Las primeras técnicas híbridas que utilizaban una combinación de enfoques basados ​​en imágenes y en pose (información 2D y 3D) para servomotores requerían un modelo completo o parcial del objeto para extraer la información de pose y utilizaban una variedad de Técnicas para extraer la información de movimiento de la imagen. [19] utilizaron un modelo de movimiento afín del movimiento de la imagen además de un modelo CAD poliédrico aproximado para extraer la pose del objeto con respecto a la cámara para poder realizar un servo sobre el objeto (en las líneas de PBVS).

Servovisual 2-1/2-D desarrollado por Malis et al. [20] es una técnica bien conocida que descompone la información requerida para el servicio en una forma organizada que desacopla rotaciones y traslaciones. Los artículos suponen que la pose deseada se conoce a priori. La información de rotación se obtiene a partir de una estimación de pose parcial, una homografía (esencialmente información 3D) que proporciona un eje de rotación y el ángulo (calculando los valores propios y los vectores propios de la homografía). La información traslacional se obtiene de la imagen directamente mediante el seguimiento de un conjunto de puntos característicos. Las únicas condiciones son que los puntos característicos que se rastrean nunca abandonen el campo de visión y que una estimación de profundidad esté predeterminada mediante alguna técnica fuera de línea. Se ha demostrado que el servo 2-1/2-D es más estable que las técnicas que lo precedieron. Otra observación interesante con esta formulación es que los autores afirman que el jacobiano visual no tendrá singularidades durante los movimientos. La técnica híbrida desarrollada por Corke y Hutchinson, [21] [22] popularmente llamada enfoque porcionado divide el jacobiano visual (o imagen) en movimientos (tanto rotaciones como traslaciones) que relacionan los ejes X e Y y movimientos relacionados con el eje Z. [22] describe la técnica para dividir las columnas del jacobiano visual que corresponden a la traslación y rotación del eje Z (es decir, la tercera y sexta columnas). Se muestra que el enfoque dividido maneja el enigma de Chaumette discutido en [23] Esta técnica requiere una buena estimación de profundidad para funcionar correctamente. [24] describe un enfoque híbrido donde la tarea de servo se divide en dos, a saber, principal y secundaria. La tarea principal es mantener las características de interés dentro del campo de visión. Mientras que la tarea secundaria es marcar un punto de fijación y utilizarlo como referencia para llevar la cámara a la pose deseada. La técnica necesita una estimación de profundidad a partir de un procedimiento fuera de línea. El artículo analiza dos ejemplos en los que se obtienen estimaciones de profundidad a partir de la odometría del robot y asumiendo que todas las características están en un plano. La tarea secundaria se logra utilizando la noción de paralaje. Las características que se rastrean se eligen mediante una inicialización realizada en el primer cuadro, que normalmente son puntos. [25] lleva a cabo una discusión sobre dos aspectos del servo visual, el modelado de características y el seguimiento basado en modelos. La suposición principal que se hace es que el modelo 3D del objeto está disponible. Los autores destacan la noción de que las características ideales deben elegirse de manera que el grado de libertad del movimiento pueda desacoplarse mediante una relación lineal. Los autores también introducen una estimación de la velocidad del objetivo en la matriz de interacción para mejorar el rendimiento del seguimiento. Los resultados se comparan con técnicas de servocontrol bien conocidas, incluso cuando se producen oclusiones.

Varias funciones utilizadas y sus impactos en el servicio visual.

Esta sección analiza el trabajo realizado en el campo del servo visual. Intentamos rastrear las diversas técnicas en el uso de funciones. La mayor parte del trabajo ha utilizado puntos de imagen como características visuales. La formulación de la matriz de interacción en [5] supone que los puntos de la imagen se utilizan para representar el objetivo. Hay algunos trabajos que se desvían del uso de puntos y utilizan regiones características, líneas, momentos de imagen e invariantes de momento. [26] En [27] , los autores analizan un seguimiento basado en afinidad de las características de la imagen. Las características de la imagen se eligen en función de una medida de discrepancia, que se basa en la deformación que sufren las características. Las características utilizadas fueron parches de textura. Uno de los puntos clave del artículo fue que destacó la necesidad de analizar características para mejorar el servo visual. En [28] los autores analizan la elección de las características de la imagen (la misma cuestión también se analizó en [5] en el contexto del seguimiento). El efecto de la elección de las características de la imagen sobre la ley de control se analiza sólo con respecto al eje de profundidad. Los autores consideran características la distancia entre los puntos característicos y el área de un objeto. Estas características se utilizan en la ley de control con formas ligeramente diferentes para resaltar los efectos sobre el rendimiento. Se observó que se lograba un mejor rendimiento cuando el error del servo era proporcional al cambio en el eje de profundidad. [29] proporciona una de las primeras discusiones sobre el uso de momentos. Los autores proporcionan una nueva formulación de la matriz de interacción utilizando la velocidad de los momentos en la imagen, aunque complicada. Aunque se utilizan los momentos, los momentos son del pequeño cambio en la ubicación de los puntos de contorno con el uso del teorema de Green. El artículo también intenta determinar el conjunto de características (en un plano) de un robot de 6 grados de libertad. En [30] se analiza el uso de momentos de imagen para formular el jacobiano visual. Esta formulación permite desacoplar el DOF según el tipo de momentos elegidos. El caso simple de esta formulación es teóricamente similar al servocontrol 2-1/2-D. [30] La variación temporal de los momentos (m˙ij) se determina utilizando el movimiento entre dos imágenes y el teorema de Green. La relación entre m˙ij y el tornillo de velocidad (v) se da como m˙_ij = L_m_ij v. Esta técnica evita la calibración de la cámara al suponer que los objetos son planos y utilizar una estimación de profundidad. La técnica funciona bien en el caso plano pero tiende a ser complicada en el caso general. La idea básica se basa en el trabajo de [4] en el que se han utilizado las invariantes de momento. [31]La idea clave es encontrar el vector de características que desacople todos los grados de libertad del movimiento. Algunas observaciones realizadas fueron que los momentos centralizados son invariantes para las traducciones 2D. Se desarrolla una forma polinómica complicada para rotaciones 2D. La técnica sigue la enseñanza mostrando, por lo que requiere los valores de profundidad y área del objeto deseados (asumiendo que el plano de la cámara y el objeto son paralelos y el objeto es plano). Otras partes del vector de características son las invariantes R3, R4. Los autores afirman que las oclusiones se pueden tratar. [32] y [33] se basan en el trabajo descrito en. [29] [31] [32] La principal diferencia es que los autores utilizan una técnica similar a [16] donde la tarea se divide en dos (en (el caso en el que las características no son paralelas al plano de la cámara). Se realiza una rotación virtual para llevar la imagen paralela al plano de la cámara. [34] consolida el trabajo realizado por los autores sobre los momentos de la imagen.

Análisis de errores y estabilidad de esquemas de servo visual.

Espiau en [35] demostró a partir de un trabajo puramente experimental que el servo visual basado en imágenes (IBVS) es resistente a los errores de calibración. El autor utilizó una cámara sin calibración explícita junto con coincidencia de puntos y sin estimación de pose. El artículo analiza el efecto de los errores y la incertidumbre sobre los términos de la matriz de interacción desde un enfoque experimental. Los objetivos utilizados fueron puntos y se supuso que eran planos.

Se realizó un estudio similar en [36] donde los autores llevan a cabo una evaluación experimental de algunos servosistemas visuales no calibrados que fueron populares en los años 90. El principal resultado fue la evidencia experimental de la eficacia del servocontrol visual sobre los métodos de control convencionales. Kyrki et al. [37] analizan los errores de servo para el servo basado en la posición y visual 2-1/2-D. La técnica implica determinar el error al extraer la posición de la imagen y propagarla para estimar la postura y controlar el servo. Los puntos de la imagen se asignan a puntos del mundo a priori para obtener un mapeo (que es básicamente la homografía, aunque no se indica explícitamente en el artículo). Este mapeo se divide en rotaciones y traslaciones puras. La estimación de la pose se realiza utilizando una técnica estándar de Computer Vision. Los errores de píxeles se transforman en la pose. Estos se están propagando al controlador. Una observación del análisis muestra que los errores en el plano de la imagen son proporcionales a la profundidad y el error en el eje de profundidad es proporcional al cuadrado de la profundidad. Se han estudiado exhaustivamente los errores de medición en el servocontrol visual. La mayoría de las funciones de error se relacionan con dos aspectos del servo visual. Uno es el error de estado estable (una vez activado) y dos sobre la estabilidad del bucle de control. Otros errores de servo que han sido de interés son los que surgen de la estimación de pose y la calibración de la cámara. En [38] los autores amplían el trabajo realizado en [39] al considerar la estabilidad global en presencia de errores de calibración intrínsecos y extrínsecos. [40] proporciona un enfoque para limitar el error de seguimiento de la función de tarea. En [41] los autores utilizan la técnica de enseñanza mediante demostración visual. Donde la pose deseada se conoce a priori y el robot se mueve desde una pose determinada. El objetivo principal del artículo es determinar el límite superior del error de posicionamiento debido al ruido de la imagen utilizando una técnica de optimización convexa. [42] proporciona una discusión sobre el análisis de estabilidad con respecto a las estimaciones de incertidumbre en profundidad. Los autores concluyen el artículo con la observación de que para una geometría de objetivo desconocida se requiere una estimación de profundidad más precisa para limitar el error. Muchas de las técnicas de servo visual [21] [22] [43] asumen implícitamente que solo hay un objeto presente en la imagen y que la característica relevante para el seguimiento junto con el área del objeto está disponible. La mayoría de las técnicas requieren una estimación parcial de la pose o una estimación precisa de la profundidad de la pose actual y deseada.

Software

Ver también

Referencias

  1. ^ "Concepto básico y términos técnicos". Laboratorio Ishikawa Watanabe, Universidad de Tokio . Consultado el 12 de febrero de 2015 .
  2. ^ Agin, GJ, "Control en tiempo real de un robot con una cámara móvil". Nota técnica 179, SRI International, febrero de 1979.
  3. ^ "Sistema de captura de alta velocidad (expuesto en el Museo Nacional de Ciencias Emergentes e Innovación desde 2005)". Laboratorio Ishikawa Watanabe, Universidad de Tokio . Consultado el 12 de febrero de 2015 .
  4. ^ abcd F. Chaumette, S. Hutchinson. Servocontrol visual, Parte II: Enfoques avanzados. Revista IEEE Robotics and Automation, 14(1):109-118, marzo de 2007
  5. ^ abcde SA Hutchinson, GD Hager y PI Corke. Un tutorial sobre control servo visual. Traducción IEEE. Robot. Automat., 12(5):651--670, octubre de 1996.
  6. ^ abc F. Chaumette, S. Hutchinson. Servocontrol visual, Parte I: Enfoques básicos. Revista IEEE Robotics and Automation, 13(4):82-90, diciembre de 2006
  7. ^ AC Sanderson y LE Weiss. Servocontrol visual adaptativo de robots. En A. Pugh, editor, Robot Vision, páginas 107–116. FIS, 1983
  8. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servo visual basado en imágenes y en posición. En D. Kriegman, G. Hager y S. Morse, editores, The confluence of vision and control, volumen 237 de Lecture Notes in Control and Information Sciences, páginas 66–78. Springer-Verlag, 1998.
  9. ^ ab P. Corke y SA Hutchinson (agosto de 2001), "Un nuevo enfoque dividido para el servocontrol visual basado en imágenes", IEEE Trans. Robot. Automático. , 17 (4): 507–515, doi :10.1109/70.954764
  10. ^ E. Malis, F. Chaumette y S. Boudet, servovisual 2,5 D, IEEE Transactions on Robotics and Automation, 15(2):238-250, 1999
  11. ^ GJ otra vez. Sistema de visión por ordenador para inspección y montaje industrial. Computadora IEEE, páginas 11 a 20, 1979
  12. ^ Lee E. Weiss, Arthur C. Sanderson y Charles P. Neuman. Control dinámico de robots basado en sensores con retroalimentación visual. IEEE Transactions on Robotics and Automation, 3(5):404–417, octubre de 1987
  13. ^ JT Feddema y OR Mitchell. Servocontrol guiado por visión con generación de trayectoria basada en características. IEEE Transactions on Robotics and Automation, 5(5):691–700, octubre de 1989
  14. ^ B. Espiau, F. Chaumette y P. Rives. Un nuevo enfoque del servo visual en robótica. IEEE Transactions on Robotics and Automation, 8(3):313–326, junio de 1992
  15. ^ NP Papanikopoulos y Khosla PK Seguimiento visual robótico adaptativo: teoría y experimentos. IEEE Transactions on Automatic Control, 38(3):429–445, marzo de 1993
  16. ^ ab P. Corke. Experimentos en servovisión visual robótica de alto rendimiento. En Simposio Internacional sobre Robótica Experimental, octubre de 1993.
  17. ^ P. Corke. Problemas dinámicos en sistemas de servovisuales de robots. En Simposio internacional sobre investigación en robótica, páginas 488–498, 1995.
  18. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servo visual basado en imágenes y en posición. En D. Kriegman, G. Hagar y S. Morse, editores, Confluence of Vision and Control, Lecture Notes in Control and Information Systems, volumen 237, páginas 66–78. Springer-Verlag, 1998
  19. ^ E Marchand, P. Bouthemy, F Chaumette y V. Moreau. Seguimiento visual sólido mediante el acoplamiento de la estimación de pose 2D y 3D. En Actas de la Conferencia Internacional IEEE sobre Procesamiento de Imágenes, 1999.
  20. ^ E. Malis. Control de robot híbrido basado en visión resistente a grandes errores de calibración en parámetros de cámara tanto intrínsecos como extrínsecos. En European Control Conference, páginas 289–293, septiembre de 2001.
  21. ^ ab P. Corke y S. Hutchinson. Un nuevo esquema de servocontrol visual híbrido basado en imágenes. En actas de la 39.ª Conferencia del IEEE sobre decisión y control, diciembre de 2000
  22. ^ a b C P. Corke y S. Hutchinson. Un nuevo enfoque dividido para el servocontrol visual basado en imágenes. IEEE Transactions on Robotics and Automation, 17(4):507–515, agosto de 2001
  23. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servo visual basado en imágenes y en posición. En D. Kriegman, G. Hagar y S. Morse, editores, Confluence of Vision and Control, Lecture Notes in Control and Information Systems, volumen 237, páginas 66–78. Springer-Verlag, 1998
  24. ^ C. Collewet y F. Chaumette. Posicionar una cámara con respecto a objetos planos de formas desconocidas mediante el acoplamiento de servovisuales bidimensionales y estimaciones tridimensionales. IEEE Transactions on Robotics and Automation, 18(3):322–333, junio de 2002
  25. ^ F. Chaumette y E. Marchand. Resultados recientes en servo visual para aplicaciones robóticas, 2013
  26. ^ N. Andreff, B. Espiau y R. Horaud. Servicio visual desde líneas. En En Conferencia Internacional sobre Robótica y Automatización, San Francisco, abril de 2000
  27. ^ J. Shi y C. Tomasi. Buenas características para rastrear. En Actas de la Conferencia IEEE sobre visión por computadora y reconocimiento de patrones, páginas 593–600, 1994
  28. ^ R. Mahony, P. Corke y F. Chaumette. Elección de funciones de imagen para el control del eje de profundidad en el servocontrol visual basado en imágenes. En Actas de la Conferencia IEEE sobre robots y sistemas inteligentes, páginas 390–395, octubre de 2002
  29. ^ ab F. Chaumette. Un primer paso hacia el servo visual utilizando momentos de imágenes. En Actas de la Conferencia IEEE sobre Robots y Sistemas Inteligentes, páginas 378–383, octubre de 2002.
  30. ^ ab F. Chaumette. Momento de imagen: un conjunto general y útil de características para el servo visual. IEEE Transactions on Robotics, 20(4):713–723, agosto de 2004
  31. ^ ab O. Tahri y F. Chaumette. Aplicación de invariantes de momento al servo visual. En Actas de la Conferencia IEEE sobre Robots y Automatización, páginas 4276–4281, septiembre de 2003.
  32. ^ ab O. Tahri y F. Chaumette. Momentos de imagen: descriptores genéricos para servovisión visual basada en imágenes desacopladas. En Actas de la Conferencia IEEE sobre Robótica y Automatización, páginas 1861–1867, abril de 2004
  33. ^ O. Tahri y F. Chaumette. Los objetos complejos plantean una estimación basada en invariantes de momento de la imagen. En Actas de la Conferencia IEEE sobre Robots y Automatización, páginas 436–441, abril de 2005.
  34. ^ O. Tahri y F. Chaumette. Momentos de imagen basados ​​en puntos y regiones para el control visual de objetos planos. IEEE Transactions on Robotics, 21(6):1116–1127, diciembre de 2005
  35. ^ B. Espiau. Efecto de los errores de calibración de la cámara en el servo visual en robótica. En Tercer Int. Simposio sobre Robótica Experimental, octubre de 1993.
  36. ^ M. Jagersand, O. Fuentes y R. Nelson. Evaluación experimental de servovisión visual no calibrada para manipulación de precisión. En Conferencia internacional sobre robótica y automatización, páginas 2874–2880, abril de 1997
  37. ^ V. Kyrki, D. Kragic y H Christensen. Errores de medición en el servo visual. En Actas de la Conferencia IEEE sobre Robótica y Automatización, páginas 1861–1867, abril de 2004
  38. ^ E. Malis. Control de robot híbrido basado en visión resistente a grandes errores de calibración en parámetros de cámara tanto intrínsecos como extrínsecos. En Conferencia europea de control, páginas 289–293, septiembre de 2001
  39. ^ E. Malis, F. Chaumette y S. Boudet. Servovisual 2-1/2-d. IEEE Transactions on Robotics and Automation, 15(2):238–250, abril de 1999
  40. ^ G. Morel, P. Zanne y F. Plestan. Servovisión visual robusta: limitación de los errores de seguimiento de la función de tarea. IEEE Transactions on Control System Technology, 13(6):998–1009, noviembre de 2009
  41. ^ G. Chesi y YS Hung. El ruido de la imagen induce errores en el posicionamiento de la cámara. Transacciones IEEE sobre análisis de patrones e inteligencia artificial, 29(8):1476–1480, agosto de 2007
  42. ^ E. Malis y P. Rives. Robustez del servo visual basado en imágenes con respecto a errores de distribución de profundidad. En la Conferencia Internacional IEEE sobre Robótica y Automatización, septiembre de 2003.
  43. ^ E. Malis, F. Chaumette y S. Boudet. Servovisual 2-1/2-d. IEEE Transactions on Robotics and Automation, 15(2):238–250, abril de 1999
  44. ^ E. Marchand, F. Spindler, F. Chaumette. ViSP para servovisión visual: una plataforma de software genérica con una amplia clase de habilidades de control de robots. Revista IEEE Robotics and Automation, número especial sobre "Paquetes de software para el control del movimiento basado en la visión", P. Oh, D. Burschka (Eds.), 12(4):40-52, diciembre de 2005.

enlaces externos