stringtranslate.com

Visión de máquina

El primer sistema de visión artificial Autovision II de Automatix (ahora parte de Omron ) de 1983 se demuestra en una feria comercial. La cámara sobre un trípode apunta hacia una mesa de luz para producir una imagen retroiluminada que se muestra en la pantalla, que luego se somete a una extracción de manchas .

La visión artificial ( MV ) es la tecnología y los métodos utilizados para proporcionar inspección y análisis automáticos basados ​​en imágenes para aplicaciones tales como inspección automática, control de procesos y guía de robots, generalmente en la industria. La visión artificial se refiere a muchas tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia. La visión artificial como disciplina de ingeniería de sistemas puede considerarse distinta de la visión por computadora , una forma de ciencia informática . Intenta integrar las tecnologías existentes de nuevas maneras y aplicarlas para resolver problemas del mundo real. El término es el predominante para estas funciones en entornos de automatización industrial, pero también se utiliza para estas funciones en otros entornos de guía de vehículos.

El proceso general de visión artificial incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Durante el tiempo de ejecución, el proceso comienza con la generación de imágenes, seguida del análisis automatizado de la imagen y la extracción de la información requerida.

Definición

Las definiciones del término "Visión artificial" varían, pero todas incluyen la tecnología y los métodos utilizados para extraer información de una imagen de forma automatizada, a diferencia del procesamiento de imágenes , donde el resultado es otra imagen. La información extraída puede ser una simple señal de parte buena/parte mala, o un conjunto más complejo de datos como la identidad, posición y orientación de cada objeto en una imagen. La información se puede utilizar para aplicaciones como la inspección automática y la guía de robots y procesos en la industria, para el control de seguridad y la guía de vehículos. [1] [2] [3] Este campo abarca una gran cantidad de tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia. [3] [4] La visión artificial es prácticamente el único término utilizado para estas funciones en aplicaciones de automatización industrial; el término es menos universal para estas funciones en otros entornos como la seguridad y la guía de vehículos. La visión artificial como disciplina de ingeniería de sistemas puede considerarse distinta de la visión por computadora , una forma de ciencia informática básica ; La visión artificial intenta integrar tecnologías existentes de nuevas maneras y aplicarlas para resolver problemas del mundo real de una manera que cumpla con los requisitos de la automatización industrial y áreas de aplicación similares. [3] : 5  [5] El término también se utiliza en un sentido más amplio en ferias comerciales y grupos comerciales como la Automated Imaging Association y la European Machine Vision Association. Esta definición más amplia también abarca productos y aplicaciones asociados con mayor frecuencia con el procesamiento de imágenes. [4] Los usos principales de la visión artificial son la inspección automática y la guía de procesos o robots industriales . [6] [7] : 6–10  [8] En tiempos más recientes, los términos visión por computadora y visión artificial han convergido en mayor grado. [9] : 13  Ver glosario de visión artificial .

Inspección y clasificación automáticas basadas en imágenes

Los usos principales de la visión artificial son la inspección y clasificación automáticas basadas en imágenes y la guía de robots. [6] [7] : 6–10  en esta sección la primera se abrevia como "inspección automática". El proceso general incluye planificar los detalles de los requisitos y el proyecto y luego crear una solución. [10] [11] Esta sección describe el proceso técnico que ocurre durante el funcionamiento de la solución.

Métodos y secuencia de operación.

El primer paso en la secuencia de operación de inspección automática es la adquisición de una imagen , generalmente utilizando cámaras, lentes e iluminación que ha sido diseñada para proporcionar la diferenciación requerida para el procesamiento posterior. [12] [13] Los paquetes de software de MV y los programas desarrollados en ellos emplean varias técnicas de procesamiento de imágenes digitales para extraer la información requerida y, a menudo, toman decisiones (como pasa/falla) basadas en la información extraída. [14]

Equipo

Los componentes de un sistema de inspección automática suelen incluir iluminación, una cámara u otro generador de imágenes, un procesador, software y dispositivos de salida. [7] : 11-13 

Imágenes

El dispositivo de imágenes (por ejemplo, la cámara) puede estar separado de la unidad principal de procesamiento de imágenes o combinarse con ella, en cuyo caso la combinación generalmente se denomina cámara inteligente o sensor inteligente. [15] [16] La inclusión de la función de procesamiento completa en el mismo gabinete que la cámara a menudo se denomina procesamiento integrado. [17] Cuando se separa, la conexión se puede realizar a hardware intermedio especializado, un dispositivo de procesamiento personalizado o un capturador de fotogramas dentro de una computadora utilizando una interfaz analógica o digital estandarizada ( Camera Link , CoaXPress ). [18] [19] [20] [21] Las implementaciones de MV también utilizan cámaras digitales capaces de realizar conexiones directas (sin un framegrabber) a una computadora a través de interfaces FireWire , USB o Gigabit Ethernet . [21] [22]

Si bien las imágenes convencionales (luz visible 2D) se utilizan con mayor frecuencia en VM, las alternativas incluyen imágenes multiespectrales , imágenes hiperespectrales , imágenes de varias bandas infrarrojas, [23] imágenes de escaneo lineal, imágenes 3D de superficies e imágenes de rayos X. [6] Las diferenciaciones clave dentro de las imágenes de luz visible 2D MV son monocromáticas versus color, velocidad de fotogramas , resolución y si el proceso de generación de imágenes es simultáneo o no en toda la imagen, lo que lo hace adecuado para procesos en movimiento. [24]

Aunque la gran mayoría de las aplicaciones de visión artificial se resuelven mediante imágenes bidimensionales, las aplicaciones de visión artificial que utilizan imágenes 3D son un nicho creciente dentro de la industria. [25] [26] El método más comúnmente utilizado para la obtención de imágenes en 3D es la triangulación basada en escaneo, que utiliza el movimiento del producto o la imagen durante el proceso de obtención de imágenes. Se proyecta un láser sobre la superficie de un objeto. En visión artificial, esto se logra con un movimiento de escaneo, ya sea moviendo la pieza de trabajo o moviendo la cámara y el sistema de imágenes láser. La línea es vista por una cámara desde un ángulo diferente; la desviación de la línea representa variaciones de forma. Las líneas de múltiples escaneos se ensamblan en un mapa de profundidad o nube de puntos. [27] La ​​visión estereoscópica se utiliza en casos especiales que involucran características únicas presentes en ambas vistas de un par de cámaras. [27] Otros métodos 3D utilizados para la visión artificial son el tiempo de vuelo y los basados ​​en cuadrículas. [27] [25] Un método son los sistemas basados ​​en matrices de cuadrícula que utilizan un sistema de luz estructurado pseudoaleatorio como el empleado por el sistema Microsoft Kinect alrededor de 2012. [28] [29]

Procesamiento de imágenes

Una vez adquirida una imagen, se procesa. [20] Las funciones de procesamiento central generalmente las realiza una CPU , una GPU , una FPGA o una combinación de estas. [17] La ​​inferencia y el entrenamiento en aprendizaje profundo imponen requisitos de rendimiento de procesamiento más altos. [30] Generalmente se utilizan múltiples etapas de procesamiento en una secuencia que termina en un resultado deseado. Una secuencia típica podría comenzar con herramientas como filtros que modifican la imagen, seguido de la extracción de objetos, luego la extracción (por ejemplo, mediciones, lectura de códigos) de datos de esos objetos, seguido de la comunicación de esos datos o su comparación con los valores objetivo para crear y comunicar resultados de "aprobado/reprobado". Los métodos de procesamiento de imágenes por visión artificial incluyen;

Salidas

Un resultado común de los sistemas de inspección automática son las decisiones de aprobación/rechazo. [14] Estas decisiones pueden, a su vez, desencadenar mecanismos que rechacen elementos fallidos o hagan sonar una alarma. Otras salidas comunes incluyen información de orientación y posición de objetos para sistemas de guía de robots. [6] Además, los tipos de salida incluyen datos de medición numérica, datos leídos de códigos y caracteres, recuentos y clasificación de objetos, visualizaciones del proceso o resultados, imágenes almacenadas, alarmas de sistemas automatizados de monitoreo espacial MV y señales de control de procesos . [10] [13] Esto también incluye interfaces de usuario, interfaces para la integración de sistemas multicomponentes y el intercambio automatizado de datos. [42]

Aprendizaje profundo

El término "aprendizaje profundo" tiene significados variables, la mayoría de los cuales pueden aplicarse a técnicas utilizadas en visión artificial durante más de 20 años. Sin embargo, el uso del término en visión artificial comenzó a finales de la década de 2010 con la llegada de la capacidad de aplicar con éxito tales técnicas a imágenes completas en el espacio de visión artificial industrial. [43] La visión artificial convencional generalmente requiere la fase "física" de una solución de inspección automática de visión artificial para crear una diferenciación simple y confiable de defectos. Un ejemplo de diferenciación "simple" es que los defectos son oscuros y las partes buenas del producto son claras. Una razón común por la que algunas aplicaciones no eran factibles era cuando era imposible lograr lo "simple"; el aprendizaje profundo elimina este requisito, en esencia "ver" el objeto más como lo ve un ser humano, lo que ahora hace posible realizar esas aplicaciones automáticas. [43] El sistema aprende de una gran cantidad de imágenes durante una fase de entrenamiento y luego ejecuta la inspección durante el uso en tiempo de ejecución, lo que se denomina "inferencia". [43]

Guía del robot basada en imágenes

La visión artificial comúnmente proporciona información de ubicación y orientación a un robot para permitirle agarrar adecuadamente el producto. Esta capacidad también se utiliza para guiar movimientos que son más simples que los robots, como un controlador de movimiento de 1 o 2 ejes. [6] El proceso general incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Esta sección describe el proceso técnico que ocurre durante el funcionamiento de la solución. Muchos de los pasos del proceso son los mismos que con la inspección automática, excepto que se centran en proporcionar información de posición y orientación como resultado. [6]

Mercado

Tan recientemente como 2006, un consultor de la industria informó que MV representaba un mercado de 1.500 millones de dólares en América del Norte. [44] Sin embargo, el editor en jefe de una revista comercial de MV afirmó que "la visión artificial no es una industria per se" sino más bien "la integración de tecnologías y productos que brindan servicios o aplicaciones que benefician a verdaderas industrias como la automotriz o fabricación de bienes de consumo, agricultura y defensa". [4]

Ver también

Referencias

  1. ^ Steger, Carsten; Markus Ulrich; Christian Wiedemann (2018). Algoritmos y aplicaciones de visión artificial (2ª ed.). Weinheim: Wiley-VCH . pag. 1.ISBN​ 978-3-527-41365-2. Consultado el 30 de enero de 2018 .
  2. ^ Beyerer, Jürgen; Puente León, Fernando & Frese, Christian (2016). Visión artificial: inspección visual automatizada: teoría, práctica y aplicaciones. Berlín: Springer . doi :10.1007/978-3-662-47794-6. ISBN 978-3-662-47793-9. Consultado el 11 de octubre de 2016 .
  3. ^ abc Graves, Mark y Bruce G. Batchelor (2003). Visión Artificial para la Inspección de Productos Naturales. Saltador . pag. 5.ISBN 978-1-85233-525-0. Consultado el 2 de noviembre de 2010 .
  4. ^ abc Holton, W. Conard (octubre de 2010). "Con cualquier otro nombre". Diseño de Sistemas de Visión . 15 (10). ISSN  1089-3709 . Consultado el 5 de marzo de 2013 .
  5. ^ Owen-Hill, Alex (21 de julio de 2016). "Visión robótica frente a visión por computadora: ¿cuál es la diferencia?". La robótica del mañana.
  6. ^ abcdefg Turek, Fred D. (junio de 2011). "Fundamentos de la visión artificial, cómo hacer que los robots vean". Resúmenes técnicos de la NASA . 35 (6): 60–62 . Consultado el 29 de noviembre de 2011 .
  7. ^ abc Cognex (2016). "Introducción a la visión artificial" (PDF) . Revista Asamblea . Consultado el 9 de febrero de 2017 .
  8. ^ Lückenhaus, Maximilian (1 de mayo de 2016). "Visión artificial en IIoT". Revista Calidad .
  9. ^ Principios de visión por computadora , algoritmos, aplicaciones, aprendizaje, quinta edición por ER Davies Academic Press, Elselvier 2018 ISBN 978-0-12-809284-2
  10. ^ ab West, Perry Una hoja de ruta para construir un sistema de visión artificial Páginas 1-35
  11. ^ Dechow, David (enero de 2009). "Integración: hacer que funcione". Visión y sensores : 16–20. Archivado desde el original el 14 de marzo de 2020 . Consultado el 12 de mayo de 2012 .
  12. ^ Hornberg, Alejandro (2006). Manual de visión artificial. Wiley-VCH . pag. 427.ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
  13. ^ ab Demant C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. ISBN 3-540-66410-6.[ página necesaria ]
  14. ^ ab Hornberg, Alejandro (2006). Manual de visión artificial. Wiley-VCH. pag. 429.ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
  15. ^ Belbachir, Ahmed Nabil, ed. (2009). Cámaras inteligentes . Saltador. ISBN 978-1-4419-0952-7.[ página necesaria ]
  16. ^ Dechow, David (febrero de 2013). "Explore los fundamentos de la visión artificial: parte 1". Diseño de Sistemas de Visión . 18 (2): 14-15 . Consultado el 5 de marzo de 2013 .
  17. ^ ab Consideraciones críticas para el diseño de visión integrada por Dave Rice y la revista Amber Thousand Photonics Spectra publicada por Laurin Publishing Co. Número de julio de 2019 Páginas 60-64
  18. ^ Wilson, Andrew (31 de mayo de 2011). "El estándar CoaXPress admite cámara y capturador de fotogramas". Diseño de Sistemas de Visión . Consultado el 28 de noviembre de 2012 .
  19. ^ Wilson, Dave (12 de noviembre de 2012). "Cámaras certificadas que cumplen con el estándar CoaXPress". Diseño de Sistemas de Visión . Consultado el 5 de marzo de 2013 .
  20. ^ ab Davies, ER (1996). Visión artificial: teoría, algoritmos y aspectos prácticos (2ª ed.). Harcourt y compañía. ISBN 978-0-12-206092-2.[ página necesaria ] .
  21. ^ ab Dinev, Petko (marzo de 2008). "¿Digital o analógica? Seleccionar la cámara adecuada para una aplicación depende de lo que el sistema de visión artificial esté tratando de lograr". Visión y sensores : 10–14. Archivado desde el original el 14 de marzo de 2020 . Consultado el 12 de mayo de 2012 .
  22. ^ Wilson, Andrew (diciembre de 2011). "Enfoque del producto: mirando hacia el futuro de la visión". Diseño de Sistemas de Visión . 16 (12) . Consultado el 5 de marzo de 2013 .
  23. ^ Wilson, Andrew (abril de 2011). "La elección del infrarrojo". Diseño de Sistemas de Visión . 16 (4): 20–23 . Consultado el 5 de marzo de 2013 .
  24. ^ West, Perry CyberOptics de visión artificial en tiempo real y alta velocidad , páginas 1-38
  25. ^ ab Murray, Charles J (febrero de 2012). "La visión artificial 3D entra en foco". Noticias de diseño . Archivado desde el original el 5 de junio de 2012 . Consultado el 12 de mayo de 2012 .
  26. ^ Davies, ER (2012). Visión por computadora y máquina: teoría, algoritmos y aspectos prácticos (4ª ed.). Prensa académica. págs. 410–411. ISBN 9780123869081. Consultado el 13 de mayo de 2012 .
  27. ^ abc Imágenes 3-D: una descripción práctica de la visión artificial Por Fred Turek y Kim Jackson Quality Magazine, número de marzo de 2014, volumen 53/número 3 páginas 6-8
  28. ^ http://research.microsoft.com/en-us/people/fengwu/ Depth-icip-12.pdf LUZ ESTRUCTURADA HÍBRIDA PARA DETECCIÓN DE PROFUNDIDAD ESCALABLE Yueyi Zhang, Zhiwei Xiong, Universidad Feng Wu de Ciencia y Tecnología de China, Hefei , China Microsoft Research Asia, Pekín, China
  29. ^ R.Morano, C.Ozturk, R.Conn, S.Dubin, S.Zietz, J.Nissano, "Luz estructurada utilizando códigos pseudoaleatorios", IEEE Transactions on Pattern Analysis and Machine Intelligence 20 (3) (1998) 322– 327
  30. ^ Encontrar el hardware óptimo para la inferencia de aprendizaje profundo en visión artificial por Mike Fussell Revista Vision Systems Design Número de septiembre de 2019, páginas 8-9
  31. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 39.ISBN 3-540-66410-6.
  32. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 96.ISBN 3-540-66410-6.
  33. ^ Linda G. Shapiro y George C. Stockman (2001): "Computer Vision", págs. 279-325, Nueva Jersey, Prentice-Hall, ISBN 0-13-030796-3 
  34. ^ Lauren Barghout. Enfoque taxométrico visual La segmentación de imágenes mediante cortes de taxones espaciales difusos produce regiones contextualmente relevantes. Procesamiento de información y gestión de la incertidumbre en sistemas basados ​​en el conocimiento. CCIS Springer-Verlag. 2014
  35. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 108.ISBN 3-540-66410-6.
  36. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 95.ISBN 3-540-66410-6.
  37. ^ ab Turek, Fred D. (marzo de 2007). "Introducción a la visión artificial de redes neuronales". Diseño de Sistemas de Visión . 12 (3) . Consultado el 5 de marzo de 2013 .
  38. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 111.ISBN 3-540-66410-6.
  39. ^ ab Demant C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 125.ISBN 3-540-66410-6.
  40. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 132.ISBN 3-540-66410-6.
  41. ^ Demante C.; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: control de calidad visual en la fabricación . Springer-Verlag. pag. 191.ISBN 3-540-66410-6.
  42. ^ Hornberg, Alejandro (2006). Manual de visión artificial. Wiley-VCH . pag. 709.ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
  43. ^ abc The Place for Deep Learning in Machine Vision Quality Magazine Número de mayo de 2022, volumen 61, número 5 Publicado por BNP Media II
  44. ^ Hapgood, Fred (15 de diciembre de 2006 - 1 de enero de 2007). "Fábricas del futuro". CIO . 20 (6): 46. ISSN  0894-9301 . Consultado el 28 de octubre de 2010 .