stringtranslate.com

Fusión de sensores

Fusión de sensores del Eurofighter

La fusión de sensores es el proceso de combinar datos de sensores o datos derivados de fuentes dispares de modo que la información resultante tenga menos incertidumbre de la que sería posible si estas fuentes se usaran individualmente. Por ejemplo, se podría obtener una estimación de la ubicación más precisa de un objeto interior combinando múltiples fuentes de datos, como cámaras de vídeo y señales de localización WiFi . El término reducción de la incertidumbre en este caso puede significar más preciso, más completo o más confiable, o referirse al resultado de una visión emergente, como la visión estereoscópica (cálculo de la información de profundidad mediante la combinación de imágenes bidimensionales de dos cámaras a posiciones ligeramente diferentes). puntos de vista). [1] [2]

No se especifica que las fuentes de datos para un proceso de fusión provengan de sensores idénticos. Se puede distinguir la fusión directa , la fusión indirecta y la fusión de las salidas de las dos primeras. La fusión directa es la fusión de datos de sensores de un conjunto de sensores heterogéneos u homogéneos, sensores blandos y valores históricos de los datos de los sensores, mientras que la fusión indirecta utiliza fuentes de información como el conocimiento a priori sobre el medio ambiente y la aportación humana.

La fusión de sensores también se conoce como fusión de datos (multisensor) y es un subconjunto de la fusión de información .

Ejemplos de sensores

Algoritmos

La fusión de sensores es un término que cubre una serie de métodos y algoritmos, que incluyen:

Cálculos de ejemplo

A continuación se ilustran dos ejemplos de cálculos de fusión de sensores.

Sean y denotan dos mediciones de sensores con variaciones de ruido y , respectivamente. Una forma de obtener una medición combinada es aplicar ponderación de varianza inversa , que también se emplea dentro del suavizador de intervalo fijo de Fraser-Potter, a saber, [6]

,

¿ Dónde está la varianza de la estimación combinada? Se puede ver que el resultado fusionado es simplemente una combinación lineal de las dos mediciones ponderadas por sus respectivas variaciones de ruido.

Otro método para fusionar dos mediciones es utilizar el filtro de Kalman óptimo . Supongamos que los datos son generados por un sistema de primer orden y denotamos la solución de la ecuación de Riccati del filtro . Al aplicar la regla de Cramer dentro del cálculo de ganancia, se puede encontrar que la ganancia del filtro viene dada por: [ cita necesaria ]

Por inspección, cuando la primera medición está libre de ruido, el filtro ignora la segunda medición y viceversa. Es decir, la estimación combinada se pondera por la calidad de las mediciones.

Centralizado versus descentralizado

En la fusión de sensores, centralizado versus descentralizado se refiere a dónde ocurre la fusión de los datos. En la fusión centralizada, los clientes simplemente envían todos los datos a una ubicación central, y alguna entidad en la ubicación central es responsable de correlacionar y fusionar los datos. En modo descentralizado, los clientes asumen toda la responsabilidad de fusionar los datos. "En este caso, cada sensor o plataforma puede verse como un activo inteligente que tiene cierto grado de autonomía en la toma de decisiones". [7]

Existen múltiples combinaciones de sistemas centralizados y descentralizados.

Otra clasificación de la configuración de sensores se refiere a la coordinación del flujo de información entre sensores. [8] [9] Estos mecanismos proporcionan una manera de resolver conflictos o desacuerdos y permitir el desarrollo de estrategias de detección dinámicas. Los sensores están en configuración redundante (o competitiva) si cada nodo ofrece medidas independientes de las mismas propiedades. Esta configuración se puede utilizar en la corrección de errores al comparar información de varios nodos. A menudo se utilizan estrategias redundantes con fusiones de alto nivel en los procedimientos de votación. [10] [11] La configuración complementaria ocurre cuando múltiples fuentes de información proporcionan información diferente sobre las mismas características. Esta estrategia se utiliza para fusionar información a nivel de datos sin procesar dentro de algoritmos de toma de decisiones. Las características complementarias se aplican típicamente en tareas de reconocimiento de movimiento con redes neuronales , [12] [13] modelo oculto de Markov , [14] [15] máquina de vectores de soporte , [16] métodos de agrupamiento y otras técnicas. [16] [15] La fusión cooperativa de sensores utiliza la información extraída por múltiples sensores independientes para proporcionar información que no estaría disponible a partir de sensores individuales. Para detectar el ángulo entre ellos se utilizan, por ejemplo, sensores conectados a segmentos del cuerpo. La estrategia de sensor cooperativo proporciona información imposible de obtener de nodos individuales. La fusión de información cooperativa se puede utilizar en el reconocimiento de movimiento, [17] análisis de la marcha , análisis de movimiento , [18] [19] ,. [20]

Niveles

Hay varias categorías o niveles de fusión de sensores que se utilizan comúnmente.[21] [22] [23] [24] [25] [26]

El nivel de fusión del sensor también se puede definir en función del tipo de información utilizada para alimentar el algoritmo de fusión. [27] Más precisamente, la fusión de sensores se puede realizar fusionando datos sin procesar provenientes de diferentes fuentes, características extrapoladas o incluso decisiones tomadas por nodos individuales.

Aplicaciones

Una aplicación de la fusión de sensores es GPS/INS , donde los datos del sistema de posicionamiento global y del sistema de navegación inercial se fusionan utilizando varios métodos diferentes, por ejemplo, el filtro de Kalman extendido . Esto resulta útil, por ejemplo, para determinar la actitud de un avión mediante sensores de bajo coste. [32] Otro ejemplo es el uso del enfoque de fusión de datos para determinar el estado del tráfico (tráfico bajo, atasco, flujo medio) utilizando datos acústicos, de imágenes y de sensores recopilados al costado de la carretera. [33] En el campo de la conducción autónoma, la fusión de sensores se utiliza para combinar la información redundante de sensores complementarios con el fin de obtener una representación más precisa y confiable del entorno. [34]

Aunque técnicamente no es un método de fusión de sensores dedicado, los métodos modernos basados ​​en redes neuronales convolucionales pueden procesar simultáneamente muchos canales de datos de sensores (como imágenes hiperespectrales con cientos de bandas [35] ) y fusionar información relevante para producir resultados de clasificación.

Ver también

Referencias

  1. ^ Elmenreich, W. (2002). Fusión de sensores en sistemas activados por tiempo, tesis doctoral (PDF) . Viena, Austria: Universidad Tecnológica de Viena. pag. 173.
  2. ^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Fusión de imágenes de enfoque múltiple para redes de sensores visuales en el dominio DCT". Computación e ingeniería eléctrica . 37 (5): 789–797. doi : 10.1016/j.compeleceng.2011.04.016. S2CID  38131177.
  3. ^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Mamá, Lifeng; Hu, junio; Ding, Derui (2015). "Una encuesta sobre fusión multisensor y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1-12. doi : 10.1155/2015/683701 . ISSN  1026-0226.
  4. ^ Badeli, Vahid; Ranftl, Sascha; Melito, Gian Marco; Reinbacher-Köstinger, Alice; Von Der Linden, Wolfgang; Ellermann, Katrin; Biró, Oszkar (1 de enero de 2021). "Inferencia bayesiana de cardiografía de impedancia multisensor para la detección de disección aórtica". COMPEL - Revista Internacional de Computación y Matemáticas en Ingeniería Eléctrica y Electrónica . 41 (3): 824–839. doi :10.1108/COMPEL-03-2021-0072. ISSN  0332-1649. S2CID  245299500.
  5. ^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para la cardiografía de impedancia de la disección aórtica". Entropía . 22 (1): 58. doi : 10.3390/e22010058 . ISSN  1099-4300. PMC 7516489 . PMID  33285833. 
  6. ^ Quizásck, S. (1982). Modelos estocásticos, estimación y control . River Edge, Nueva Jersey: Academic Press.
  7. ^ N. Xiong; P. Svensson (2002). "Gestión multisensor para la fusión de información: cuestiones y enfoques". Fusión de información. pag. 3(2):163–186.
  8. ^ Durrant-Whyte, Hugh F. (2016). "Modelos de sensores e integración multisensor". La Revista Internacional de Investigación en Robótica . 7 (6): 97-113. doi :10.1177/027836498800700608. ISSN  0278-3649. S2CID  35656213.
  9. ^ Galar, Diego; Kumar, Uday (2017). eMaintenance: herramientas electrónicas esenciales para la eficiencia . Prensa académica. pag. 26.ISBN _ 9780128111543.
  10. ^ Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Reconocimiento de posturas humanas basado en la teoría de la evidencia DS y la fusión de datos multisensor". 2012 12º Simposio internacional IEEE/ACM sobre computación en cluster, nube y grid (ccgrid 2012) . págs. 912–917. doi :10.1109/CCGrid.2012.144. ISBN 978-1-4673-1395-7. S2CID  1571720.
  11. ^ Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: un sistema inteligente de detección de caídas en tiempo real". Actas de la décima conferencia internacional de EAI sobre redes de área corporal . doi :10.4108/eai.28-9-2015.2261462. ISBN 978-1-63190-084-6. S2CID  38913107.
  12. ^ Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Autenticación personal biométrica basada en la marcha mediante el uso de sensores inerciales MEMS". Revista de Inteligencia Ambiental y Computación Humanizada . 9 (5): 1705-1712. doi :10.1007/s12652-018-0880-6. ISSN  1868-5137. S2CID  52304214.
  13. ^ Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "Reconocimiento de la marcha basado en IMU mediante redes neuronales convolucionales y fusión de sensores múltiples". Sensores . 17 (12): 2735. Código bibliográfico : 2017Senso..17.2735D. doi : 10.3390/s17122735 . ISSN  1424-8220. PMC 5750784 . PMID  29186887. 
  14. ^ Guenterberg, E.; Yang, AY; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastri, SS (2009). "Un método para extraer parámetros temporales basado en modelos ocultos de Markov en redes de sensores corporales con sensores inerciales" (PDF) . Transacciones IEEE sobre tecnología de la información en biomedicina . 13 (6): 1019-1030. doi :10.1109/TITB.2009.2028421. ISSN  1089-7771. PMID  19726268. S2CID  1829011.
  15. ^ ab Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Continúe, Laura; Cimolín, Verónica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alejandro (2016). "Caracterización inercial basada en BSN y evaluación UPDRS automática de la tarea de marcha de los parkinsonianos". Transacciones IEEE sobre informática afectiva . 7 (3): 258–271. doi :10.1109/TAFFC.2016.2549533. ISSN  1949-3045. S2CID  16866555.
  16. ^ ab Gao, Lei; Bourke, Alaska; Nelson, Juan (2014). "Evaluación de sistemas de reconocimiento de actividad multisensor versus un solo sensor basados ​​​​en acelerómetro". Ingeniería Médica y Física . 36 (6): 779–785. doi : 10.1016/j.medengphy.2014.02.012. ISSN  1350-4533. PMID  24636448.
  17. ^ Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Perfiles personalizados de la vida diaria multicapa a través de la clasificación de actividades habilitadas por el contexto y la reconstrucción del movimiento: un enfoque de sistema integrado". Revista IEEE de Informática Biomédica y de Salud . 20 (1): 177–188. doi : 10.1109/JBHI.2014.2385694 . ISSN  2168-2194. PMID  25546868. S2CID  16785375.
  18. ^ Chía Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "Un novedoso algoritmo adaptativo en tiempo real para detectar eventos de la marcha a partir de sensores portátiles". Transacciones IEEE sobre sistemas neuronales e ingeniería de rehabilitación . 23 (3): 413–422. doi :10.1109/TNSRE.2014.2337914. hdl : 11311/865739 . ISSN  1534-4320. PMID  25069118. S2CID  25828466.
  19. ^ Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Evaluación cuantitativa del análisis de la marcha dual basado en sensores inerciales con red de sensores corporales". Revisión de sensores . 33 (1): 48–56. doi :10.1108/02602281311294342. ISSN  0260-2288.
  20. ^ Kong, Weisheng; Menguante, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Detección de dirección y secuencia de pasos de la prueba de pasos de cuatro cuadrados" (PDF) . Cartas de robótica y automatización IEEE . 2 (4): 2194–2200. doi :10.1109/LRA.2017.2723929. ISSN  2377-3766. S2CID  23410874.
  21. ^ Repensar los niveles de fusión de datos de JDL
  22. ^ Blasch, E., Plano, S. (2003) "Nivel 5: Refinamiento del usuario para ayudar en el proceso de fusión", Actas del SPIE, vol. 5099.
  23. ^ J. Llinás; C. Bowman; G. Rogova; A. Steinberg; E. Vals; F. Blanco (2004). "Revisando el modelo de fusión de datos JDL II ". Congreso Internacional sobre Fusión de Información. CiteSeerX 10.1.1.58.2996 . 
  24. ^ Blasch, E. (2006) "Gestión de recursos de sensores, usuarios, misiones (SUM) y su interacción con la fusión de nivel 2/3 [ enlace muerto permanente ] " Conferencia internacional sobre fusión de información.
  25. ^ "Aprovechando todo el poder de la fusión de sensores -".
  26. ^ Blasch, E., Steinberg, A., Das, S., Llinas, J., Chong, C.-Y., Kessler, O., Waltz, E., White, F. (2013) "Revisitando la JDL modelo para la explotación de la información", Conferencia Internacional sobre Fusión de Información.
  27. ^ ab Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Fusión multisensor en redes de sensores corporales: estado del arte y desafíos de investigación". Fusión de información . 35 : 68–80. doi :10.1016/j.inffus.2016.09.005. ISSN  1566-2535. S2CID  40608207.
  28. ^ Gao, Teng; Canción, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "Una descripción general de los mecanismos de compensación de rendimiento en el protocolo de enrutamiento para redes de sensores inalámbricos ecológicos". Conexiones inalámbricas . 22 (1): 135-157. doi :10.1007/s11276-015-0960-x. ISSN  1022-0038. S2CID  34505498.
  29. ^ ab Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "Un estudio sobre la fusión de sensores inerciales y de profundidad para el reconocimiento de la acción humana". Herramientas y aplicaciones multimedia . 76 (3): 4405–4425. doi :10.1007/s11042-015-3177-1. ISSN  1380-7501. S2CID  18112361.
  30. ^ Banovic, Nikola; Buzali, Tofi; Caballero, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modelado y comprensión del comportamiento rutinario humano". Actas de la Conferencia CHI de 2016 sobre factores humanos en sistemas informáticos - CHI '16 . págs. 248–260. doi :10.1145/2858036.2858557. ISBN 9781450333627. S2CID  872756.
  31. ^ María, Aileni Raluca; Severo, Pasca; Carlos, Valderrama (2015). "Algoritmo de fusión de datos de sensores biomédicos para mejorar la eficiencia de los sistemas tolerantes a fallas en el caso de dispositivos electrónicos portátiles". 2015 Conferencia Grid, Cloud y Computación de Alto Rendimiento en la Ciencia (ROLCG) . págs. 1–4. doi :10.1109/ROLCG.2015.7367228. ISBN 978-6-0673-7040-9. S2CID  18782930.
  32. ^ Asqueroso, Jason; Yu Gu; Mateo Rhudy; Srikanth Gururajan; Marcello Napolitano (julio de 2012). "Evaluación de pruebas de vuelo de algoritmos de fusión de sensores para estimación de actitud". Transacciones IEEE sobre sistemas aeroespaciales y electrónicos . 48 (3): 2128–2139. Código Bib : 2012ITAES..48.2128G. doi :10.1109/TAES.2012.6237583. S2CID  393165.
  33. ^ Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, LV (2013). Aprendizaje basado en fusión de información para la detección del estado del tráfico frugal . Actas de la Vigésima Tercera Conferencia Internacional Conjunta sobre Inteligencia Artificial.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  34. ^ Mircea Paul, Muresan; Ión, Giosan; Sergiu, Nedevschi (18 de febrero de 2020). "Estabilización y validación de la posición de objetos 3D mediante fusión de sensores multimodales y segmentación semántica". Sensores . 20 (4): 1110. Código Bib : 2020Senso..20.1110M. doi : 10.3390/s20041110 . PMC 7070899 . PMID  32085608. 
  35. ^ Corrió, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (23 de octubre de 2017). "Un marco de clasificación de imágenes hiperespectrales con funciones de pares de píxeles espaciales". Sensores . 17 (10): 2421. Código Bib : 2017Senso..17.2421R. doi : 10.3390/s17102421 . PMC 5677443 . PMID  29065535. 

enlaces externos

  1. ^ Haghighat, Mohammad; Abdel-Mottaleb, Mohamed; Alhalabi, Wadee (2016). "Análisis de correlación discriminante: fusión de niveles de funciones en tiempo real para el reconocimiento biométrico multimodal". Transacciones IEEE sobre seguridad y análisis de la información . 11 (9): 1984–1996. doi :10.1109/TIFS.2016.2569061. S2CID  15624506.