stringtranslate.com

Fusión de sensores

Fusión de sensores del Eurofighter

La fusión de sensores es un proceso de combinación de datos de sensores o datos derivados de fuentes dispares para que la información resultante tenga menos incertidumbre de la que sería posible si se utilizaran estas fuentes individualmente. Por ejemplo, se podría obtener una estimación de ubicación más precisa de un objeto en interiores combinando múltiples fuentes de datos, como cámaras de video y señales de localización WiFi . El término reducción de incertidumbre en este caso puede significar más preciso, más completo o más confiable, o hacer referencia al resultado de una vista emergente, como la visión estereoscópica (cálculo de información de profundidad mediante la combinación de imágenes bidimensionales de dos cámaras en puntos de vista ligeramente diferentes). [1] [2]

Las fuentes de datos para un proceso de fusión no se especifican para que se originen a partir de sensores idénticos. Se puede distinguir entre fusión directa , fusión indirecta y fusión de los resultados de las dos primeras. La fusión directa es la fusión de datos de sensores de un conjunto de sensores heterogéneos u homogéneos, sensores blandos y valores históricos de datos de sensores, mientras que la fusión indirecta utiliza fuentes de información como el conocimiento a priori sobre el entorno y la información humana.

La fusión de sensores también se conoce como fusión de datos (multisensores) y es un subconjunto de la fusión de información .

Ejemplos de sensores

Algoritmos

La fusión de sensores es un término que abarca una serie de métodos y algoritmos, entre ellos:

Ejemplos de cálculos

A continuación se ilustran dos ejemplos de cálculos de fusión de sensores.

Sean y denoten dos estimaciones a partir de dos mediciones de sensores independientes, con variaciones de ruido y , respectivamente. Una forma de obtener una estimación combinada es aplicar la ponderación de varianza inversa , que también se emplea dentro del suavizador de intervalo fijo de Fraser-Potter, a saber, [6]

,

donde es la varianza de la estimación combinada. Se puede observar que el resultado fusionado es simplemente una combinación lineal de las dos mediciones ponderadas por su respectiva información .

Cabe señalar que si es una variable aleatoria , las estimaciones y estarán correlacionadas a través del ruido de proceso común, lo que hará que la estimación pierda su carácter conservador. [7]

Otro método (equivalente) para fusionar dos mediciones es utilizar el filtro Kalman óptimo . Supongamos que los datos son generados por un sistema de primer orden y que sea la solución de la ecuación de Riccati del filtro . Al aplicar la regla de Cramer dentro del cálculo de ganancia, se puede encontrar que la ganancia del filtro está dada por: [ cita requerida ]

Por inspección, cuando la primera medición está libre de ruido, el filtro ignora la segunda medición y viceversa. Es decir, la estimación combinada se pondera en función de la calidad de las mediciones.

Centralizado versus descentralizado

En la fusión de sensores, la diferencia entre centralizado y descentralizado se refiere al lugar donde se produce la fusión de los datos. En la fusión centralizada, los clientes simplemente envían todos los datos a una ubicación central, y alguna entidad en la ubicación central es responsable de correlacionar y fusionar los datos. En la descentralizada, los clientes asumen la responsabilidad total de fusionar los datos. "En este caso, cada sensor o plataforma puede considerarse un activo inteligente que tiene cierto grado de autonomía en la toma de decisiones". [8]

Existen múltiples combinaciones de sistemas centralizados y descentralizados.

Otra clasificación de la configuración del sensor se refiere a la coordinación del flujo de información entre sensores. [9] [10] Estos mecanismos proporcionan una forma de resolver conflictos o desacuerdos y permiten el desarrollo de estrategias de detección dinámicas. Los sensores están en configuración redundante (o competitiva) si cada nodo proporciona medidas independientes de las mismas propiedades. Esta configuración se puede utilizar en la corrección de errores al comparar información de múltiples nodos. Las estrategias redundantes se utilizan a menudo con fusiones de alto nivel en procedimientos de votación. [11] [12] La configuración complementaria ocurre cuando múltiples fuentes de información proporcionan información diferente sobre las mismas características. Esta estrategia se utiliza para fusionar información a nivel de datos brutos dentro de algoritmos de toma de decisiones. Las características complementarias se aplican típicamente en tareas de reconocimiento de movimiento con redes neuronales , [13] [14] modelo oculto de Markov , [15] [16] máquina de vectores de soporte , [17] métodos de agrupamiento y otras técnicas. [17] [16] La fusión cooperativa de sensores utiliza la información extraída por múltiples sensores independientes para proporcionar información que no estaría disponible a partir de sensores individuales. Por ejemplo, los sensores conectados a los segmentos del cuerpo se utilizan para detectar el ángulo entre ellos. La estrategia de sensores cooperativos proporciona información que es imposible de obtener de nodos individuales. La fusión de información cooperativa se puede utilizar en el reconocimiento de movimiento, [18] análisis de la marcha , análisis del movimiento , [19] [20] , [21]

Niveles

Existen varias categorías o niveles de fusión de sensores que se utilizan comúnmente. [22] [23] [24] [25] [26] [27]

El nivel de fusión de sensores también se puede definir en función del tipo de información utilizada para alimentar el algoritmo de fusión. [28] Más precisamente, la fusión de sensores se puede realizar fusionando datos sin procesar provenientes de diferentes fuentes, características extrapoladas o incluso decisiones tomadas por nodos individuales.

Aplicaciones

Una aplicación de la fusión de sensores es GPS/INS , donde los datos del Sistema de Posicionamiento Global y del sistema de navegación inercial se fusionan utilizando varios métodos diferentes, por ejemplo, el filtro Kalman extendido . Esto es útil, por ejemplo, para determinar la actitud de una aeronave utilizando sensores de bajo costo. [33] Otro ejemplo es el uso del enfoque de fusión de datos para determinar el estado del tráfico (poco tráfico, atasco, flujo medio) utilizando datos acústicos, de imágenes y de sensores recopilados en la carretera. [34] En el campo de la conducción autónoma, la fusión de sensores se utiliza para combinar la información redundante de sensores complementarios con el fin de obtener una representación más precisa y confiable del entorno. [35]

Aunque técnicamente no es un método dedicado de fusión de sensores, los métodos modernos basados ​​en redes neuronales convolucionales pueden procesar simultáneamente muchos canales de datos de sensores (como imágenes hiperespectrales con cientos de bandas [36] ) y fusionar información relevante para producir resultados de clasificación.

Véase también

Referencias

  1. ^ Elmenreich, W. (2002). Sensor Fusion in Time-Triggered Systems, Tesis doctoral (PDF) . Viena, Austria: Universidad Tecnológica de Viena. p. 173.
  2. ^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Fusión de imágenes multifoco para redes de sensores visuales en el dominio DCT". Computers & Electrical Engineering . 37 (5): 789–797. doi :10.1016/j.compeleceng.2011.04.016. S2CID  38131177.
  3. ^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). "Una encuesta sobre fusión multisensorial y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1–12. doi : 10.1155/2015/683701 . ISSN  1026-0226.
  4. ^ Badeli, Vahid; Ranftl, Sascha; Melito, Gian Marco; Reinbacher-Köstinger, Alice; Von Der Linden, Wolfgang; Ellermann, Katrin; Biro, Oszkar (1 de enero de 2021). "Inferencia bayesiana de cardiografía de impedancia de sensores múltiples para la detección de disección aórtica". COMPEL - Revista internacional de computación y matemáticas en ingeniería eléctrica y electrónica . 41 (3): 824–839. doi :10.1108/COMPEL-03-2021-0072. ISSN  0332-1649. S2CID  245299500.
  5. ^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para cardiografía de impedancia de disección aórtica". Entropía . 22 (1): 58. doi : 10.3390/e22010058 . ISSN  1099-4300. PMC 7516489 . PMID  33285833. 
  6. ^ Maybeck, S. (1982). Modelos estocásticos, estimación y control . River Edge, NJ: Academic Press.
  7. ^ Forsling, Robin (15 de diciembre de 2023). El lado oscuro del seguimiento descentralizado de objetivos: correlaciones desconocidas y restricciones de comunicación. Linköping Studies in Science and Technology. Disertaciones. Vol. 2359. Linköping: Linköping University Electronic Press. doi :10.3384/9789180754101. ISBN 978-91-8075-409-5.
  8. ^ N. Xiong; P. Svensson (2002). "Gestión de múltiples sensores para la fusión de información: problemas y enfoques". Fusión de información. pág. 3(2):163–186.
  9. ^ Durrant-Whyte, Hugh F. (2016). "Modelos de sensores e integración de múltiples sensores". Revista internacional de investigación en robótica . 7 (6): 97–113. doi :10.1177/027836498800700608. ISSN  0278-3649. S2CID  35656213.
  10. ^ Galar, Diego; Kumar, Uday (2017). Mantenimiento electrónico: herramientas electrónicas esenciales para la eficiencia . Academic Press. pág. 26. ISBN 9780128111543.
  11. ^ Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Reconocimiento de posturas humanas basado en la teoría de evidencia de DS y fusión de datos multisensorial". 2012 12.º Simposio internacional IEEE/ACM sobre computación en clúster, nube y cuadrícula (ccgrid 2012) . págs. 912–917. doi :10.1109/CCGrid.2012.144. ISBN 978-1-4673-1395-7.S2CID 1571720  .
  12. ^ Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: un sistema inteligente de detección de caídas en tiempo real". Actas de la 10.ª Conferencia internacional EAI sobre redes de área corporal . doi :10.4108/eai.28-9-2015.2261462. ISBN 978-1-63190-084-6. Número de identificación del sujeto  38913107.
  13. ^ Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Autenticación personal biométrica basada en la marcha mediante el uso de sensores inerciales MEMS". Revista de inteligencia ambiental y computación humanizada . 9 (5): 1705–1712. doi :10.1007/s12652-018-0880-6. ISSN  1868-5137. S2CID  52304214.
  14. ^ Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "Reconocimiento de la marcha basado en IMU mediante redes neuronales convolucionales y fusión de sensores múltiples". Sensores . 17 (12): 2735. Código bibliográfico : 2017Senso..17.2735D. doi : 10.3390/s17122735 . ISSN  1424-8220. PMC 5750784 . PMID  29186887. 
  15. ^ Guenterberg, E.; Yang, AY; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastry, SS (2009). "Un método para extraer parámetros temporales basados ​​en modelos ocultos de Markov en redes de sensores corporales con sensores inerciales" (PDF) . IEEE Transactions on Information Technology in Biomedicine . 13 (6): 1019–1030. doi :10.1109/TITB.2009.2028421. ISSN  1089-7771. PMID  19726268. S2CID  1829011.
  16. ^ ab Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Continúe, Laura; Cimolín, Verónica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alejandro (2016). "Caracterización inercial basada en BSN y evaluación UPDRS automática de la tarea de marcha de los parkinsonianos". Transacciones IEEE sobre informática afectiva . 7 (3): 258–271. doi :10.1109/TAFFC.2016.2549533. ISSN  1949-3045. S2CID  16866555.
  17. ^ ab Gao, Lei; Bourke, AK; Nelson, John (2014). "Evaluación de sistemas de reconocimiento de actividad de sensor único versus multisensor basados ​​en acelerómetro". Ingeniería médica y física . 36 (6): 779–785. doi :10.1016/j.medengphy.2014.02.012. ISSN  1350-4533. PMID  24636448.
  18. ^ Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Perfiles personalizados de la vida diaria en múltiples capas a través de la clasificación de actividades habilitadas por el contexto y la reconstrucción del movimiento: un enfoque de sistema integrado". IEEE Journal of Biomedical and Health Informatics . 20 (1): 177–188. doi : 10.1109/JBHI.2014.2385694 . ISSN  2168-2194. PMID  25546868. S2CID  16785375.
  19. ^ Chia Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "Un nuevo algoritmo adaptativo en tiempo real para detectar eventos de marcha a partir de sensores portátiles". IEEE Transactions on Neural Systems and Rehabilitation Engineering . 23 (3): 413–422. doi :10.1109/TNSRE.2014.2337914. hdl : 11311/865739 . ISSN  1534-4320. PMID  25069118. S2CID  25828466.
  20. ^ Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Evaluación cuantitativa del análisis de la marcha dual basado en sensores inerciales con red de sensores corporales". Sensor Review . 33 (1): 48–56. doi :10.1108/02602281311294342. ISSN  0260-2288.
  21. ^ Kong, Weisheng; Wanning, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Secuencia de pasos y detección de dirección de la prueba de cuatro pasos cuadrados" (PDF) . IEEE Robotics and Automation Letters . 2 (4): 2194–2200. doi :10.1109/LRA.2017.2723929. ISSN  2377-3766. S2CID  23410874.
  22. ^ Replanteando los niveles de fusión de datos de JDL
  23. ^ Blasch, E., Plano, S. (2003) “Nivel 5: Refinamiento del usuario para ayudar al proceso de fusión”, Actas del SPIE, Vol. 5099.
  24. ^ J. Llinas; C. Bowman; G. Rogova; A. Steinberg; E. Waltz; F. White (2004). Revisiting the JDL data fusion model II (Revisitando el modelo de fusión de datos JDL II) . Conferencia internacional sobre fusión de información. CiteSeerX 10.1.1.58.2996 . 
  25. ^ Blasch, E. (2006) "Gestión de recursos de sensores, usuarios y misiones (SUM) y su interacción con la fusión de niveles 2/3 [ enlace muerto permanente ] " Conferencia Internacional sobre Fusión de Información.
  26. ^ "Aprovechando todo el poder de la fusión de sensores". 3 de abril de 2024.
  27. ^ Blasch, E., Steinberg, A., Das, S., Llinas, J., Chong, C.-Y., Kessler, O., Waltz, E., White, F. (2013) "Revisitando el modelo JDL para la explotación de la información", Conferencia internacional sobre fusión de información.
  28. ^ ab Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Fusión de múltiples sensores en redes de sensores corporales: estado del arte y desafíos de investigación". Information Fusion . 35 : 68–80. doi :10.1016/j.inffus.2016.09.005. ISSN  1566-2535. S2CID  40608207.
  29. ^ Gao, Teng; Song, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "Una descripción general de los mecanismos de compensación de rendimiento en el protocolo de enrutamiento para redes de sensores inalámbricos ecológicos". Redes inalámbricas . 22 (1): 135–157. doi :10.1007/s11276-015-0960-x. ISSN  1022-0038. S2CID  34505498.
  30. ^ ab Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "Un estudio de la fusión de sensores de profundidad e inercia para el reconocimiento de acciones humanas". Herramientas y aplicaciones multimedia . 76 (3): 4405–4425. doi :10.1007/s11042-015-3177-1. ISSN  1380-7501. S2CID  18112361.
  31. ^ Banovic, Nikola; Buzali, Tofi; Chevalier, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modelado y comprensión del comportamiento rutinario humano". Actas de la Conferencia CHI 2016 sobre factores humanos en sistemas informáticos - CHI '16 . págs. 248–260. doi :10.1145/2858036.2858557. ISBN 9781450333627.S2CID872756  .​
  32. ^ Maria, Aileni Raluca; Sever, Pasca; Carlos, Valderrama (2015). "Algoritmo de fusión de datos de sensores biomédicos para mejorar la eficiencia de sistemas tolerantes a fallos en el caso de dispositivos electrónicos portátiles". Conferencia de 2015 Grid, Cloud & High Performance Computing in Science (ROLCG) . pp. 1–4. doi :10.1109/ROLCG.2015.7367228. ISBN . 978-6-0673-7040-9. Número de identificación del sujeto  18782930.
  33. ^ Asqueroso, Jason; Yu Gu; Mateo Rhudy; Srikanth Gururajan; Marcello Napolitano (julio de 2012). "Evaluación de pruebas de vuelo de algoritmos de fusión de sensores para estimación de actitud". Transacciones IEEE sobre sistemas aeroespaciales y electrónicos . 48 (3): 2128–2139. Código Bib : 2012ITAES..48.2128G. doi :10.1109/TAES.2012.6237583. S2CID  393165.
  34. ^ Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, LV (2013). Aprendizaje basado en fusión de información para detección de estados de tráfico frugal . Actas de la vigésimo tercera conferencia conjunta internacional sobre inteligencia artificial.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  35. ^ Mircea Paul, Muresan; Ion, Giosan; Sergiu, Nedevschi (18 de febrero de 2020). "Estabilización y validación de la posición de objetos 3D mediante fusión de sensores multimodales y segmentación semántica". Sensores . 20 (4): 1110. Bibcode :2020Senso..20.1110M. doi : 10.3390/s20041110 . PMC 7070899 . PMID  32085608. 
  36. ^ Ran, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (23 de octubre de 2017). "Un marco de clasificación de imágenes hiperespectrales con características de pares de píxeles espaciales". Sensores . 17 (10): 2421. Bibcode :2017Senso..17.2421R. doi : 10.3390/s17102421 . PMC 5677443 . PMID  29065535. 

Enlaces externos

  1. ^ Haghighat, Mohammad; Abdel-Mottaleb, Mohamed; Alhalabi, Wadee (2016). "Análisis de correlación discriminante: fusión de niveles de características en tiempo real para reconocimiento biométrico multimodal". IEEE Transactions on Information Forensics and Security . 11 (9): 1984–1996. doi :10.1109/TIFS.2016.2569061. S2CID  15624506.