Combinación de datos de sensores de distintas fuentes
La fusión de sensores es un proceso de combinación de datos de sensores o datos derivados de fuentes dispares para que la información resultante tenga menos incertidumbre de la que sería posible si se utilizaran estas fuentes individualmente. Por ejemplo, se podría obtener una estimación de ubicación más precisa de un objeto en interiores combinando múltiples fuentes de datos, como cámaras de video y señales de localización WiFi . El término reducción de incertidumbre en este caso puede significar más preciso, más completo o más confiable, o hacer referencia al resultado de una vista emergente, como la visión estereoscópica (cálculo de información de profundidad mediante la combinación de imágenes bidimensionales de dos cámaras en puntos de vista ligeramente diferentes). [1] [2]
Las fuentes de datos para un proceso de fusión no se especifican para que se originen a partir de sensores idénticos. Se puede distinguir entre fusión directa , fusión indirecta y fusión de los resultados de las dos primeras. La fusión directa es la fusión de datos de sensores de un conjunto de sensores heterogéneos u homogéneos, sensores blandos y valores históricos de datos de sensores, mientras que la fusión indirecta utiliza fuentes de información como el conocimiento a priori sobre el entorno y la información humana.
A continuación se ilustran dos ejemplos de cálculos de fusión de sensores.
Sean y denoten dos estimaciones a partir de dos mediciones de sensores independientes, con variaciones de ruido y
, respectivamente. Una forma de obtener una estimación combinada es aplicar la ponderación de varianza inversa , que también se emplea dentro del suavizador de intervalo fijo de Fraser-Potter, a saber, [6]
,
donde es la varianza de la estimación combinada. Se puede observar que el resultado fusionado es simplemente una combinación lineal de las dos mediciones ponderadas por su respectiva información .
Cabe señalar que si es una variable aleatoria , las estimaciones y estarán correlacionadas a través del ruido de proceso común, lo que hará que la estimación pierda su carácter conservador. [7]
Otro método (equivalente) para fusionar dos mediciones es utilizar el filtro Kalman óptimo . Supongamos que los datos son generados por un sistema de primer orden y que sea la solución de la ecuación de Riccati del filtro . Al aplicar la regla de Cramer dentro del cálculo de ganancia, se puede encontrar que la ganancia del filtro está dada por: [ cita requerida ]
Por inspección, cuando la primera medición está libre de ruido, el filtro ignora la segunda medición y viceversa. Es decir, la estimación combinada se pondera en función de la calidad de las mediciones.
Centralizado versus descentralizado
En la fusión de sensores, la diferencia entre centralizado y descentralizado se refiere al lugar donde se produce la fusión de los datos. En la fusión centralizada, los clientes simplemente envían todos los datos a una ubicación central, y alguna entidad en la ubicación central es responsable de correlacionar y fusionar los datos. En la descentralizada, los clientes asumen la responsabilidad total de fusionar los datos. "En este caso, cada sensor o plataforma puede considerarse un activo inteligente que tiene cierto grado de autonomía en la toma de decisiones". [8]
Existen múltiples combinaciones de sistemas centralizados y descentralizados.
Otra clasificación de la configuración del sensor se refiere a la coordinación del flujo de información entre sensores. [9] [10] Estos mecanismos proporcionan una forma de resolver conflictos o desacuerdos y permiten el desarrollo de estrategias de detección dinámicas. Los sensores están en configuración redundante (o competitiva) si cada nodo proporciona medidas independientes de las mismas propiedades. Esta configuración se puede utilizar en la corrección de errores al comparar información de múltiples nodos. Las estrategias redundantes se utilizan a menudo con fusiones de alto nivel en procedimientos de votación. [11] [12]
La configuración complementaria ocurre cuando múltiples fuentes de información proporcionan información diferente sobre las mismas características. Esta estrategia se utiliza para fusionar información a nivel de datos brutos dentro de algoritmos de toma de decisiones. Las características complementarias se aplican típicamente en tareas de reconocimiento de movimiento con redes neuronales , [13] [14] modelo oculto de Markov , [15] [16] máquina de vectores de soporte , [17] métodos de agrupamiento y otras técnicas. [17] [16]
La fusión cooperativa de sensores utiliza la información extraída por múltiples sensores independientes para proporcionar información que no estaría disponible a partir de sensores individuales. Por ejemplo, los sensores conectados a los segmentos del cuerpo se utilizan para detectar el ángulo entre ellos. La estrategia de sensores cooperativos proporciona información que es imposible de obtener de nodos individuales. La fusión de información cooperativa se puede utilizar en el reconocimiento de movimiento, [18] análisis de la marcha , análisis del movimiento , [19] [20] , [21]
Niveles
Existen varias categorías o niveles de fusión de sensores que se utilizan comúnmente. [22] [23] [24] [25] [26] [27]
Nivel 0 – Alineación de datos
Nivel 1 – Evaluación de entidad (por ejemplo, señal/característica/objeto).
Seguimiento y detección/reconocimiento/identificación de objetos
Nivel 2 – Evaluación de la situación
Nivel 3 – Evaluación de impacto
Nivel 4 – Refinamiento del proceso (es decir, gestión de sensores)
Nivel 5 – Refinamiento del usuario
El nivel de fusión de sensores también se puede definir en función del tipo de información utilizada para alimentar el algoritmo de fusión. [28] Más precisamente, la fusión de sensores se puede realizar fusionando datos sin procesar provenientes de diferentes fuentes, características extrapoladas o incluso decisiones tomadas por nodos individuales.
Nivel de datos: la fusión a nivel de datos (o temprana) tiene como objetivo fusionar datos brutos de múltiples fuentes y representar la técnica de fusión en el nivel más bajo de abstracción. Es la técnica de fusión de sensores más común en muchos campos de aplicación. Los algoritmos de fusión a nivel de datos generalmente tienen como objetivo combinar múltiples fuentes homogéneas de datos sensoriales para lograr lecturas más precisas y sintéticas. [29] Cuando se emplean dispositivos portátiles, la compresión de datos representa un factor importante, ya que la recopilación de información bruta de múltiples fuentes genera enormes espacios de información que podrían definir un problema en términos de memoria o ancho de banda de comunicación para sistemas portátiles. La fusión de información a nivel de datos tiende a generar grandes espacios de entrada, que ralentizan el procedimiento de toma de decisiones. Además, la fusión a nivel de datos a menudo no puede manejar mediciones incompletas. Si una modalidad de sensor se vuelve inútil debido a fallas, averías u otras razones, todo el sistema podría producir resultados ambiguos.
Nivel de características: las características representan información calculada a bordo por cada nodo de detección. Estas características se envían luego a un nodo de fusión para alimentar el algoritmo de fusión. [30] Este procedimiento genera espacios de información más pequeños con respecto a la fusión a nivel de datos, y esto es mejor en términos de carga computacional. Obviamente, es importante seleccionar adecuadamente las características sobre las que definir los procedimientos de clasificación: la elección del conjunto de características más eficiente debe ser un aspecto principal en el diseño del método. El uso de algoritmos de selección de características que detecten adecuadamente las características correlacionadas y los subconjuntos de características mejora la precisión del reconocimiento, pero generalmente se requieren conjuntos de entrenamiento grandes para encontrar el subconjunto de características más significativo. [28]
Nivel de decisión: la fusión a nivel de decisión (o tardía) es el procedimiento de selección de una hipótesis de un conjunto de hipótesis generadas por decisiones individuales (normalmente más débiles) de múltiples nodos. [31] Es el nivel más alto de abstracción y utiliza la información que ya se ha elaborado mediante el procesamiento preliminar a nivel de datos o características. El objetivo principal de la fusión de decisiones es utilizar un clasificador de metanivel mientras se preprocesan los datos de los nodos extrayendo características de ellos. [32] Normalmente, la fusión de sensores a nivel de decisión se utiliza en actividades de clasificación y reconocimiento y los dos enfoques más comunes son la votación por mayoría y Naive-Bayes. [ cita requerida ] Las ventajas que se obtienen con la fusión a nivel de decisión incluyen el ancho de banda de comunicación y una precisión de decisión mejorada. También permite la combinación de sensores heterogéneos. [30]
Aplicaciones
Una aplicación de la fusión de sensores es GPS/INS , donde los datos del Sistema de Posicionamiento Global y del sistema de navegación inercial se fusionan utilizando varios métodos diferentes, por ejemplo, el filtro Kalman extendido . Esto es útil, por ejemplo, para determinar la actitud de una aeronave utilizando sensores de bajo costo. [33] Otro ejemplo es el uso del enfoque de fusión de datos para determinar el estado del tráfico (poco tráfico, atasco, flujo medio) utilizando datos acústicos, de imágenes y de sensores recopilados en la carretera. [34] En el campo de la conducción autónoma, la fusión de sensores se utiliza para combinar la información redundante de sensores complementarios con el fin de obtener una representación más precisa y confiable del entorno. [35]
Aunque técnicamente no es un método dedicado de fusión de sensores, los métodos modernos basados en redes neuronales convolucionales pueden procesar simultáneamente muchos canales de datos de sensores (como imágenes hiperespectrales con cientos de bandas [36] ) y fusionar información relevante para producir resultados de clasificación.
Transducer Markup Language (TML) es un lenguaje de marcado basado en XML que permite la fusión de sensores.
Referencias
^ Elmenreich, W. (2002). Sensor Fusion in Time-Triggered Systems, Tesis doctoral (PDF) . Viena, Austria: Universidad Tecnológica de Viena. p. 173.
^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Fusión de imágenes multifoco para redes de sensores visuales en el dominio DCT". Computers & Electrical Engineering . 37 (5): 789–797. doi :10.1016/j.compeleceng.2011.04.016. S2CID 38131177.
^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). "Una encuesta sobre fusión multisensorial y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1–12. doi : 10.1155/2015/683701 . ISSN 1026-0226.
^ Badeli, Vahid; Ranftl, Sascha; Melito, Gian Marco; Reinbacher-Köstinger, Alice; Von Der Linden, Wolfgang; Ellermann, Katrin; Biro, Oszkar (1 de enero de 2021). "Inferencia bayesiana de cardiografía de impedancia de sensores múltiples para la detección de disección aórtica". COMPEL - Revista internacional de computación y matemáticas en ingeniería eléctrica y electrónica . 41 (3): 824–839. doi :10.1108/COMPEL-03-2021-0072. ISSN 0332-1649. S2CID 245299500.
^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para cardiografía de impedancia de disección aórtica". Entropía . 22 (1): 58. doi : 10.3390/e22010058 . ISSN 1099-4300. PMC 7516489 . PMID 33285833.
^ Maybeck, S. (1982). Modelos estocásticos, estimación y control . River Edge, NJ: Academic Press.
^ Forsling, Robin (15 de diciembre de 2023). El lado oscuro del seguimiento descentralizado de objetivos: correlaciones desconocidas y restricciones de comunicación. Linköping Studies in Science and Technology. Disertaciones. Vol. 2359. Linköping: Linköping University Electronic Press. doi :10.3384/9789180754101. ISBN978-91-8075-409-5.
^ N. Xiong; P. Svensson (2002). "Gestión de múltiples sensores para la fusión de información: problemas y enfoques". Fusión de información. pág. 3(2):163–186.
^ Durrant-Whyte, Hugh F. (2016). "Modelos de sensores e integración de múltiples sensores". Revista internacional de investigación en robótica . 7 (6): 97–113. doi :10.1177/027836498800700608. ISSN 0278-3649. S2CID 35656213.
^ Galar, Diego; Kumar, Uday (2017). Mantenimiento electrónico: herramientas electrónicas esenciales para la eficiencia . Academic Press. pág. 26. ISBN9780128111543.
^ Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Reconocimiento de posturas humanas basado en la teoría de evidencia de DS y fusión de datos multisensorial". 2012 12.º Simposio internacional IEEE/ACM sobre computación en clúster, nube y cuadrícula (ccgrid 2012) . págs. 912–917. doi :10.1109/CCGrid.2012.144. ISBN978-1-4673-1395-7.S2CID 1571720 .
^ Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: un sistema inteligente de detección de caídas en tiempo real". Actas de la 10.ª Conferencia internacional EAI sobre redes de área corporal . doi :10.4108/eai.28-9-2015.2261462. ISBN978-1-63190-084-6. Número de identificación del sujeto 38913107.
^ Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Autenticación personal biométrica basada en la marcha mediante el uso de sensores inerciales MEMS". Revista de inteligencia ambiental y computación humanizada . 9 (5): 1705–1712. doi :10.1007/s12652-018-0880-6. ISSN 1868-5137. S2CID 52304214.
^ Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "Reconocimiento de la marcha basado en IMU mediante redes neuronales convolucionales y fusión de sensores múltiples". Sensores . 17 (12): 2735. Código bibliográfico : 2017Senso..17.2735D. doi : 10.3390/s17122735 . ISSN 1424-8220. PMC 5750784 . PMID 29186887.
^ Guenterberg, E.; Yang, AY; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastry, SS (2009). "Un método para extraer parámetros temporales basados en modelos ocultos de Markov en redes de sensores corporales con sensores inerciales" (PDF) . IEEE Transactions on Information Technology in Biomedicine . 13 (6): 1019–1030. doi :10.1109/TITB.2009.2028421. ISSN 1089-7771. PMID 19726268. S2CID 1829011.
^ ab Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Continúe, Laura; Cimolín, Verónica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alejandro (2016). "Caracterización inercial basada en BSN y evaluación UPDRS automática de la tarea de marcha de los parkinsonianos". Transacciones IEEE sobre informática afectiva . 7 (3): 258–271. doi :10.1109/TAFFC.2016.2549533. ISSN 1949-3045. S2CID 16866555.
^ ab Gao, Lei; Bourke, AK; Nelson, John (2014). "Evaluación de sistemas de reconocimiento de actividad de sensor único versus multisensor basados en acelerómetro". Ingeniería médica y física . 36 (6): 779–785. doi :10.1016/j.medengphy.2014.02.012. ISSN 1350-4533. PMID 24636448.
^ Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Perfiles personalizados de la vida diaria en múltiples capas a través de la clasificación de actividades habilitadas por el contexto y la reconstrucción del movimiento: un enfoque de sistema integrado". IEEE Journal of Biomedical and Health Informatics . 20 (1): 177–188. doi : 10.1109/JBHI.2014.2385694 . ISSN 2168-2194. PMID 25546868. S2CID 16785375.
^ Chia Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "Un nuevo algoritmo adaptativo en tiempo real para detectar eventos de marcha a partir de sensores portátiles". IEEE Transactions on Neural Systems and Rehabilitation Engineering . 23 (3): 413–422. doi :10.1109/TNSRE.2014.2337914. hdl : 11311/865739 . ISSN 1534-4320. PMID 25069118. S2CID 25828466.
^ Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Evaluación cuantitativa del análisis de la marcha dual basado en sensores inerciales con red de sensores corporales". Sensor Review . 33 (1): 48–56. doi :10.1108/02602281311294342. ISSN 0260-2288.
^ Kong, Weisheng; Wanning, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Secuencia de pasos y detección de dirección de la prueba de cuatro pasos cuadrados" (PDF) . IEEE Robotics and Automation Letters . 2 (4): 2194–2200. doi :10.1109/LRA.2017.2723929. ISSN 2377-3766. S2CID 23410874.
^ Replanteando los niveles de fusión de datos de JDL
^ Blasch, E., Plano, S. (2003) “Nivel 5: Refinamiento del usuario para ayudar al proceso de fusión”, Actas del SPIE, Vol. 5099.
^ J. Llinas; C. Bowman; G. Rogova; A. Steinberg; E. Waltz; F. White (2004). Revisiting the JDL data fusion model II (Revisitando el modelo de fusión de datos JDL II) . Conferencia internacional sobre fusión de información. CiteSeerX 10.1.1.58.2996 .
^ Blasch, E. (2006) "Gestión de recursos de sensores, usuarios y misiones (SUM) y su interacción con la fusión de niveles 2/3 [ enlace muerto permanente ] " Conferencia Internacional sobre Fusión de Información.
^ "Aprovechando todo el poder de la fusión de sensores". 3 de abril de 2024.
^ Blasch, E., Steinberg, A., Das, S., Llinas, J., Chong, C.-Y., Kessler, O., Waltz, E., White, F. (2013) "Revisitando el modelo JDL para la explotación de la información", Conferencia internacional sobre fusión de información.
^ ab Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Fusión de múltiples sensores en redes de sensores corporales: estado del arte y desafíos de investigación". Information Fusion . 35 : 68–80. doi :10.1016/j.inffus.2016.09.005. ISSN 1566-2535. S2CID 40608207.
^ Gao, Teng; Song, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "Una descripción general de los mecanismos de compensación de rendimiento en el protocolo de enrutamiento para redes de sensores inalámbricos ecológicos". Redes inalámbricas . 22 (1): 135–157. doi :10.1007/s11276-015-0960-x. ISSN 1022-0038. S2CID 34505498.
^ ab Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "Un estudio de la fusión de sensores de profundidad e inercia para el reconocimiento de acciones humanas". Herramientas y aplicaciones multimedia . 76 (3): 4405–4425. doi :10.1007/s11042-015-3177-1. ISSN 1380-7501. S2CID 18112361.
^ Banovic, Nikola; Buzali, Tofi; Chevalier, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modelado y comprensión del comportamiento rutinario humano". Actas de la Conferencia CHI 2016 sobre factores humanos en sistemas informáticos - CHI '16 . págs. 248–260. doi :10.1145/2858036.2858557. ISBN9781450333627.S2CID872756 .
^ Maria, Aileni Raluca; Sever, Pasca; Carlos, Valderrama (2015). "Algoritmo de fusión de datos de sensores biomédicos para mejorar la eficiencia de sistemas tolerantes a fallos en el caso de dispositivos electrónicos portátiles". Conferencia de 2015 Grid, Cloud & High Performance Computing in Science (ROLCG) . pp. 1–4. doi :10.1109/ROLCG.2015.7367228. ISBN .978-6-0673-7040-9. Número de identificación del sujeto 18782930.
^ Asqueroso, Jason; Yu Gu; Mateo Rhudy; Srikanth Gururajan; Marcello Napolitano (julio de 2012). "Evaluación de pruebas de vuelo de algoritmos de fusión de sensores para estimación de actitud". Transacciones IEEE sobre sistemas aeroespaciales y electrónicos . 48 (3): 2128–2139. Código Bib : 2012ITAES..48.2128G. doi :10.1109/TAES.2012.6237583. S2CID 393165.
^ Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, LV (2013). Aprendizaje basado en fusión de información para detección de estados de tráfico frugal . Actas de la vigésimo tercera conferencia conjunta internacional sobre inteligencia artificial.{{cite conference}}: CS1 maint: multiple names: authors list (link)
^ Mircea Paul, Muresan; Ion, Giosan; Sergiu, Nedevschi (18 de febrero de 2020). "Estabilización y validación de la posición de objetos 3D mediante fusión de sensores multimodales y segmentación semántica". Sensores . 20 (4): 1110. Bibcode :2020Senso..20.1110M. doi : 10.3390/s20041110 . PMC 7070899 . PMID 32085608.
^ Ran, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (23 de octubre de 2017). "Un marco de clasificación de imágenes hiperespectrales con características de pares de píxeles espaciales". Sensores . 17 (10): 2421. Bibcode :2017Senso..17.2421R. doi : 10.3390/s17102421 . PMC 5677443 . PMID 29065535.
Enlaces externos
Análisis de correlación discriminante (DCA) [1]
Sociedad Internacional de Fusión de la Información
^ Haghighat, Mohammad; Abdel-Mottaleb, Mohamed; Alhalabi, Wadee (2016). "Análisis de correlación discriminante: fusión de niveles de características en tiempo real para reconocimiento biométrico multimodal". IEEE Transactions on Information Forensics and Security . 11 (9): 1984–1996. doi :10.1109/TIFS.2016.2569061. S2CID 15624506.