Combinación de datos de sensores de fuentes dispares
La fusión de sensores es el proceso de combinar datos de sensores o datos derivados de fuentes dispares de modo que la información resultante tenga menos incertidumbre de la que sería posible si estas fuentes se usaran individualmente. Por ejemplo, se podría obtener una estimación de la ubicación más precisa de un objeto interior combinando múltiples fuentes de datos, como cámaras de vídeo y señales de localización WiFi . El término reducción de la incertidumbre en este caso puede significar más preciso, más completo o más confiable, o referirse al resultado de una visión emergente, como la visión estereoscópica (cálculo de la información de profundidad mediante la combinación de imágenes bidimensionales de dos cámaras a posiciones ligeramente diferentes). puntos de vista). [1] [2]
No se especifica que las fuentes de datos para un proceso de fusión provengan de sensores idénticos. Se puede distinguir la fusión directa , la fusión indirecta y la fusión de las salidas de las dos primeras. La fusión directa es la fusión de datos de sensores de un conjunto de sensores heterogéneos u homogéneos, sensores blandos y valores históricos de los datos de los sensores, mientras que la fusión indirecta utiliza fuentes de información como el conocimiento a priori sobre el medio ambiente y la aportación humana.
A continuación se ilustran dos ejemplos de cálculos de fusión de sensores.
Sean y denotan dos mediciones de sensores con variaciones de ruido y
, respectivamente. Una forma de obtener una medición combinada es aplicar ponderación de varianza inversa , que también se emplea dentro del suavizador de intervalo fijo de Fraser-Potter, a saber, [6]
,
¿ Dónde está la varianza de la estimación combinada? Se puede ver que el resultado fusionado es simplemente una combinación lineal de las dos mediciones ponderadas por sus respectivas variaciones de ruido.
Otro método para fusionar dos mediciones es utilizar el filtro de Kalman óptimo . Supongamos que los datos son generados por un sistema de primer orden y denotamos la solución de la ecuación de Riccati del filtro . Al aplicar la regla de Cramer dentro del cálculo de ganancia, se puede encontrar que la ganancia del filtro viene dada por: [ cita necesaria ]
Por inspección, cuando la primera medición está libre de ruido, el filtro ignora la segunda medición y viceversa. Es decir, la estimación combinada se pondera por la calidad de las mediciones.
Centralizado versus descentralizado
En la fusión de sensores, centralizado versus descentralizado se refiere a dónde ocurre la fusión de los datos. En la fusión centralizada, los clientes simplemente envían todos los datos a una ubicación central, y alguna entidad en la ubicación central es responsable de correlacionar y fusionar los datos. En modo descentralizado, los clientes asumen toda la responsabilidad de fusionar los datos. "En este caso, cada sensor o plataforma puede verse como un activo inteligente que tiene cierto grado de autonomía en la toma de decisiones". [7]
Existen múltiples combinaciones de sistemas centralizados y descentralizados.
Otra clasificación de la configuración de sensores se refiere a la coordinación del flujo de información entre sensores. [8] [9] Estos mecanismos proporcionan una manera de resolver conflictos o desacuerdos y permitir el desarrollo de estrategias de detección dinámicas. Los sensores están en configuración redundante (o competitiva) si cada nodo ofrece medidas independientes de las mismas propiedades. Esta configuración se puede utilizar en la corrección de errores al comparar información de varios nodos. A menudo se utilizan estrategias redundantes con fusiones de alto nivel en los procedimientos de votación. [10] [11]
La configuración complementaria ocurre cuando múltiples fuentes de información proporcionan información diferente sobre las mismas características. Esta estrategia se utiliza para fusionar información a nivel de datos sin procesar dentro de algoritmos de toma de decisiones. Las características complementarias se aplican típicamente en tareas de reconocimiento de movimiento con redes neuronales , [12] [13] modelo oculto de Markov , [14] [15] máquina de vectores de soporte , [16] métodos de agrupamiento y otras técnicas. [16] [15]
La fusión cooperativa de sensores utiliza la información extraída por múltiples sensores independientes para proporcionar información que no estaría disponible a partir de sensores individuales. Para detectar el ángulo entre ellos se utilizan, por ejemplo, sensores conectados a segmentos del cuerpo. La estrategia de sensor cooperativo proporciona información imposible de obtener de nodos individuales. La fusión de información cooperativa se puede utilizar en el reconocimiento de movimiento, [17] análisis de la marcha , análisis de movimiento , [18] [19] ,. [20]
Niveles
Hay varias categorías o niveles de fusión de sensores que se utilizan comúnmente.[21] [22] [23] [24] [25] [26]
Nivel 0: alineación de datos
Nivel 1 – Evaluación de la entidad (por ejemplo, señal/característica/objeto).
Seguimiento y detección/reconocimiento/identificación de objetos
Nivel 2 – Evaluación de la situación
Nivel 3 – Evaluación de impacto
Nivel 4: refinamiento del proceso (es decir, gestión de sensores)
Nivel 5: refinamiento del usuario
El nivel de fusión del sensor también se puede definir en función del tipo de información utilizada para alimentar el algoritmo de fusión. [27] Más precisamente, la fusión de sensores se puede realizar fusionando datos sin procesar provenientes de diferentes fuentes, características extrapoladas o incluso decisiones tomadas por nodos individuales.
Nivel de datos: la fusión a nivel de datos (o temprana) tiene como objetivo fusionar datos sin procesar de múltiples fuentes y representar la técnica de fusión en el nivel más bajo de abstracción. Es la técnica de fusión de sensores más común en muchos campos de aplicación. Los algoritmos de fusión de niveles de datos generalmente tienen como objetivo combinar múltiples fuentes homogéneas de datos sensoriales para lograr lecturas más precisas y sintéticas. [28] Cuando se emplean dispositivos portátiles, la compresión de datos representa un factor importante, ya que la recopilación de información sin procesar de múltiples fuentes genera enormes espacios de información que podrían definir un problema en términos de memoria o ancho de banda de comunicación para sistemas portátiles. La fusión de información a nivel de datos tiende a generar grandes espacios de entrada, que ralentizan el procedimiento de toma de decisiones. Además, la fusión de niveles de datos a menudo no puede manejar mediciones incompletas. Si una modalidad de sensor se vuelve inútil debido a un mal funcionamiento, avería u otras razones, todos los sistemas podrían tener resultados ambiguos.
Nivel de característica: las características representan información calculada a bordo por cada nodo sensor. Luego, estas características se envían a un nodo de fusión para alimentar el algoritmo de fusión. [29] Este procedimiento genera espacios de información más pequeños con respecto a la fusión a nivel de datos, y esto es mejor en términos de carga computacional. Obviamente, es importante seleccionar adecuadamente las características sobre las cuales definir los procedimientos de clasificación: elegir el conjunto de características más eficiente debe ser un aspecto principal en el diseño del método. El uso de algoritmos de selección de características que detectan adecuadamente características y subconjuntos de características correlacionadas mejora la precisión del reconocimiento, pero generalmente se requieren grandes conjuntos de entrenamiento para encontrar el subconjunto de características más significativo. [27]
La fusión nivel de decisión - nivel de decisión (o tardía) es el procedimiento de seleccionar una hipótesis de un conjunto de hipótesis generadas por decisiones individuales (generalmente más débiles) de múltiples nodos. [30] Es el nivel más alto de abstracción y utiliza la información que ya ha sido elaborada a través del procesamiento preliminar de datos o nivel de características. El objetivo principal de la fusión de decisiones es utilizar un clasificador de metanivel mientras los datos de los nodos se preprocesan extrayendo características de ellos. [31] Normalmente, la fusión de sensores a nivel de decisión se utiliza en actividades de clasificación y reconocimiento y los dos enfoques más comunes son la votación por mayoría y Naive-Bayes. [ cita necesaria ] Las ventajas de la fusión a nivel de decisión incluyen el ancho de banda de comunicación y una mayor precisión de las decisiones. También permite la combinación de sensores heterogéneos. [29]
Aplicaciones
Una aplicación de la fusión de sensores es GPS/INS , donde los datos del sistema de posicionamiento global y del sistema de navegación inercial se fusionan utilizando varios métodos diferentes, por ejemplo, el filtro de Kalman extendido . Esto resulta útil, por ejemplo, para determinar la actitud de un avión mediante sensores de bajo coste. [32] Otro ejemplo es el uso del enfoque de fusión de datos para determinar el estado del tráfico (tráfico bajo, atasco, flujo medio) utilizando datos acústicos, de imágenes y de sensores recopilados al costado de la carretera. [33] En el campo de la conducción autónoma, la fusión de sensores se utiliza para combinar la información redundante de sensores complementarios con el fin de obtener una representación más precisa y confiable del entorno. [34]
Aunque técnicamente no es un método de fusión de sensores dedicado, los métodos modernos basados en redes neuronales convolucionales pueden procesar simultáneamente muchos canales de datos de sensores (como imágenes hiperespectrales con cientos de bandas [35] ) y fusionar información relevante para producir resultados de clasificación.
Transducer Markup Language (TML) es un lenguaje de marcado basado en XML que permite la fusión de sensores.
Referencias
^ Elmenreich, W. (2002). Fusión de sensores en sistemas activados por tiempo, tesis doctoral (PDF) . Viena, Austria: Universidad Tecnológica de Viena. pag. 173.
^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Fusión de imágenes de enfoque múltiple para redes de sensores visuales en el dominio DCT". Computación e ingeniería eléctrica . 37 (5): 789–797. doi : 10.1016/j.compeleceng.2011.04.016. S2CID 38131177.
^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Mamá, Lifeng; Hu, junio; Ding, Derui (2015). "Una encuesta sobre fusión multisensor y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1-12. doi : 10.1155/2015/683701 . ISSN 1026-0226.
^ Badeli, Vahid; Ranftl, Sascha; Melito, Gian Marco; Reinbacher-Köstinger, Alice; Von Der Linden, Wolfgang; Ellermann, Katrin; Biró, Oszkar (1 de enero de 2021). "Inferencia bayesiana de cardiografía de impedancia multisensor para la detección de disección aórtica". COMPEL - Revista Internacional de Computación y Matemáticas en Ingeniería Eléctrica y Electrónica . 41 (3): 824–839. doi :10.1108/COMPEL-03-2021-0072. ISSN 0332-1649. S2CID 245299500.
^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para la cardiografía de impedancia de la disección aórtica". Entropía . 22 (1): 58. doi : 10.3390/e22010058 . ISSN 1099-4300. PMC 7516489 . PMID 33285833.
^ Quizásck, S. (1982). Modelos estocásticos, estimación y control . River Edge, Nueva Jersey: Academic Press.
^ N. Xiong; P. Svensson (2002). "Gestión multisensor para la fusión de información: cuestiones y enfoques". Fusión de información. pag. 3(2):163–186.
^ Durrant-Whyte, Hugh F. (2016). "Modelos de sensores e integración multisensor". La Revista Internacional de Investigación en Robótica . 7 (6): 97-113. doi :10.1177/027836498800700608. ISSN 0278-3649. S2CID 35656213.
^ Galar, Diego; Kumar, Uday (2017). eMaintenance: herramientas electrónicas esenciales para la eficiencia . Prensa académica. pag. 26.ISBN _9780128111543.
^ Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Reconocimiento de posturas humanas basado en la teoría de la evidencia DS y la fusión de datos multisensor". 2012 12º Simposio internacional IEEE/ACM sobre computación en cluster, nube y grid (ccgrid 2012) . págs. 912–917. doi :10.1109/CCGrid.2012.144. ISBN978-1-4673-1395-7. S2CID 1571720.
^ Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: un sistema inteligente de detección de caídas en tiempo real". Actas de la décima conferencia internacional de EAI sobre redes de área corporal . doi :10.4108/eai.28-9-2015.2261462. ISBN978-1-63190-084-6. S2CID 38913107.
^ Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Autenticación personal biométrica basada en la marcha mediante el uso de sensores inerciales MEMS". Revista de Inteligencia Ambiental y Computación Humanizada . 9 (5): 1705-1712. doi :10.1007/s12652-018-0880-6. ISSN 1868-5137. S2CID 52304214.
^ Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "Reconocimiento de la marcha basado en IMU mediante redes neuronales convolucionales y fusión de sensores múltiples". Sensores . 17 (12): 2735. Código bibliográfico : 2017Senso..17.2735D. doi : 10.3390/s17122735 . ISSN 1424-8220. PMC 5750784 . PMID 29186887.
^ Guenterberg, E.; Yang, AY; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastri, SS (2009). "Un método para extraer parámetros temporales basado en modelos ocultos de Markov en redes de sensores corporales con sensores inerciales" (PDF) . Transacciones IEEE sobre tecnología de la información en biomedicina . 13 (6): 1019-1030. doi :10.1109/TITB.2009.2028421. ISSN 1089-7771. PMID 19726268. S2CID 1829011.
^ ab Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Continúe, Laura; Cimolín, Verónica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alejandro (2016). "Caracterización inercial basada en BSN y evaluación UPDRS automática de la tarea de marcha de los parkinsonianos". Transacciones IEEE sobre informática afectiva . 7 (3): 258–271. doi :10.1109/TAFFC.2016.2549533. ISSN 1949-3045. S2CID 16866555.
^ ab Gao, Lei; Bourke, Alaska; Nelson, Juan (2014). "Evaluación de sistemas de reconocimiento de actividad multisensor versus un solo sensor basados en acelerómetro". Ingeniería Médica y Física . 36 (6): 779–785. doi : 10.1016/j.medengphy.2014.02.012. ISSN 1350-4533. PMID 24636448.
^ Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Perfiles personalizados de la vida diaria multicapa a través de la clasificación de actividades habilitadas por el contexto y la reconstrucción del movimiento: un enfoque de sistema integrado". Revista IEEE de Informática Biomédica y de Salud . 20 (1): 177–188. doi : 10.1109/JBHI.2014.2385694 . ISSN 2168-2194. PMID 25546868. S2CID 16785375.
^ Chía Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "Un novedoso algoritmo adaptativo en tiempo real para detectar eventos de la marcha a partir de sensores portátiles". Transacciones IEEE sobre sistemas neuronales e ingeniería de rehabilitación . 23 (3): 413–422. doi :10.1109/TNSRE.2014.2337914. hdl : 11311/865739 . ISSN 1534-4320. PMID 25069118. S2CID 25828466.
^ Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Evaluación cuantitativa del análisis de la marcha dual basado en sensores inerciales con red de sensores corporales". Revisión de sensores . 33 (1): 48–56. doi :10.1108/02602281311294342. ISSN 0260-2288.
^ Kong, Weisheng; Menguante, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Detección de dirección y secuencia de pasos de la prueba de pasos de cuatro cuadrados" (PDF) . Cartas de robótica y automatización IEEE . 2 (4): 2194–2200. doi :10.1109/LRA.2017.2723929. ISSN 2377-3766. S2CID 23410874.
^ Repensar los niveles de fusión de datos de JDL
^ Blasch, E., Plano, S. (2003) "Nivel 5: Refinamiento del usuario para ayudar en el proceso de fusión", Actas del SPIE, vol. 5099.
^ J. Llinás; C. Bowman; G. Rogova; A. Steinberg; E. Vals; F. Blanco (2004). "Revisando el modelo de fusión de datos JDL II ". Congreso Internacional sobre Fusión de Información. CiteSeerX 10.1.1.58.2996 .
^ Blasch, E. (2006) "Gestión de recursos de sensores, usuarios, misiones (SUM) y su interacción con la fusión de nivel 2/3 [ enlace muerto permanente ] " Conferencia internacional sobre fusión de información.
^ "Aprovechando todo el poder de la fusión de sensores -".
^ Blasch, E., Steinberg, A., Das, S., Llinas, J., Chong, C.-Y., Kessler, O., Waltz, E., White, F. (2013) "Revisitando la JDL modelo para la explotación de la información", Conferencia Internacional sobre Fusión de Información.
^ ab Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Fusión multisensor en redes de sensores corporales: estado del arte y desafíos de investigación". Fusión de información . 35 : 68–80. doi :10.1016/j.inffus.2016.09.005. ISSN 1566-2535. S2CID 40608207.
^ Gao, Teng; Canción, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "Una descripción general de los mecanismos de compensación de rendimiento en el protocolo de enrutamiento para redes de sensores inalámbricos ecológicos". Conexiones inalámbricas . 22 (1): 135-157. doi :10.1007/s11276-015-0960-x. ISSN 1022-0038. S2CID 34505498.
^ ab Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "Un estudio sobre la fusión de sensores inerciales y de profundidad para el reconocimiento de la acción humana". Herramientas y aplicaciones multimedia . 76 (3): 4405–4425. doi :10.1007/s11042-015-3177-1. ISSN 1380-7501. S2CID 18112361.
^ Banovic, Nikola; Buzali, Tofi; Caballero, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modelado y comprensión del comportamiento rutinario humano". Actas de la Conferencia CHI de 2016 sobre factores humanos en sistemas informáticos - CHI '16 . págs. 248–260. doi :10.1145/2858036.2858557. ISBN9781450333627. S2CID 872756.
^ María, Aileni Raluca; Severo, Pasca; Carlos, Valderrama (2015). "Algoritmo de fusión de datos de sensores biomédicos para mejorar la eficiencia de los sistemas tolerantes a fallas en el caso de dispositivos electrónicos portátiles". 2015 Conferencia Grid, Cloud y Computación de Alto Rendimiento en la Ciencia (ROLCG) . págs. 1–4. doi :10.1109/ROLCG.2015.7367228. ISBN978-6-0673-7040-9. S2CID 18782930.
^ Asqueroso, Jason; Yu Gu; Mateo Rhudy; Srikanth Gururajan; Marcello Napolitano (julio de 2012). "Evaluación de pruebas de vuelo de algoritmos de fusión de sensores para estimación de actitud". Transacciones IEEE sobre sistemas aeroespaciales y electrónicos . 48 (3): 2128–2139. Código Bib : 2012ITAES..48.2128G. doi :10.1109/TAES.2012.6237583. S2CID 393165.
^ Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, LV (2013). Aprendizaje basado en fusión de información para la detección del estado del tráfico frugal . Actas de la Vigésima Tercera Conferencia Internacional Conjunta sobre Inteligencia Artificial.{{cite conference}}: CS1 maint: multiple names: authors list (link)
^ Mircea Paul, Muresan; Ión, Giosan; Sergiu, Nedevschi (18 de febrero de 2020). "Estabilización y validación de la posición de objetos 3D mediante fusión de sensores multimodales y segmentación semántica". Sensores . 20 (4): 1110. Código Bib : 2020Senso..20.1110M. doi : 10.3390/s20041110 . PMC 7070899 . PMID 32085608.
^ Corrió, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (23 de octubre de 2017). "Un marco de clasificación de imágenes hiperespectrales con funciones de pares de píxeles espaciales". Sensores . 17 (10): 2421. Código Bib : 2017Senso..17.2421R. doi : 10.3390/s17102421 . PMC 5677443 . PMID 29065535.
enlaces externos
Análisis de correlación discriminante (DCA) [1]
Sociedad Internacional de Fusión de Información
^ Haghighat, Mohammad; Abdel-Mottaleb, Mohamed; Alhalabi, Wadee (2016). "Análisis de correlación discriminante: fusión de niveles de funciones en tiempo real para el reconocimiento biométrico multimodal". Transacciones IEEE sobre seguridad y análisis de la información . 11 (9): 1984–1996. doi :10.1109/TIFS.2016.2569061. S2CID 15624506.