stringtranslate.com

MÚSICA (algoritmo)

La radiogoniometría mediante el algoritmo MUSIC

MUSIC ( Multiple Signal Classification ) es un algoritmo utilizado para la estimación de frecuencia [1] [2] [3] y la radiogoniometría . [4]

Historia

En muchos problemas prácticos de procesamiento de señales, el objetivo es estimar a partir de mediciones un conjunto de parámetros constantes de los que dependen las señales recibidas. Ha habido varios enfoques para tales problemas, incluido el llamado método de máxima verosimilitud (ML) de Capon (1969) y el método de máxima entropía (ME) de Burg. Aunque a menudo son exitosos y se usan ampliamente, estos métodos tienen ciertas limitaciones fundamentales (especialmente sesgo y sensibilidad en las estimaciones de parámetros), en gran parte porque utilizan un modelo incorrecto (por ejemplo, AR en lugar de ARMA especial ) de las mediciones.

Pisarenko (1973) fue uno de los primeros en explotar la estructura del modelo de datos, haciéndolo en el contexto de la estimación de parámetros de sinusoides complejos en ruido aditivo usando un enfoque de covarianza. Schmidt (1977), mientras trabajaba en Northrop Grumman e independientemente Bienvenu y Kopp (1979) fueron los primeros en explotar correctamente el modelo de medición en el caso de matrices de sensores de forma arbitraria. Schmidt, en particular, logró esto derivando primero una solución geométrica completa en ausencia de ruido, y luego extendiendo inteligentemente los conceptos geométricos para obtener una solución aproximada razonable en presencia de ruido. El algoritmo resultante se llamó MUSIC (Multiple SIgnal Classification) y ha sido ampliamente estudiado.

En una evaluación detallada basada en miles de simulaciones, el Laboratorio Lincoln del Instituto Tecnológico de Massachusetts concluyó en 1998 que, entre los algoritmos de alta resolución aceptados actualmente, MUSIC era el más prometedor y un candidato principal para estudios posteriores e implementación de hardware real. [5] Sin embargo, aunque las ventajas de rendimiento de MUSIC son sustanciales, se logran a un costo en computación (búsqueda en el espacio de parámetros) y almacenamiento (de datos de calibración de matriz). [6]

Teoría

El método MUSIC supone que un vector de señal, , consta de exponenciales complejos, cuyas frecuencias son desconocidas, en presencia de ruido blanco gaussiano, , como lo indica el modelo lineal

Aquí hay una matriz de Vandermonde de vectores de dirección y es el vector de amplitud. Un supuesto crucial es que el número de fuentes, , es menor que el número de elementos en el vector de medición, , es decir .

La matriz de autocorrelación de se da entonces por

donde es la varianza del ruido, es la matriz identidad y es la matriz de autocorrelación de .

La matriz de autocorrelación se estima tradicionalmente utilizando la matriz de correlación de muestra.

donde es el número de observaciones vectoriales y . Dada la estimación de , MUSIC estima el contenido de frecuencia de la señal o matriz de autocorrelación utilizando un método de espacio propio .

Dado que es una matriz hermítica, todos sus vectores propios son ortogonales entre sí. Si los valores propios de se ordenan en orden decreciente, los vectores propios correspondientes a los valores propios más grandes (es decir, las direcciones de mayor variabilidad) abarcan el subespacio de señal . Los vectores propios restantes corresponden a valores propios iguales a y abarcan el subespacio de ruido , que es ortogonal al subespacio de señal, .

Tenga en cuenta que para , MUSIC es idéntico a la descomposición armónica de Pisarenko . La idea general detrás del método MUSIC es utilizar todos los vectores propios que abarcan el subespacio de ruido para mejorar el rendimiento del estimador de Pisarenko.

Dado que cualquier vector de señal que reside en el subespacio de señal debe ser ortogonal al subespacio de ruido, , debe ser así para todos los vectores propios que abarcan el subespacio de ruido. Para medir el grado de ortogonalidad de con respecto a todos los , el algoritmo MUSIC define una norma al cuadrado

donde la matriz es la matriz de vectores propios que abarcan el subespacio de ruido . Si , entonces como lo implica la condición de ortogonalidad. Tomar un recíproco de la expresión de la norma al cuadrado crea picos agudos en las frecuencias de la señal. La función de estimación de frecuencia para MÚSICA (o el pseudoespectro) es

¿Dónde están los vectores propios del ruido y

es el vector de dirección candidato. Las ubicaciones de los picos más grandes de la función de estimación proporcionan las estimaciones de frecuencia para los componentes de la señal.

MUSIC es una generalización del método de Pisarenko y se reduce al método de Pisarenko cuando . En el método de Pisarenko, solo se utiliza un único vector propio para formar el denominador de la función de estimación de frecuencia; y el vector propio se interpreta como un conjunto de coeficientes autorregresivos , cuyos ceros se pueden encontrar analíticamente o con algoritmos de búsqueda de raíces polinómicas. Por el contrario, MUSIC supone que se han sumado varias de estas funciones, por lo que es posible que no haya ceros presentes. En cambio, hay mínimos locales, que se pueden localizar buscando computacionalmente la función de estimación en busca de picos.

Dimensión del espacio de señal

La observación fundamental en la que se basan MUSIC y otros métodos de descomposición del subespacio se refiere al rango de la matriz de autocorrelación que está relacionada con el número de fuentes de señal de la siguiente manera.

Si las fuentes son complejas, entonces y la dimensión del subespacio de la señal es . Si las fuentes son reales, entonces y la dimensión del subespacio de la señal es , es decir, cada sinusoide real es generada por dos vectores base.

Este resultado fundamental, aunque a menudo se omite en los libros de análisis espectral, es una razón por la que la señal de entrada se puede distribuir en vectores propios del subespacio de señal que abarcan ( para señales con valores reales) y vectores propios del subespacio de ruido que abarcan . Se basa en la teoría de incrustación de señales [2] [7] y también se puede explicar mediante la teoría topológica de variedades . [4]

Comparación con otros métodos

MUSIC supera métodos simples como la selección de picos de espectros DFT en presencia de ruido, cuando el número de componentes se conoce de antemano, porque explota el conocimiento de este número para ignorar el ruido en su informe final.

A diferencia de la DFT, es capaz de estimar frecuencias con una precisión superior a la de una muestra, porque su función de estimación se puede evaluar para cualquier frecuencia, no solo para las de los intervalos de la DFT. Esta es una forma de superresolución .

Su principal desventaja es que requiere que se conozca de antemano el número de componentes, por lo que el método original no se puede utilizar en casos más generales. Existen métodos para estimar el número de componentes de la fuente puramente a partir de las propiedades estadísticas de la matriz de autocorrelación. Véase, por ejemplo, [8]. Además, MUSIC supone que las fuentes coexistentes no están correlacionadas, lo que limita sus aplicaciones prácticas.

Los métodos semiparamétricos iterativos recientes ofrecen una superresolución robusta a pesar de las fuentes altamente correlacionadas, por ejemplo, SAMV [9] [10]

Otras aplicaciones

Recientemente se ha aplicado una versión modificada de MUSIC, denominada Time-Reversal MUSIC (TR-MUSIC), a la obtención de imágenes computacionales con inversión temporal. [11] [12] El algoritmo MUSIC también se ha implementado para la detección rápida de frecuencias DTMF ( señalización multifrecuencia de doble tono ) en forma de biblioteca C - libmusic [13] (incluida la implementación en MATLAB). [14]

Véase también

Referencias

  1. ^ Hayes, Monson H., Procesamiento y modelado estadístico de señales digitales , John Wiley & Sons, Inc., 1996. ISBN  0-471-59431-8 .
  2. ^ ab Gregor, Piotr (2022). Zastosowanie algorytmu MUSIC do wykrywania DTMF [ Aplicación del algoritmo MUSIC a la detección DTMF ] (Tesis) (en polaco). Universidad Tecnológica de Varsovia.
  3. ^ Costanzo, Sandra; Buonanno, Giovanni; Solimene, Raffaele (2022). "Enfoque espectral de súper resolución para la mejora de la precisión de los sensores de microondas resonantes biomédicos". Revista IEEE de electromagnetismo, radiofrecuencia y microondas en medicina y biología . 6 (4): 539–545. doi :10.1109/JERM.2022.3210457. ISSN  2469-7249. S2CID  252792474.
  4. ^ ab Schmidt, RO, "Ubicación de múltiples emisores y estimación de parámetros de señal", IEEE Trans. Antennas Propagation, vol. AP-34 (marzo de 1986), págs. 276-280.
  5. ^ Barabell, AJ (1998). "Comparación del rendimiento de algoritmos de procesamiento de matrices de superresolución. Revisado" (PDF) . Massachusetts Inst of Tech Lexington Lincoln Lab . Archivado (PDF) del original el 25 de mayo de 2021.
  6. ^ R. Roy y T. Kailath, "Estimación ESPRIT de parámetros de señal mediante técnicas de invariancia rotacional", en IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 37, núm. 7, págs. 984–995, julio de 1989.
  7. ^ Penny, WD (2009), Curso de procesamiento de señales, University College London, Notas de clase del año académico 1999-2000
  8. ^ Fishler, Eran y H. Vincent Poor. "Estimación del número de fuentes en matrices desequilibradas mediante criterios teóricos de la información". IEEE Transactions on Signal Processing 53.9 (2005): 3543–3553.
  9. ^ Abeida, Habti; Zhang, Qilin; Li, Jian; Merabtine, Nadjim (2013). "Enfoques iterativos dispersos asintóticos basados ​​en varianza mínima para procesamiento de matrices". IEEE Transactions on Signal Processing . 61 (4). Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): 933–944. arXiv : 1802.03070 . Bibcode :2013ITSP...61..933A. doi :10.1109/tsp.2012.2231676. ISSN  1053-587X. S2CID  16276001.
  10. ^ Zhang, Qilin; Abeida, Habti; Xue, Ming; Rowe, William; Li, Jian (2012). "Implementación rápida de estimación iterativa dispersa basada en covarianza para localización de fuentes". Revista de la Sociedad Acústica de América . 131 (2): 1249–1259. Bibcode :2012ASAJ..131.1249Z. doi :10.1121/1.3672656. PMID  22352499.
  11. ^ Devaney, AJ (1 de mayo de 2005). "Imágenes de inversión temporal de objetivos oscurecidos a partir de datos multiestáticos". IEEE Transactions on Antennas and Propagation . 53 (5): 1600–1610. Bibcode :2005ITAP...53.1600D. doi :10.1109/TAP.2005.846723. ISSN  0018-926X. S2CID  25241225.
  12. ^ Ciuonzo, D.; Romano, G.; Solimene, R. (1 de mayo de 2015). "Análisis de la interpretación de la MÚSICA con inversión temporal". IEEE Transactions on Signal Processing . 63 (10): 2650–2662. Bibcode :2015ITSP...63.2650C. doi :10.1109/TSP.2015.2417507. ISSN  1053-587X. S2CID  5895440.
  13. ^ "libmusic: una potente biblioteca C para análisis espectral". Datos y señales . 2023.
  14. ^ "libmusic_m: implementación de MATLAB". Datos y señales . 2023. MathWorks.

Lectura adicional