Correlación de una señal con una copia de sí misma en diferido en el tiempo, en función del desplazamiento
La autocorrelación , a veces conocida como correlación serial en el caso del tiempo discreto , es la correlación de una señal con una copia retrasada de sí misma en función del retraso. Informalmente, es la similitud entre observaciones de una variable aleatoria en función del desfase temporal entre ellas. El análisis de autocorrelación es una herramienta matemática para encontrar patrones repetitivos, como la presencia de una señal periódica oscurecida por el ruido , o identificar la frecuencia fundamental faltante en una señal implicada por sus frecuencias armónicas . A menudo se utiliza en el procesamiento de señales para analizar funciones o series de valores, como señales en el dominio del tiempo .
Los diferentes campos de estudio definen la autocorrelación de manera diferente y no todas estas definiciones son equivalentes. En algunos campos, el término se utiliza indistintamente con autocovarianza .
Restar la media antes de la multiplicación produce la función de autocovarianza entre tiempos y : [1] : p.392 [2] : p.168
Tenga en cuenta que esta expresión no está bien definida para todas las series de tiempo o procesos, porque la media puede no existir o la varianza puede ser cero (para un proceso constante) o infinita (para procesos con distribución que carecen de momentos de buen comportamiento, como ciertos tipos de ley de potencia ).
Definición de proceso estocástico estacionario de sentido amplio
Si es un proceso estacionario de sentido amplio , entonces la media y la varianza son independientes del tiempo y, además, la función de autocovarianza depende sólo del desfase entre y : la autocovarianza depende sólo de la distancia temporal entre el par de valores, pero no de su posición en el tiempo. Esto implica además que la autocovarianza y la autocorrelación pueden expresarse como una función del desfase temporal, y que ésta sería una función par del desfase . Esto proporciona las formas más familiares para la función de autocorrelación [1] : p.395
y la función de autocovarianza :
En particular, tenga en cuenta que
Normalización
Es una práctica común en algunas disciplinas (por ejemplo, estadística y análisis de series de tiempo ) normalizar la función de autocovarianza para obtener un coeficiente de correlación de Pearson dependiente del tiempo . Sin embargo, en otras disciplinas (por ejemplo, ingeniería) la normalización suele descartarse y los términos "autocorrelación" y "autocovarianza" se utilizan indistintamente.
La definición del coeficiente de autocorrelación de un proceso estocástico es [2] : p.169
Si la función está bien definida, su valor debe estar en el rango , donde 1 indica correlación perfecta y −1 indica anticorrelación perfecta .
La normalización es importante porque la interpretación de la autocorrelación como una correlación proporciona una medida sin escala de la fuerza de la dependencia estadística y porque la normalización tiene un efecto sobre las propiedades estadísticas de las autocorrelaciones estimadas.
Propiedades
Propiedad de simetría
El hecho de que la función de autocorrelación sea una función par se puede afirmar como [2] : p.171
respectivamente para un proceso WSS: [2] : p.173
Máximo en cero
Para un proceso WSS: [2] : p.174
Observe que siempre es real.
Para funciones de valores reales, la función de autocorrelación simétrica tiene una transformada simétrica real, por lo que el teorema de Wiener-Khinchin se puede reexpresar únicamente en términos de cosenos reales:
Autocorrelación de vectores aleatorios.
La matriz de autocorrelación (potencialmente dependiente del tiempo) (también llamada segundo momento) de un vector aleatorio (potencialmente dependiente del tiempo) es una matriz que contiene como elementos las autocorrelaciones de todos los pares de elementos del vector aleatorio . La matriz de autocorrelación se utiliza en varios algoritmos de procesamiento de señales digitales .
Por ejemplo, si es un vector aleatorio, entonces es una matriz cuya entrada -ésima es .
Propiedades de la matriz de autocorrelación.
La matriz de autocorrelación es una matriz hermitiana para vectores aleatorios complejos y una matriz simétrica para vectores aleatorios reales. [3] : pág.190
La matriz de autocorrelación es una matriz semidefinida positiva , [3] : p.190 es decir, para un vector aleatorio real y, respectivamente, en el caso de un vector aleatorio complejo.
Todos los valores propios de la matriz de autocorrelación son reales y no negativos.
La matriz de autocovarianza está relacionada con la matriz de autocorrelación de la siguiente manera: Respectivamente para vectores aleatorios complejos:
Autocorrelación de señales deterministas.
En el procesamiento de señales , la definición anterior se usa a menudo sin la normalización, es decir, sin restar la media y dividir por la varianza. Cuando la función de autocorrelación se normaliza por media y varianza, a veces se la denomina coeficiente de autocorrelación [4] o función de autocovarianza.
Autocorrelación de señal de tiempo continuo.
Dada una señal , la autocorrelación continua se define con mayor frecuencia como la integral de correlación cruzada continua consigo misma, en retraso . [1] : p.411
donde representa el conjugado complejo de . Tenga en cuenta que el parámetro de la integral es una variable ficticia y sólo es necesario para calcular la integral. No tiene un significado específico.
Autocorrelación de señal en tiempo discreto.
La autocorrelación discreta en retardo para una señal de tiempo discreto es
Las definiciones anteriores funcionan para señales que son integrables al cuadrado o sumables al cuadrado, es decir, de energía finita. Las señales que "duran para siempre" se tratan como procesos aleatorios, en cuyo caso se necesitan definiciones diferentes, basadas en los valores esperados. Para procesos aleatorios estacionarios de sentido amplio , las autocorrelaciones se definen como
Para procesos que no son estacionarios , estas también serán funciones de , o .
Para procesos que también son ergódicos , la expectativa puede sustituirse por el límite de un promedio de tiempo. La autocorrelación de un proceso ergódico a veces se define o se equipara a [4]
Estas definiciones tienen la ventaja de que dan resultados sensibles y bien definidos de un solo parámetro para funciones periódicas, incluso cuando esas funciones no son el resultado de procesos ergódicos estacionarios.
Alternativamente, las señales que duran para siempre pueden tratarse mediante un análisis de función de autocorrelación de corto plazo, utilizando integrales de tiempo finito. (Consulte la transformada de Fourier de corto plazo para conocer un proceso relacionado).
Definición de señales periódicas
Si es una función periódica continua de período , la integración desde hasta se reemplaza por la integración en cualquier intervalo de longitud :
que es equivalente a
Propiedades
A continuación, describiremos únicamente las propiedades de las autocorrelaciones unidimensionales, ya que la mayoría de las propiedades se transfieren fácilmente del caso unidimensional a los casos multidimensionales. Estas propiedades son válidas para procesos estacionarios de sentido amplio . [5]
Una propiedad fundamental de la autocorrelación es la simetría, que es fácil de demostrar a partir de la definición. En el caso continuo,
la autocorrelación es una función par cuando es una función real, y
La función de autocorrelación continua alcanza su punto máximo en el origen, donde toma un valor real, es decir, para cualquier retraso , . [1] : p.410 Esto es una consecuencia de la desigualdad de reordenamiento . El mismo resultado se cumple en el caso discreto.
La autocorrelación de una función periódica es, en sí misma, periódica con el mismo período.
La autocorrelación de la suma de dos funciones completamente no correlacionadas (la correlación cruzada es cero para todas ) es la suma de las autocorrelaciones de cada función por separado.
Dado que la autocorrelación es un tipo específico de correlación cruzada , mantiene todas las propiedades de la correlación cruzada.
Al usar el símbolo para representar la convolución y es una función que manipula la función y se define como , la definición de puede escribirse como:
Autocorrelación multidimensional
La autocorrelación multidimensional se define de manera similar. Por ejemplo, en tres dimensiones la autocorrelación de una señal discreta sumable al cuadrado sería
Cuando los valores medios se restan de las señales antes de calcular una función de autocorrelación, la función resultante generalmente se denomina función de autocovarianza.
Computación eficiente
Para datos expresados como una secuencia discreta , frecuentemente es necesario calcular la autocorrelación con alta eficiencia computacional . Se puede utilizar un método de fuerza bruta basado en la definición de procesamiento de señales cuando el tamaño de la señal es pequeño. Por ejemplo, para calcular la autocorrelación de la secuencia de señales real (es decir , y para todos los demás valores de i ) a mano, primero reconocemos que la definición que acabamos de dar es la misma que la multiplicación "habitual", pero con desplazamientos a la derecha, donde cada suma vertical proporciona la autocorrelación para valores de retraso particulares:
Por lo tanto, la secuencia de autocorrelación requerida es , donde y la autocorrelación para otros valores de retraso es cero. En este cálculo no realizamos la operación de arrastre durante la suma como es habitual en la multiplicación normal. Tenga en cuenta que podemos reducir a la mitad el número de operaciones necesarias explotando la simetría inherente de la autocorrelación. Si la señal es periódica, es decir, obtenemos una autocorrelación circular (similar a la convolución circular ) donde las colas izquierda y derecha de la secuencia de autocorrelación anterior se superpondrán y darán el mismo período que la secuencia de la señal. El procedimiento puede considerarse como una aplicación de la propiedad de convolución de la transformada Z de una señal discreta.
Si bien el algoritmo de fuerza bruta es de orden n 2 , existen varios algoritmos eficientes que pueden calcular la autocorrelación en orden n log( n ) . Por ejemplo, el teorema de Wiener-Khinchin permite calcular la autocorrelación a partir de los datos sin procesar X ( t ) con dos transformadas rápidas de Fourier (FFT): [6] [ página necesaria ]
Alternativamente, se puede realizar una correlación τ múltiple utilizando el cálculo de fuerza bruta para valores τ bajos y luego combinando progresivamente los datos X ( t ) con una densidad logarítmica para calcular valores más altos, lo que da como resultado la misma eficiencia n log( n ) , pero con menores requisitos de memoria. [7] [8]
Estimacion
Para un proceso discreto con media y varianza conocidas para el cual observamos observaciones , se puede obtener una estimación del coeficiente de autocorrelación como
para cualquier número entero positivo . Cuando se conocen la media y la varianza verdaderas , esta estimación es insesgada . Si no se conocen la verdadera media y varianza del proceso, existen varias posibilidades:
Si y se reemplazan por las fórmulas estándar para la media muestral y la varianza muestral, entonces se trata de una estimación sesgada .
Una estimación basada en periodograma reemplaza en la fórmula anterior con . Esta estimación siempre está sesgada; sin embargo, generalmente tiene un error cuadrático medio más pequeño . [9] [10]
Otras posibilidades se derivan de tratar las dos porciones de datos por separado y calcular medias muestrales separadas y/o varianzas muestrales para usarlas en la definición de la estimación. [ cita necesaria ]
La ventaja de las estimaciones del último tipo es que el conjunto de autocorrelaciones estimadas, en función de , forman una función que es una autocorrelación válida en el sentido de que es posible definir un proceso teórico que tenga exactamente esa autocorrelación. Otras estimaciones pueden sufrir el problema de que, si se utilizan para calcular la varianza de una combinación lineal de 's, la varianza calculada puede resultar negativa. [11]
En mínimos cuadrados ordinarios (MCO), la adecuación de la especificación de un modelo se puede comprobar en parte estableciendo si existe autocorrelación de los residuos de regresión . La autocorrelación problemática de los errores, que en sí mismos no son observados, generalmente puede detectarse porque produce autocorrelación en los residuos observables. (Los errores también se conocen como "términos de error" en econometría ). La autocorrelación de los errores viola el supuesto de mínimos cuadrados ordinarios de que los términos de error no están correlacionados, lo que significa que el teorema de Gauss Markov no se aplica y que los estimadores MCO ya no son los mejores. Estimadores lineales insesgados ( AZUL ). Si bien no sesga las estimaciones de los coeficientes MCO, los errores estándar tienden a subestimarse (y a sobreestimarse los puntajes t ) cuando las autocorrelaciones de los errores en rezagos bajos son positivas.
La prueba tradicional para la presencia de autocorrelación de primer orden es el estadístico de Durbin-Watson o, si las variables explicativas incluyen una variable dependiente rezagada, el estadístico h de Durbin . Sin embargo, el Durbin-Watson se puede asignar linealmente a la correlación de Pearson entre los valores y sus rezagos. [12] Una prueba más flexible, que cubre la autocorrelación de órdenes superiores y es aplicable independientemente de que los regresores incluyan rezagos de la variable dependiente, es la prueba de Breusch-Godfrey . Esto implica una regresión auxiliar, en la que los residuos obtenidos al estimar el modelo de interés se regresan en (a) los regresores originales y (b) k rezagos de los residuos, donde 'k' es el orden de la prueba. La versión más simple del estadístico de prueba de esta regresión auxiliar es TR 2 , donde T es el tamaño de la muestra y R 2 es el coeficiente de determinación . Bajo la hipótesis nula de ausencia de autocorrelación, esta estadística se distribuye asintóticamente como con k grados de libertad.
En la estimación de un modelo de media móvil (MA), la función de autocorrelación se utiliza para determinar el número apropiado de términos de error rezagados que se incluirán. Esto se basa en el hecho de que para un proceso MA de orden q , tenemos , for , y , for .
Aplicaciones
La capacidad de la autocorrelación para encontrar patrones repetidos en los datos genera muchas aplicaciones, entre ellas:
El análisis de autocorrelación se utiliza mucho en la espectroscopia de correlación de fluorescencia [14] para proporcionar información cuantitativa sobre la difusión a nivel molecular y las reacciones químicas. [15]
La autocorrelación se utiliza para analizar datos dinámicos de dispersión de la luz , lo que permite en particular determinar las distribuciones de tamaño de partículas de tamaño nanométrico o micelas suspendidas en un fluido. Un láser que brilla en la mezcla produce un patrón de motas que resulta del movimiento de las partículas. La autocorrelación de la señal se puede analizar en términos de difusión de las partículas. A partir de esto, conociendo la viscosidad del fluido, se pueden calcular los tamaños de las partículas.
Se utiliza en el sistema GPS para corregir el retraso de propagación , o cambio de tiempo, entre el momento de la transmisión de la señal portadora en los satélites y el momento del receptor en tierra. Esto lo hace el receptor generando una señal réplica del código C/A (Grueso/Adquisición) de 1.023 bits y generando líneas de chips de código [-1,1] en paquetes de diez a la vez, o 10.230 chips (1.023 × 10), desplazándose ligeramente a medida que avanza para adaptarse al desplazamiento Doppler en la señal del satélite entrante, hasta que la réplica de la señal del receptor y los códigos de la señal del satélite coincidan. [dieciséis]
La intensidad de dispersión de rayos X de ángulo pequeño de un sistema nanoestructurado es la transformada de Fourier de la función de autocorrelación espacial de la densidad electrónica.
En música , la autocorrelación (cuando se aplica en escalas de tiempo inferiores a un segundo) se utiliza como algoritmo de detección de tono tanto para afinadores de instrumentos como para el "Auto Tune" (utilizado como efecto de distorsión o para fijar la entonación). [18] Cuando se aplica en escalas de tiempo superiores a un segundo, la autocorrelación puede identificar el ritmo musical , por ejemplo para determinar el tempo .
Los difraccionistas de rayos X utilizan la autocorrelación en el espacio en lugar del tiempo, a través de la función de Patterson , para ayudar a recuperar la "información de fase de Fourier" sobre las posiciones de los átomos que no están disponibles mediante la difracción únicamente.
En estadística, la autocorrelación espacial entre ubicaciones de muestra también ayuda a estimar las incertidumbres del valor medio al muestrear una población heterogénea.
El algoritmo SEQUEST para analizar espectros de masas utiliza la autocorrelación junto con la correlación cruzada para calificar la similitud de un espectro observado con un espectro idealizado que representa un péptido .
En astrofísica , la autocorrelación se utiliza para estudiar y caracterizar la distribución espacial de las galaxias en el universo y en observaciones de múltiples longitudes de onda de binarias de rayos X de baja masa .
En datos de panel , la autocorrelación espacial se refiere a la correlación de una variable consigo misma a través del espacio.
En el análisis de los datos Monte Carlo de la cadena de Markov , se debe tener en cuenta la autocorrelación para determinar correctamente el error.
En geociencias (específicamente en geofísica ) se puede utilizar para calcular un atributo sísmico de autocorrelación, a partir de un estudio sísmico 3D del subsuelo.
En la ecografía médica , la autocorrelación se utiliza para visualizar el flujo sanguíneo.
En los relés numéricos , la autocorrelación se ha utilizado para medir con precisión la frecuencia del sistema de energía. [19]
Dependencia serial
La dependencia serial está estrechamente vinculada a la noción de autocorrelación, pero representa un concepto distinto (ver Correlación y dependencia ). En particular, es posible tener dependencia serial pero no correlación (lineal). Sin embargo, en algunos campos los dos términos se utilizan como sinónimos.
Una serie de tiempo de una variable aleatoria tiene dependencia serial si el valor en algún momento de la serie depende estadísticamente del valor en otro momento . Una serie es serialmente independiente si no existe dependencia entre ningún par.
Si una serie de tiempo es estacionaria , entonces la dependencia estadística entre el par implicaría que existe dependencia estadística entre todos los pares de valores con el mismo rezago .
^ abcdefg Gubner, John A. (2006). Probabilidad y Procesos Aleatorios para Ingenieros Eléctricos e Informáticos . Prensa de la Universidad de Cambridge. ISBN 978-0-521-86470-1.
^ abcdef Kun Il Park, Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones, Springer, 2018, ISBN 978-3-319-68074-3
^ ab Dunn, Patrick F. (2005). Medición y análisis de datos para ingeniería y ciencia . Nueva York: McGraw-Hill. ISBN978-0-07-282538-1.
^ Proakis, John (31 de agosto de 2001). Ingeniería de sistemas de comunicación (2ª edición) (2 ed.). Pearson. pag. 168.ISBN978-0130617934.
^ Caja, GEP; Jenkins, director general; Reinsel, GC (1994). Análisis de series temporales: previsión y control (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice – Hall. ISBN978-0130607744.
^ Frenkel, D.; Smit, B. (2002). "capítulo 4.4.2". Comprensión de la simulación molecular (2ª ed.). Londres: Academic Press. ISBN978-0122673511.
^ Colberg, P.; Höfling, F. (2011). "Simulaciones altamente aceleradas de dinámica vítrea utilizando GPU: advertencias sobre la precisión limitada del punto flotante". Computadora. Física. Comunitario. 182 (5): 1120-1129. arXiv : 0912.3824 . Código Bib : 2011CoPhC.182.1120C. doi :10.1016/j.cpc.2011.01.009. S2CID 7173093.
^ Priestley, MB (1982). Análisis espectral y series temporales . Londres, Nueva York: Academic Press. ISBN978-0125649018.
^ Percival, Donald B.; Andrew T. Walden (1993). Análisis espectral para aplicaciones físicas: técnicas multitaper y univariadas convencionales . Prensa de la Universidad de Cambridge. págs. 190-195. ISBN978-0-521-43541-3.
^ Percival, Donald B. (1993). "Tres propiedades curiosas de la varianza muestral y la autocovarianza para procesos estacionarios con media desconocida". El estadístico estadounidense . 47 (4): 274–276. doi :10.1080/00031305.1993.10475997.
^ "Técnicas de correlación serial". Ideas estadísticas . 26 de mayo de 2014.
^ Baum, Christopher F. (2006). Introducción a la econometría moderna utilizando Stata . Prensa Stata. ISBN978-1-59718-013-9.
^ Elson, Elliot L. (diciembre de 2011). "Espectroscopia de correlación de fluorescencia: pasado, presente, futuro". Revista Biofísica . 101 (12): 2855–2870. Código Bib : 2011BpJ...101.2855E. doi :10.1016/j.bpj.2011.11.012. PMC 3244056 . PMID 22208184.
^ Hołyst, Robert; Poniewierski, Andrzej; Zhang, Xuzhu (2017). "Forma analítica de la función de autocorrelación para la espectroscopia de correlación de fluorescencia". Materia Blanda . 13 (6): 1267-1275. Código Bib : 2017SMat...13.1267H. doi : 10.1039/C6SM02643E . ISSN 1744-683X. PMID 28106203.
^ Van Sickle, enero (2008). GPS para agrimensores (Tercera ed.). Prensa CRC. págs. 18-19. ISBN978-0-8493-9195-8.
^ Kalvani, Payam Rajabi; Jahangiri, Ali Reza; Shapouri, Samaneh; Sari, Amirhossein; Jalili, Yousef Seyed (agosto de 2019). "Análisis AFM multimodo de películas delgadas de óxido de zinc dopadas con aluminio pulverizadas bajo varias temperaturas de sustrato para aplicaciones optoelectrónicas". Superredes y Microestructuras . 132 : 106173. doi : 10.1016/j.spmi.2019.106173. S2CID 198468676.
^ Tyrangiel, Josh (5 de febrero de 2009). "Auto-Tune: por qué la música pop suena perfecta". Tiempo . Archivado desde el original el 10 de febrero de 2009.
^ Kasztenny, Bogdan (marzo de 2016). "Un nuevo método de medición rápida de frecuencia para aplicaciones de protección" (PDF) . Laboratorios de ingeniería Schweitzer. Archivado (PDF) desde el original el 9 de octubre de 2022 . Consultado el 28 de mayo de 2022 .
Otras lecturas
Kmenta, enero (1986). Elementos de econometría (Segunda ed.). Nueva York: Macmillan. págs. 298–334. ISBN 978-0-02-365070-3.
Soltanalian, Mojtaba; Estoica, Petre (2012). "Diseño computacional de secuencias con buenas propiedades de correlación". Transacciones IEEE sobre procesamiento de señales . 60 (5): 2180. Código bibliográfico : 2012ITSP...60.2180S. doi :10.1109/TSP.2012.2186134.
Solomon W. Golomb y Guang Gong . Diseño de señales para una buena correlación: para comunicación inalámbrica, criptografía y radar. Prensa de la Universidad de Cambridge, 2005.
Klapetek, Petr (2018). Procesamiento de datos cuantitativos en microscopía de sonda de barrido: aplicaciones SPM para nanometrología (Segunda ed.). Elsevier. págs. 108-112 ISBN 9780128133477 .