stringtranslate.com

Autocorrelación

Arriba: Un gráfico de una serie de 100 números aleatorios que oculta una función seno . Abajo: La función seno revelada en un correlograma producido por autocorrelación.
Comparación visual de convolución, correlación cruzada y autocorrelación . Para las operaciones que involucran la función f y suponiendo que la altura de f es 1,0, el valor del resultado en 5 puntos diferentes se indica mediante el área sombreada debajo de cada punto. Además, la simetría de f es la razón y son idénticos en este ejemplo.

La autocorrelación , a veces conocida como correlación serial en el caso de tiempo discreto , es la correlación de una señal con una copia retrasada de sí misma en función del retraso. De manera informal, es la similitud entre observaciones de una variable aleatoria en función del desfase temporal entre ellas. El análisis de la autocorrelación es una herramienta matemática para encontrar patrones repetitivos, como la presencia de una señal periódica oscurecida por el ruido , o para identificar la frecuencia fundamental faltante en una señal implícita en sus frecuencias armónicas . A menudo se utiliza en el procesamiento de señales para analizar funciones o series de valores, como las señales del dominio del tiempo .

Distintos campos de estudio definen la autocorrelación de forma diferente y no todas estas definiciones son equivalentes. En algunos campos, el término se utiliza indistintamente con el de autocovarianza .

Los procesos de raíz unitaria , los procesos de tendencia estacionaria , los procesos autorregresivos y los procesos de promedio móvil son formas específicas de procesos con autocorrelación.

Autocorrelación de procesos estocásticos

En estadística , la autocorrelación de un proceso aleatorio real o complejo es la correlación de Pearson entre valores del proceso en diferentes momentos, en función de los dos momentos o del desfase temporal. Sea un proceso aleatorio, y sea cualquier momento temporal ( puede ser un entero para un proceso de tiempo discreto o un número real para un proceso de tiempo continuo ). Entonces es el valor (o realización ) producido por una ejecución dada del proceso en el momento . Supóngase que el proceso tiene media y varianza en el momento , para cada . Entonces la definición de la función de autocorrelación entre los momentos y es [1] : p.388  [2] : p.165 

donde es el operador de valor esperado y la barra representa la conjugación compleja . Tenga en cuenta que la expectativa puede no estar bien definida .

Restando la media antes de la multiplicación se obtiene la función de autocovarianza entre los tiempos y : [1] : p.392  [2] : p.168 

Téngase en cuenta que esta expresión no está bien definida para todas las series temporales o procesos, porque la media puede no existir o la varianza puede ser cero (para un proceso constante) o infinita (para procesos con distribución que carece de momentos de buen comportamiento, como ciertos tipos de ley de potencia ).

Definición de proceso estocástico estacionario de sentido amplio

Si es un proceso estacionario de sentido amplio , entonces la media y la varianza son independientes del tiempo y, además, la función de autocovarianza depende solo del desfase entre y : la autocovarianza depende solo de la distancia temporal entre el par de valores, pero no de su posición en el tiempo. Esto implica además que la autocovarianza y la autocorrelación se pueden expresar como una función del desfase temporal, y que esta sería una función par del desfase . Esto da las formas más familiares para la función de autocorrelación [1] : p.395 

y la función de autocovarianza :

En particular, tenga en cuenta que

Normalización

En algunas disciplinas (por ejemplo, estadística y análisis de series temporales ) es una práctica habitual normalizar la función de autocovarianza para obtener un coeficiente de correlación de Pearson dependiente del tiempo . Sin embargo, en otras disciplinas (por ejemplo, ingeniería), la normalización suele descartarse y los términos "autocorrelación" y "autocovarianza" se utilizan indistintamente.

La definición del coeficiente de autocorrelación de un proceso estocástico es [2] : p.169 

Si la función está bien definida, su valor debe estar en el rango , donde 1 indica correlación perfecta y −1 indica anticorrelación perfecta .

Para un proceso estacionario de sentido amplio (WSS), la definición es

.

La normalización es importante tanto porque la interpretación de la autocorrelación como correlación proporciona una medida libre de escala de la fuerza de la dependencia estadística , como porque la normalización tiene un efecto sobre las propiedades estadísticas de las autocorrelaciones estimadas.

Propiedades

Propiedad de simetría

El hecho de que la función de autocorrelación sea una función par se puede expresar como [2] : p.171  respectivamente para un proceso WSS: [2] : p.173 

Máximo en cero

Para un proceso WSS: [2] : p.174  Nótese que siempre es real.

Desigualdad de Cauchy-Schwarz

La desigualdad de Cauchy-Schwarz , desigualdad para procesos estocásticos: [1] : p.392 

Autocorrelación del ruido blanco

La autocorrelación de una señal de ruido blanco de tiempo continuo tendrá un pico fuerte (representado por una función delta de Dirac ) en y será exactamente para todos los demás .

Teorema de Wiener-Khinchin

El teorema de Wiener-Khinchin relaciona la función de autocorrelación con la densidad espectral de potencia a través de la transformada de Fourier :

Para funciones de valores reales, la función de autocorrelación simétrica tiene una transformada simétrica real, por lo que el teorema de Wiener-Khinchin se puede reexpresar solo en términos de cosenos reales:

Autocorrelación de vectores aleatorios

La matriz de autocorrelación (también llamada segundo momento) de un vector aleatorio (potencialmente dependiente del tiempo) es una matriz que contiene como elementos las autocorrelaciones de todos los pares de elementos del vector aleatorio . La matriz de autocorrelación se utiliza en varios algoritmos de procesamiento de señales digitales .

Para un vector aleatorio que contiene elementos aleatorios cuyo valor esperado y varianza existen, la matriz de autocorrelación se define por [3] : p.190  [1] : p.334 

donde denota la matriz transpuesta de dimensiones .

Escrito por componentes:

Si es un vector aleatorio complejo , la matriz de autocorrelación se define en cambio por

Aquí denota transposición hermítica .

Por ejemplo, si es un vector aleatorio, entonces es una matriz cuya entrada -ésima es .

Propiedades de la matriz de autocorrelación

Autocorrelación de señales deterministas

En el procesamiento de señales , la definición anterior se utiliza a menudo sin la normalización, es decir, sin restar la media y dividir por la varianza. Cuando la función de autocorrelación se normaliza por la media y la varianza, a veces se la denomina coeficiente de autocorrelación [4] o función de autocovarianza.

Autocorrelación de señales de tiempo continuo

Dada una señal , la autocorrelación continua se define con mayor frecuencia como la integral de correlación cruzada continua de consigo misma, con un desfase de . [1] : p.411 

donde representa el conjugado complejo de . Nótese que el parámetro en la integral es una variable ficticia y solo es necesario para calcular la integral. No tiene un significado específico.

Autocorrelación de señales de tiempo discreto

La autocorrelación discreta en el desfase para una señal de tiempo discreto es

Las definiciones anteriores funcionan para señales que son integrables al cuadrado o sumables al cuadrado, es decir, de energía finita. Las señales que "duran para siempre" se tratan en cambio como procesos aleatorios, en cuyo caso se necesitan definiciones diferentes, basadas en valores esperados. Para procesos aleatorios estacionarios en sentido amplio , las autocorrelaciones se definen como

Para los procesos que no son estacionarios , estas también serán funciones de , o .

Para los procesos que también son ergódicos , la expectativa puede reemplazarse por el límite de un promedio de tiempo. La autocorrelación de un proceso ergódico a veces se define como o se equipara a [4]

Estas definiciones tienen la ventaja de que dan resultados de un solo parámetro bien definidos y sensibles para funciones periódicas, incluso cuando esas funciones no son el resultado de procesos ergódicos estacionarios.

Alternativamente, las señales que duran eternamente pueden ser tratadas mediante un análisis de función de autocorrelación de corto plazo, utilizando integrales de tiempo finito. (Véase la transformada de Fourier de corto plazo para un proceso relacionado).

Definición de señales periódicas

Si es una función periódica continua de período , la integración de a se reemplaza por la integración sobre cualquier intervalo de longitud :

que es equivalente a

Propiedades

A continuación, describiremos únicamente las propiedades de las autocorrelaciones unidimensionales, ya que la mayoría de las propiedades se transfieren fácilmente del caso unidimensional al caso multidimensional. Estas propiedades son válidas para procesos estacionarios de sentido amplio . [5]

Autocorrelación multidimensional

La autocorrelación multidimensional se define de manera similar. Por ejemplo, en tres dimensiones, la autocorrelación de una señal discreta sumable al cuadrado sería

Cuando se restan los valores medios de las señales antes de calcular una función de autocorrelación, la función resultante suele denominarse función de autocovarianza.

Computación eficiente

Para los datos expresados ​​como una secuencia discreta , con frecuencia es necesario calcular la autocorrelación con una alta eficiencia computacional . Se puede utilizar un método de fuerza bruta basado en la definición de procesamiento de señales cuando el tamaño de la señal es pequeño. Por ejemplo, para calcular la autocorrelación de la secuencia de señales reales (es decir , y para todos los demás valores de i ) a mano, primero reconocemos que la definición que acabamos de dar es la misma que la multiplicación "habitual", pero con desplazamientos a la derecha, donde cada adición vertical da la autocorrelación para valores de retardo particulares:

Por lo tanto, la secuencia de autocorrelación requerida es , donde y la autocorrelación para otros valores de retardo es cero. En este cálculo no realizamos la operación de arrastre durante la suma como es habitual en la multiplicación normal. Tenga en cuenta que podemos reducir a la mitad el número de operaciones requeridas explotando la simetría inherente de la autocorrelación. Si la señal resulta ser periódica, es decir, entonces obtenemos una autocorrelación circular (similar a la convolución circular ) donde las colas izquierda y derecha de la secuencia de autocorrelación anterior se superpondrán y darán que tiene el mismo período que la secuencia de señal. El procedimiento puede considerarse como una aplicación de la propiedad de convolución de la transformada Z de una señal discreta.

Si bien el algoritmo de fuerza bruta es de orden n 2 , existen varios algoritmos eficientes que pueden calcular la autocorrelación en orden n log( n ) . Por ejemplo, el teorema de Wiener-Khinchin permite calcular la autocorrelación a partir de los datos brutos X ( t ) con dos transformadas rápidas de Fourier (FFT): [6] [ página necesaria ]

donde IFFT denota la transformada rápida de Fourier inversa . El asterisco denota el conjugado complejo .

Como alternativa, se puede realizar una correlación τ múltiple utilizando un cálculo de fuerza bruta para valores τ bajos y luego agrupando progresivamente los datos X ( t ) con una densidad logarítmica para calcular valores más altos, lo que da como resultado la misma eficiencia n log( n ) , pero con menores requisitos de memoria. [7] [8]

Estimación

Para un proceso discreto con media y varianza conocidas para el cual observamos observaciones , se puede obtener una estimación del coeficiente de autocorrelación como

para cualquier entero positivo . Cuando se conocen la media y la varianza verdaderas, esta estimación es insesgada . Si no se conocen la media y la varianza verdaderas del proceso, existen varias posibilidades:

La ventaja de las estimaciones del último tipo es que el conjunto de autocorrelaciones estimadas, como función de , forma entonces una función que es una autocorrelación válida en el sentido de que es posible definir un proceso teórico que tenga exactamente esa autocorrelación. Otras estimaciones pueden sufrir el problema de que, si se utilizan para calcular la varianza de una combinación lineal de las , la varianza calculada puede resultar negativa. [11]

Análisis de regresión

En el análisis de regresión que utiliza datos de series temporales , la autocorrelación en una variable de interés se modela típicamente con un modelo autorregresivo (AR), un modelo de promedio móvil (MA), su combinación como un modelo autorregresivo de promedio móvil (ARMA) o una extensión de este último llamado modelo autorregresivo integrado de promedio móvil (ARIMA). Con múltiples series de datos interrelacionados, se utiliza la autorregresión vectorial (VAR) o sus extensiones.

En los mínimos cuadrados ordinarios (MCO), la adecuación de la especificación de un modelo se puede comprobar en parte estableciendo si hay autocorrelación de los residuos de regresión . La autocorrelación problemática de los errores, que en sí mismos no son observados, generalmente se puede detectar porque produce autocorrelación en los residuos observables. (Los errores también se conocen como "términos de error" en econometría ). La autocorrelación de los errores viola el supuesto de mínimos cuadrados ordinarios de que los términos de error no están correlacionados, lo que significa que el teorema de Gauss-Markov no se aplica y que los estimadores de MCO ya no son los mejores estimadores lineales insesgados ( BLUE ). Si bien no sesga las estimaciones de los coeficientes de MCO, los errores estándar tienden a subestimarse (y las puntuaciones t a sobreestimarse) cuando las autocorrelaciones de los errores en rezagos bajos son positivas.

La prueba tradicional para la presencia de autocorrelación de primer orden es la estadística de Durbin-Watson o, si las variables explicativas incluyen una variable dependiente rezagada, la estadística h de Durbin . Sin embargo, la estadística de Durbin-Watson se puede mapear linealmente a la correlación de Pearson entre valores y sus rezagos. [12] Una prueba más flexible, que cubre la autocorrelación de órdenes superiores y es aplicable independientemente de si los regresores incluyen rezagos de la variable dependiente o no, es la prueba de Breusch-Godfrey . Esto implica una regresión auxiliar, en donde los residuos obtenidos de la estimación del modelo de interés se regresionan sobre (a) los regresores originales y (b) k rezagos de los residuos, donde 'k' es el orden de la prueba. La versión más simple de la estadística de prueba de esta regresión auxiliar es TR 2 , donde T es el tamaño de la muestra y R 2 es el coeficiente de determinación . Bajo la hipótesis nula de no autocorrelación, esta estadística se distribuye asintóticamente con k grados de libertad.

Las respuestas a la autocorrelación distinta de cero incluyen los mínimos cuadrados generalizados y el estimador Newey-West HAC (Heteroscedasticidad y autocorrelación consistentes). [13]

En la estimación de un modelo de promedio móvil (MA), se utiliza la función de autocorrelación para determinar la cantidad adecuada de términos de error rezagado que se deben incluir. Esto se basa en el hecho de que para un proceso MA de orden q , tenemos , para , y , para .

Aplicaciones

La capacidad de la autocorrelación para encontrar patrones repetitivos en los datos produce muchas aplicaciones, entre ellas:

Dependencia serial

La dependencia serial está estrechamente vinculada a la noción de autocorrelación, pero representa un concepto distinto (véase Correlación y dependencia ). En particular, es posible tener dependencia serial pero no correlación (lineal). Sin embargo, en algunos campos, ambos términos se utilizan como sinónimos.

Una serie temporal de una variable aleatoria tiene dependencia serial si el valor en algún momento de la serie depende estadísticamente del valor en otro momento . Una serie es serialmente independiente si no existe dependencia entre ningún par.

Si una serie temporal es estacionaria , entonces la dependencia estadística entre el par implicaría que existe dependencia estadística entre todos los pares de valores en el mismo desfase .

Véase también

Referencias

  1. ^ abcdefg Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN 978-0-521-86470-1.
  2. ^ abcdef Kun Il Park, Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones, Springer, 2018, ISBN 978-3-319-68074-3 
  3. ^ abc Papoulis, Athanasius, Probabilidad, variables aleatorias y procesos estocásticos , McGraw-Hill, 1991
  4. ^ ab Dunn, Patrick F. (2005). Medición y análisis de datos para ingeniería y ciencia . Nueva York: McGraw-Hill. ISBN 978-0-07-282538-1.
  5. ^ Proakis, John (31 de agosto de 2001). Ingeniería de sistemas de comunicación (2.ª edición) (2.ª ed.). Pearson. pág. 168. ISBN 978-0130617934.
  6. ^ Box, GEP; Jenkins, GM; Reinsel, GC (1994). Análisis de series temporales: pronóstico y control (3.ª ed.). Upper Saddle River, NJ: Prentice–Hall. ISBN 978-0130607744.
  7. ^ Frenkel, D.; Smit, B. (2002). "cap. 4.4.2". Entendiendo la simulación molecular (2.ª ed.). Londres: Academic Press. ISBN 978-0122673511.
  8. ^ Colberg, P.; Höfling, F. (2011). "Simulaciones altamente aceleradas de dinámicas vítreas utilizando GPU: advertencias sobre precisión de punto flotante limitada". Comput. Phys. Commun. 182 (5): 1120–1129. arXiv : 0912.3824 . Código Bibliográfico :2011CoPhC.182.1120C. doi :10.1016/j.cpc.2011.01.009. S2CID  7173093.
  9. ^ Priestley, MB (1982). Análisis espectral y series temporales . Londres, Nueva York: Academic Press. ISBN 978-0125649018.
  10. ^ Percival, Donald B.; Andrew T. Walden (1993). Análisis espectral para aplicaciones físicas: técnicas univariadas convencionales y multicono . Cambridge University Press. págs. 190–195. ISBN 978-0-521-43541-3.
  11. ^ Percival, Donald B. (1993). "Tres propiedades curiosas de la varianza muestral y la autocovarianza para procesos estacionarios con media desconocida". The American Statistician . 47 (4): 274–276. doi :10.1080/00031305.1993.10475997.
  12. ^ "Técnicas de correlación serial". Ideas estadísticas . 26 de mayo de 2014.
  13. ^ Baum, Christopher F. (2006). Introducción a la econometría moderna con Stata . Stata Press. ISBN 978-1-59718-013-9.
  14. ^ Elson, Elliot L. (diciembre de 2011). "Espectroscopia de correlación de fluorescencia: pasado, presente, futuro". Biophysical Journal . 101 (12): 2855–2870. Bibcode :2011BpJ...101.2855E. doi :10.1016/j.bpj.2011.11.012. PMC 3244056 . PMID  22208184. 
  15. ^ Hołyst, Robert; Poniewierski, Andrzej; Zhang, Xuzhu (2017). "Forma analítica de la función de autocorrelación para la espectroscopia de correlación de fluorescencia". Soft Matter . 13 (6): 1267–1275. Bibcode :2017SMat...13.1267H. doi : 10.1039/C6SM02643E . ISSN  1744-683X. PMID  28106203.
  16. ^ Van Sickle, Jan (2008). GPS para agrimensores (tercera edición). CRC Press. págs. 18-19. ISBN 978-0-8493-9195-8.
  17. ^ Kalvani, Payam Rajabi; Jahangiri, Ali Reza; Shapouri, Samaneh; Sari, Amirhossein; Jalili, Yousef Seyed (agosto de 2019). "Análisis AFM multimodo de películas delgadas de óxido de zinc dopado con aluminio pulverizadas a varias temperaturas de sustrato para aplicaciones optoelectrónicas". Superlattices and Microstructures . 132 : 106173. doi :10.1016/j.spmi.2019.106173. S2CID  198468676.
  18. ^ Tyrangiel, Josh (5 de febrero de 2009). "Auto-Tune: por qué la música pop suena perfecta". Time . Archivado desde el original el 10 de febrero de 2009.
  19. ^ Kasztenny, Bogdan (marzo de 2016). "Un nuevo método para la medición rápida de frecuencias para aplicaciones de protección" (PDF) . Schweitzer Engineering Laboratories. Archivado (PDF) del original el 2022-10-09 . Consultado el 28 de mayo de 2022 .

Lectura adicional