La predicción lineal es una operación matemática en la que los valores futuros de una señal en tiempo discreto se estiman como una función lineal de muestras anteriores.
En el procesamiento de señales digitales , la predicción lineal a menudo se denomina codificación predictiva lineal (LPC) y, por lo tanto, puede verse como un subconjunto de la teoría de filtros . En el análisis de sistemas , un subcampo de las matemáticas , la predicción lineal puede verse como parte del modelado u optimización matemático .
La representación más común es
donde está el valor de la señal predicho, los valores observados previamente, con y los coeficientes predictores. El error generado por esta estimación es
¿Dónde está el verdadero valor de la señal?
Estas ecuaciones son válidas para todos los tipos de predicción lineal (unidimensional). Las diferencias se encuentran en la forma en que se eligen los coeficientes predictores.
Para señales multidimensionales, la métrica de error a menudo se define como
donde es una norma vectorial elegida adecuada . Predicciones como las que se utilizan habitualmente en los filtros y suavizadores de Kalman para estimar los valores de señal actuales y pasados, respectivamente, a partir de mediciones ruidosas. [1]
La elección más común en la optimización de parámetros es el criterio de la raíz cuadrática media , que también se denomina criterio de autocorrelación . En este método minimizamos el valor esperado del error al cuadrado , lo que produce la ecuación
para 1 ≤ j ≤ p , donde R es la autocorrelación de la señal x n , definida como
y E es el valor esperado . En el caso multidimensional esto corresponde a minimizar la norma L 2 .
Las ecuaciones anteriores se denominan ecuaciones normales o ecuaciones de Yule-Walker . En forma matricial, las ecuaciones se pueden escribir de manera equivalente como
donde la matriz de autocorrelación es una matriz de Toeplitz simétrica con elementos , el vector es el vector de autocorrelación y , el vector de parámetros.
Otro enfoque, más general, es minimizar la suma de los cuadrados de los errores definidos en la forma
donde el problema de optimización que busca sobre todo ahora debe limitarse con .
Por otro lado, si el error cuadrático medio de predicción se limita a ser uno y la ecuación del error de predicción se incluye encima de las ecuaciones normales, el conjunto aumentado de ecuaciones se obtiene como
donde el índice va de 0 a y es una matriz.
La especificación de los parámetros del predictor lineal es un tema amplio y se han propuesto muchos otros enfoques. De hecho, el método de autocorrelación es el más común [2] y se utiliza, por ejemplo, para la codificación de voz en el estándar GSM .
La solución de la ecuación matricial es computacionalmente un proceso relativamente costoso. La eliminación gaussiana para la inversión de matrices es probablemente la solución más antigua, pero este enfoque no utiliza eficientemente la simetría de . Un algoritmo más rápido es la recursividad de Levinson propuesta por Norman Levinson en 1947, que calcula la solución de forma recursiva. [ cita necesaria ] En particular, las ecuaciones de autocorrelación anteriores pueden resolverse de manera más eficiente mediante el algoritmo de Durbin. [3]
En 1986, Philippe Delsarte y YV Genin propusieron una mejora a este algoritmo llamada recursividad dividida de Levinson, que requiere aproximadamente la mitad del número de multiplicaciones y divisiones. [4] Utiliza una propiedad simétrica especial de los vectores de parámetros en niveles de recursividad posteriores. Es decir, los cálculos para los términos que contienen el predictor óptimo utilizan cálculos similares para los términos que contienen el predictor óptimo.
Otra forma de identificar los parámetros del modelo es calcular de forma iterativa estimaciones de estado utilizando filtros de Kalman y obtener estimaciones de máxima verosimilitud dentro de algoritmos de maximización de expectativas .
Para valores equidistantes, una interpolación polinómica es una combinación lineal de los valores conocidos. Si se estima que la señal de tiempo discreto obedece a un polinomio de grado, entonces los coeficientes predictores vienen dados por la fila correspondiente del triángulo de coeficientes de transformada binomial. Esta estimación podría ser adecuada para una señal que varía lentamente con poco ruido. Las predicciones para los primeros valores de son