stringtranslate.com

Predicción lineal

La predicción lineal es una operación matemática en la que los valores futuros de una señal en tiempo discreto se estiman como una función lineal de muestras anteriores.

En el procesamiento de señales digitales , la predicción lineal a menudo se denomina codificación predictiva lineal (LPC) y, por lo tanto, puede verse como un subconjunto de la teoría de filtros . En el análisis de sistemas , un subcampo de las matemáticas , la predicción lineal puede verse como parte del modelado u optimización matemático .

El modelo de predicción

La representación más común es

donde está el valor de la señal predicho, los valores observados previamente, con y los coeficientes predictores. El error generado por esta estimación es

¿Dónde está el verdadero valor de la señal?

Estas ecuaciones son válidas para todos los tipos de predicción lineal (unidimensional). Las diferencias se encuentran en la forma en que se eligen los coeficientes predictores.

Para señales multidimensionales, la métrica de error a menudo se define como

donde es una norma vectorial elegida adecuada . Predicciones como las que se utilizan habitualmente en los filtros y suavizadores de Kalman para estimar los valores de señal actuales y pasados, respectivamente, a partir de mediciones ruidosas. [1]

Estimando los parámetros

La elección más común en la optimización de parámetros es el criterio de la raíz cuadrática media , que también se denomina criterio de autocorrelación . En este método minimizamos el valor esperado del error al cuadrado , lo que produce la ecuación

para 1 ≤ jp , donde R es la autocorrelación de la señal x n , definida como

,

y E es el valor esperado . En el caso multidimensional esto corresponde a minimizar la norma L 2 .

Las ecuaciones anteriores se denominan ecuaciones normales o ecuaciones de Yule-Walker . En forma matricial, las ecuaciones se pueden escribir de manera equivalente como

donde la matriz de autocorrelación es una matriz de Toeplitz simétrica con elementos , el vector es el vector de autocorrelación y , el vector de parámetros.

Otro enfoque, más general, es minimizar la suma de los cuadrados de los errores definidos en la forma

donde el problema de optimización que busca sobre todo ahora debe limitarse con .

Por otro lado, si el error cuadrático medio de predicción se limita a ser uno y la ecuación del error de predicción se incluye encima de las ecuaciones normales, el conjunto aumentado de ecuaciones se obtiene como

donde el índice va de 0 a y es una matriz.

La especificación de los parámetros del predictor lineal es un tema amplio y se han propuesto muchos otros enfoques. De hecho, el método de autocorrelación es el más común [2] y se utiliza, por ejemplo, para la codificación de voz en el estándar GSM .

La solución de la ecuación matricial es computacionalmente un proceso relativamente costoso. La eliminación gaussiana para la inversión de matrices es probablemente la solución más antigua, pero este enfoque no utiliza eficientemente la simetría de . Un algoritmo más rápido es la recursividad de Levinson propuesta por Norman Levinson en 1947, que calcula la solución de forma recursiva. [ cita necesaria ] En particular, las ecuaciones de autocorrelación anteriores pueden resolverse de manera más eficiente mediante el algoritmo de Durbin. [3]

En 1986, Philippe Delsarte y YV Genin propusieron una mejora a este algoritmo llamada recursividad dividida de Levinson, que requiere aproximadamente la mitad del número de multiplicaciones y divisiones. [4] Utiliza una propiedad simétrica especial de los vectores de parámetros en niveles de recursividad posteriores. Es decir, los cálculos para los términos que contienen el predictor óptimo utilizan cálculos similares para los términos que contienen el predictor óptimo.

Otra forma de identificar los parámetros del modelo es calcular de forma iterativa estimaciones de estado utilizando filtros de Kalman y obtener estimaciones de máxima verosimilitud dentro de algoritmos de maximización de expectativas .

Para valores equidistantes, una interpolación polinómica es una combinación lineal de los valores conocidos. Si se estima que la señal de tiempo discreto obedece a un polinomio de grado, entonces los coeficientes predictores vienen dados por la fila correspondiente del triángulo de coeficientes de transformada binomial. Esta estimación podría ser adecuada para una señal que varía lentamente con poco ruido. Las predicciones para los primeros valores de son

Ver también

Referencias

  1. ^ "Filtro de Kalman: descripción general | Temas de ScienceDirect". www.sciencedirect.com . Consultado el 24 de junio de 2022 .
  2. ^ "Predicción lineal: descripción general | Temas de ScienceDirect". www.sciencedirect.com . Consultado el 24 de junio de 2022 .
  3. ^ Ramírez, MA (2008). "Un algoritmo de Levinson basado en una transformación isométrica de Durbin" (PDF) . Cartas de procesamiento de señales IEEE . 15 : 99-102. doi :10.1109/LSP.2007.910319. S2CID  18906207.
  4. ^ Delsarte, P. y Genin, YV (1986), El algoritmo dividido de Levinson , IEEE Transactions on Acoustics, Speech, and Signal Processing , v. ASSP-34(3), págs.

Lectura adicional

Enlaces externos