stringtranslate.com

Error cuadrático medio mínimo

En estadística y procesamiento de señales , un estimador de error cuadrático medio mínimo ( MMSE ) es un método de estimación que minimiza el error cuadrático medio (MSE), que es una medida común de la calidad del estimador, de los valores ajustados de una variable dependiente . En el entorno bayesiano , el término MMSE se refiere más específicamente a la estimación con función de pérdida cuadrática . En tal caso, el estimador MMSE viene dado por la media posterior del parámetro que se va a estimar. Dado que la media posterior es complicada de calcular, la forma del estimador MMSE suele estar restringida a estar dentro de una determinada clase de funciones. Los estimadores MMSE lineales son una opción popular, ya que son fáciles de usar, fáciles de calcular y muy versátiles. Ha dado lugar a muchos estimadores populares, como el filtro de Wiener-Kolmogorov y el filtro de Kalman .

Motivación

El término MMSE se refiere más específicamente a la estimación en un entorno bayesiano con una función de costo cuadrática. La idea básica detrás del enfoque bayesiano para la estimación surge de situaciones prácticas en las que a menudo tenemos alguna información previa sobre el parámetro que se va a estimar. Por ejemplo, podemos tener información previa sobre el rango que puede asumir el parámetro; o podemos tener una estimación antigua del parámetro que queremos modificar cuando se pone a disposición una nueva observación; o las estadísticas de una señal aleatoria real como el habla. Esto contrasta con el enfoque no bayesiano como el estimador insesgado de varianza mínima (MVUE) donde se supone que no se sabe absolutamente nada sobre el parámetro de antemano y que no tiene en cuenta tales situaciones. En el enfoque bayesiano, dicha información previa es capturada por la función de densidad de probabilidad previa de los parámetros; y, basándose directamente en el teorema de Bayes , nos permite hacer mejores estimaciones posteriores a medida que se disponga de más observaciones. Por lo tanto, a diferencia del enfoque no bayesiano, en el que se supone que los parámetros de interés son deterministas, pero constantes desconocidas, el estimador bayesiano busca estimar un parámetro que es en sí mismo una variable aleatoria. Además, la estimación bayesiana también puede abordar situaciones en las que la secuencia de observaciones no es necesariamente independiente. Por lo tanto, la estimación bayesiana proporciona otra alternativa a la MVUE. Esto es útil cuando la MVUE no existe o no se puede encontrar.

Definición

Sea una variable aleatoria vectorial oculta y sea una variable aleatoria vectorial conocida (la medición u observación), ambas no necesariamente de la misma dimensión. Un estimador de es cualquier función de la medición . El vector de error de estimación está dado por y su error cuadrático medio (MSE) está dado por la matriz de covarianza de la traza del error

donde la expectativa se asume condicionada a . Cuando es una variable escalar, la expresión MSE se simplifica a . Tenga en cuenta que MSE se puede definir de manera equivalente de otras maneras, ya que

El estimador MMSE se define entonces como el estimador que logra el MSE mínimo:

Propiedades

En otras palabras, el estimador MMSE es la esperanza condicional de dado el valor observado conocido de las mediciones. Además, dado que es la media posterior, la matriz de covarianza de errores es igual a la matriz de covarianza posterior,
.
donde es la información de Fisher de . Por lo tanto, el estimador MMSE es asintóticamente eficiente .
para todos los subespacios lineales cerrados de las mediciones. Para los vectores aleatorios, dado que el MSE para la estimación de un vector aleatorio es la suma de los MSE de las coordenadas, encontrar el estimador MMSE de un vector aleatorio se descompone en encontrar los estimadores MMSE de las coordenadas de X por separado:
para todos los i y j . Dicho de manera más sucinta, la correlación cruzada entre el error de estimación mínimo y el estimador debería ser cero.

Estimador lineal MMSE

En muchos casos, no es posible determinar la expresión analítica del estimador MMSE. Dos enfoques numéricos básicos para obtener la estimación MMSE dependen de encontrar la expectativa condicional o encontrar los mínimos de MSE. La evaluación numérica directa de la expectativa condicional es computacionalmente costosa ya que a menudo requiere integración multidimensional generalmente realizada a través de métodos de Monte Carlo . Otro enfoque computacional es buscar directamente los mínimos del MSE utilizando técnicas como los métodos de descenso de gradiente estocástico ; pero este método aún requiere la evaluación de la expectativa. Si bien estos métodos numéricos han sido fructíferos, una expresión de forma cerrada para el estimador MMSE es posible, no obstante, si estamos dispuestos a hacer algunos compromisos.

Una posibilidad es abandonar los requisitos de optimalidad total y buscar una técnica que minimice el MSE dentro de una clase particular de estimadores, como la clase de estimadores lineales. Por lo tanto, postulamos que la esperanza condicional de dado es una función lineal simple de , , donde la medida es un vector aleatorio, es una matriz y es un vector. Esto puede verse como la aproximación de Taylor de primer orden de . El estimador MMSE lineal es el estimador que logra el MSE mínimo entre todos los estimadores de esa forma. Es decir, resuelve el siguiente problema de optimización:

Una ventaja de este estimador lineal MMSE es que no es necesario calcular explícitamente la función de densidad de probabilidad posterior de . Este estimador lineal solo depende de los dos primeros momentos de y . Por lo tanto, aunque puede ser conveniente suponer que y son conjuntamente gaussianos, no es necesario hacer esta suposición, siempre que la distribución supuesta tenga momentos primero y segundo bien definidos. La forma del estimador lineal no depende del tipo de la distribución subyacente supuesta.

La expresión para y óptimo viene dada por:

donde , es la matriz de covarianza cruzada entre y , es la matriz de autocovarianza de .

Por lo tanto, la expresión para el estimador lineal MMSE, su media y su autocovarianza está dada por

donde es la matriz de covarianza cruzada entre y .

Por último, la covarianza de error y el error cuadrático medio mínimo alcanzable por dicho estimador son

Derivación utilizando el principio de ortogonalidad

Supongamos que el estimador lineal óptimo del MMSE se da como , donde se requiere que encontremos la expresión para y . Se requiere que el estimador del MMSE sea insesgado. Esto significa que,

Reemplazando la expresión anterior, obtenemos

donde y . Por lo tanto, podemos reescribir el estimador como

y la expresión para el error de estimación se convierte en

Del principio de ortogonalidad, podemos tener , donde tomamos . Aquí el término del lado izquierdo es

Cuando se iguala a cero, obtenemos la expresión deseada para como

La es la matriz de covarianza cruzada entre X e Y, y es la matriz de autocovarianza de Y. Como , la expresión también se puede reescribir en términos de como

Por lo tanto, la expresión completa para el estimador lineal MMSE es

Dado que la estimación es en sí misma una variable aleatoria con , también podemos obtener su autocovarianza como

Poniendo la expresión para y , obtenemos

Por último, la covarianza del error de estimación lineal del MMSE se dará entonces por

El primer término de la tercera línea es cero debido al principio de ortogonalidad. Como , podemos reescribir en términos de matrices de covarianza como

Podemos reconocer que esto es lo mismo que Por lo tanto, el error cuadrático medio mínimo alcanzable por dicho estimador lineal es

.

Caso univariado

Para el caso especial cuando tanto y son escalares, las relaciones anteriores se simplifican a

¿Dónde está el coeficiente de correlación de Pearson entre y ?

Las dos ecuaciones anteriores nos permiten interpretar el coeficiente de correlación como pendiente normalizada de regresión lineal.

o como raíz cuadrada de la relación de dos varianzas

.

Cuando , tenemos y . En este caso, no se obtiene información nueva de la medición que pueda reducir la incertidumbre en . Por otro lado, cuando , tenemos y . Aquí está completamente determinado por , como lo indica la ecuación de la línea recta.

Cálculo

El método estándar como la eliminación de Gauss se puede utilizar para resolver la ecuación matricial para . Un método numéricamente más estable es proporcionado por el método de descomposición QR . Dado que la matriz es una matriz definida positiva simétrica, se puede resolver el doble de rápido con la descomposición de Cholesky , mientras que para sistemas dispersos grandes el método del gradiente conjugado es más efectivo. La recursión de Levinson es un método rápido cuando también es una matriz de Toeplitz . Esto puede suceder cuando es un proceso estacionario de sentido amplio . En tales casos estacionarios, estos estimadores también se conocen como filtros de Wiener-Kolmogorov .

Estimador lineal MMSE para procesos de observación lineal

Modelemos además el proceso subyacente de observación como un proceso lineal: , donde es una matriz conocida y es un vector de ruido aleatorio con la media y la covarianza cruzada . Aquí, la media requerida y las matrices de covarianza serán

Por lo tanto, la expresión para la matriz del estimador MMSE lineal se modifica aún más a

Poniendo todo en la expresión para , obtenemos

Por último, la covarianza del error es

La diferencia significativa entre el problema de estimación tratado anteriormente y los de mínimos cuadrados y estimación de Gauss-Markov es que el número de observaciones m , (es decir, la dimensión de ) no necesita ser al menos tan grande como el número de incógnitas, n , (es decir, la dimensión de ). La estimación para el proceso de observación lineal existe mientras exista la matriz m -por- m ; este es el caso para cualquier m si, por ejemplo, es definida positiva. Físicamente, la razón de esta propiedad es que como ahora es una variable aleatoria, es posible formar una estimación significativa (a saber, su media) incluso sin mediciones. Cada nueva medición simplemente proporciona información adicional que puede modificar nuestra estimación original. Otra característica de esta estimación es que para m < n , no necesita haber error de medición. Por lo tanto, podemos tener , porque mientras sea definida positiva, la estimación todavía existe. Por último, esta técnica puede manejar casos donde el ruido está correlacionado.

Forma alternativa

Se puede obtener una forma alternativa de expresión utilizando la identidad matricial

que se puede establecer mediante la post-multiplicación por y la pre-multiplicación por para obtener

y

Como ahora se puede escribir en términos de como , obtenemos una expresión simplificada para como

En esta forma, la expresión anterior se puede comparar fácilmente con la regresión de cresta , los mínimos cuadrados ponderados y la estimación de Gauss-Markov . En particular, cuando , correspondiente a la varianza infinita de la información a priori relativa a , el resultado es idéntico a la estimación de mínimos cuadrados lineales ponderados con como matriz de ponderación. Además, si los componentes de no están correlacionados y tienen varianza igual de modo que donde es una matriz identidad, entonces es idéntico a la estimación de mínimos cuadrados ordinarios. Cuando la información a priori está disponible como y no están correlacionados y tienen varianza igual, tenemos , que es idéntico a la solución de regresión de cresta.

Estimación lineal secuencial del MMSE

En muchas aplicaciones en tiempo real, los datos de observación no están disponibles en un único lote, sino que las observaciones se realizan en una secuencia. Un enfoque posible es utilizar las observaciones secuenciales para actualizar una estimación anterior a medida que se disponga de datos adicionales, lo que conduce a estimaciones más precisas. Una diferencia crucial entre la estimación por lotes y la estimación secuencial es que la estimación secuencial requiere un supuesto de Markov adicional.

En el marco bayesiano, dicha estimación recursiva se facilita fácilmente utilizando la regla de Bayes. Dadas las observaciones, , la regla de Bayes nos da la densidad posterior de como

La se denomina densidad posterior, se denomina función de verosimilitud y es la densidad previa del k -ésimo paso de tiempo. Aquí hemos asumido la independencia condicional de las observaciones previas dadas como

Éste es el supuesto de Markov.

La estimación de MMSE dada la observación k -ésima es entonces la media de la densidad posterior . Con la falta de información dinámica sobre cómo cambia el estado con el tiempo, haremos una suposición de estacionariedad adicional sobre la anterior:

Por lo tanto, la densidad previa para el k -ésimo paso de tiempo es la densidad posterior del ( k -1)-ésimo paso de tiempo. Esta estructura nos permite formular un enfoque recursivo para la estimación.

En el contexto del estimador MMSE lineal, la fórmula para la estimación tendrá la misma forma que antes: Sin embargo, las matrices de media y covarianza de y deberán reemplazarse por las de densidad y verosimilitud anteriores , respectivamente.

Para la densidad previa , su media viene dada por la estimación MMSE previa,

,

y su matriz de covarianza está dada por la matriz de covarianza de errores anterior,

según las propiedades de los estimadores MMSE y el supuesto de estacionariedad.

De manera similar, para el proceso de observación lineal, la media de la probabilidad está dada por y la matriz de covarianza es como antes

.

La diferencia entre el valor predicho de , dado por , y su valor observado da el error de predicción , que también se conoce como innovación o residuo. Es más conveniente representar el MMSE lineal en términos del error de predicción, cuya media y covarianza son y .

Por lo tanto, en la fórmula de actualización de la estimación, debemos reemplazar y por y , respectivamente. Además, debemos reemplazar y por y . Por último, reemplazamos por

Por lo tanto, tenemos la nueva estimación a medida que llega una nueva observación como

y la nueva covarianza de error como

Desde el punto de vista del álgebra lineal, para la estimación secuencial, si tenemos una estimación basada en mediciones que generan espacio , entonces, después de recibir otro conjunto de mediciones, debemos restar de estas mediciones la parte que podría anticiparse del resultado de las primeras mediciones. En otras palabras, la actualización debe basarse en aquella parte de los nuevos datos que sea ortogonal a los datos antiguos.

El uso repetido de las dos ecuaciones anteriores a medida que se dispone de más observaciones conduce a técnicas de estimación recursivas. Las expresiones se pueden escribir de forma más compacta como

La matriz se conoce a menudo como factor de ganancia de Kalman. La formulación alternativa del algoritmo anterior dará

La repetición de estos tres pasos a medida que se dispone de más datos conduce a un algoritmo de estimación iterativo. La generalización de esta idea a casos no estacionarios da lugar al filtro de Kalman . Los tres pasos de actualización descritos anteriormente forman de hecho el paso de actualización del filtro de Kalman.

Caso especial: observaciones escalares

Como caso especial importante, se puede derivar una expresión recursiva fácil de usar cuando en cada k -ésimo instante de tiempo el proceso de observación lineal subyacente produce un escalar tal que , donde es un vector de columna conocido de n por 1 cuyos valores pueden cambiar con el tiempo, es un vector de columna aleatorio de n por 1 que se va a estimar, y es un término de ruido escalar con varianza . Después de la ( k +1)-ésima observación, el uso directo de las ecuaciones recursivas anteriores da la expresión para la estimación como:

¿Dónde está la nueva observación escalar y el factor de ganancia es un vector de columna n por 1 dado por

La matriz de covarianza de errores n por n está dada por

En este caso, no se requiere inversión de matriz. Además, el factor de ganancia, , depende de nuestra confianza en la nueva muestra de datos, medida por la varianza del ruido, en comparación con la de los datos anteriores. Los valores iniciales de y se toman como la media y la covarianza de la función de densidad de probabilidad anterior de .

Enfoques alternativos: Este importante caso especial también ha dado lugar a muchos otros métodos iterativos (o filtros adaptativos ), como el filtro de mínimos cuadrados medios y el filtro de mínimos cuadrados recursivos , que resuelven directamente el problema de optimización MSE original utilizando descensos de gradiente estocásticos . Sin embargo, dado que el error de estimación no se puede observar directamente, estos métodos intentan minimizar el error de predicción cuadrático medio . Por ejemplo, en el caso de observaciones escalares, tenemos el gradiente Por lo tanto, la ecuación de actualización para el filtro de mínimos cuadrados medios está dada por

donde es el tamaño del paso escalar y la expectativa se aproxima por el valor instantáneo . Como podemos ver, estos métodos evitan la necesidad de matrices de covarianza.

Caso especial: observación vectorial con ruido no correlacionado

En muchas aplicaciones prácticas, el ruido de observación no está correlacionado, es decir, es una matriz diagonal. En tales casos, resulta ventajoso considerar los componentes de como mediciones escalares independientes, en lugar de mediciones vectoriales. Esto nos permite reducir el tiempo de cálculo al procesar el vector de medición como mediciones escalares. El uso de la fórmula de actualización escalar evita la inversión de la matriz en la implementación de las ecuaciones de actualización de covarianza, mejorando así la robustez numérica frente a errores de redondeo. La actualización se puede implementar de forma iterativa como:

donde , utilizando los valores iniciales y . La variable intermedia es el -ésimo elemento diagonal de la matriz diagonal ; mientras que es la -ésima fila de la matriz . Los valores finales son y .

Ejemplos

Ejemplo 1

Tomaremos como ejemplo un problema de predicción lineal . Sea una combinación lineal de variables aleatorias escalares observadas y la que se utilice para estimar otra variable aleatoria escalar futura tal que . Si las variables aleatorias son variables aleatorias gaussianas reales con media cero y su matriz de covarianza dada por

Entonces nuestra tarea es encontrar los coeficientes que permitan obtener una estimación lineal óptima .

En términos de la terminología desarrollada en las secciones anteriores, para este problema tenemos el vector de observación , la matriz de estimador como un vector fila y la variable estimada como una cantidad escalar. La matriz de autocorrelación se define como

La matriz de correlación cruzada se define como

Ahora resolvemos la ecuación invirtiendo y premultiplicando para obtener

Por lo tanto, tenemos y como coeficientes óptimos para . Calcular el error cuadrático medio mínimo da como resultado . [2] Nótese que no es necesario obtener una matriz inversa explícita de para calcular el valor de . La ecuación matricial se puede resolver mediante métodos bien conocidos, como el método de eliminación de Gauss. Un ejemplo más breve y no numérico se puede encontrar en el principio de ortogonalidad .

Ejemplo 2

Consideremos un vector formado al tomar observaciones de un parámetro escalar fijo pero desconocido perturbado por ruido gaussiano blanco. Podemos describir el proceso mediante una ecuación lineal , donde . Dependiendo del contexto, quedará claro si representa un escalar o un vector. Supongamos que sabemos que es el rango dentro del cual va a caer el valor de . Podemos modelar nuestra incertidumbre de mediante una distribución uniforme a priori sobre un intervalo , y por lo tanto tendrá una varianza de . Sea el vector de ruido distribuido normalmente como donde es una matriz identidad. Además , y son independientes y . Es fácil ver que

Por lo tanto, el estimador lineal MMSE viene dado por

Podemos simplificar la expresión utilizando la forma alternativa para como

¿Dónde estamos?

De manera similar, la varianza del estimador es

Por lo tanto, el MMSE de este estimador lineal es

Para valores muy grandes , vemos que el estimador MMSE de un escalar con distribución a priori uniforme se puede aproximar mediante el promedio aritmético de todos los datos observados.

mientras que la varianza no se verá afectada por los datos y el LMMSE de la estimación tenderá a cero.

Sin embargo, el estimador es subóptimo ya que está limitado a ser lineal. Si la variable aleatoria también hubiera sido gaussiana, entonces el estimador habría sido óptimo. Nótese que la forma del estimador permanecerá inalterada, independientemente de la distribución a priori de , siempre que la media y la varianza de estas distribuciones sean las mismas.

Ejemplo 3

Considere una variación del ejemplo anterior: Dos candidatos se presentan a una elección. Sea la fracción de votos que recibirá un candidato el día de la elección Por lo tanto, la fracción de votos que recibirá el otro candidato será Tomaremos como variable aleatoria con una distribución previa uniforme sobre de modo que su media es y varianza es Unas semanas antes de la elección, dos encuestadores diferentes realizaron dos encuestas de opinión pública independientes. La primera encuesta reveló que es probable que el candidato obtenga una fracción de votos. Dado que siempre hay algún error debido al muestreo finito y a la metodología de encuesta particular adoptada, el primer encuestador declara que su estimación tiene un error con media y varianza cero De manera similar, el segundo encuestador declara que su estimación tiene un error con media y varianza cero Nótese que, excepto por la media y la varianza del error, la distribución del error no está especificada. ¿Cómo deben combinarse las dos encuestas para obtener la predicción de votación para el candidato dado?

Al igual que en el ejemplo anterior, tenemos

Aquí, tanto el . Por lo tanto, podemos obtener la estimación LMMSE como la combinación lineal de y como

donde los pesos se dan por

Aquí, como el término denominador es constante, la encuesta con menor error tiene mayor peso para predecir el resultado de la elección. Por último, la varianza de está dada por

lo que hace que sea más pequeño que Por lo tanto, el LMMSE está dado por

En general, si tenemos encuestadores, entonces, donde el peso para el i -ésimo encuestador está dado por y el LMMSE está dado por

Ejemplo 4

Supongamos que un músico está tocando un instrumento y que el sonido es recibido por dos micrófonos, cada uno de ellos ubicado en dos lugares diferentes. Sea la atenuación del sonido debido a la distancia en cada micrófono y , que se supone que son constantes conocidas. De manera similar, sea el ruido en cada micrófono y , cada uno con media y varianzas cero y respectivamente. Sea denotar el sonido producido por el músico, que es una variable aleatoria con media y varianza cero ¿Cómo debería combinarse la música grabada de estos dos micrófonos, después de sincronizarse entre sí?

Podemos modelar el sonido recibido por cada micrófono como

Aquí ambos . Por lo tanto, podemos combinar los dos sonidos como

donde el peso i -ésimo se da como

Véase también

Notas

  1. ^ "Error cuadrático medio (MSE)". www.probabilitycourse.com . Consultado el 9 de mayo de 2017 .
  2. ^ Luna y Stirling.

Lectura adicional