stringtranslate.com

Estimador invariante

En estadística , el concepto de estimador invariante es un criterio que se puede utilizar para comparar las propiedades de diferentes estimadores para la misma cantidad. Es una forma de formalizar la idea de que un estimador debe tener ciertas cualidades intuitivamente atractivas. Estrictamente hablando, "invariante" significaría que las estimaciones en sí mismas no cambian cuando tanto las mediciones como los parámetros se transforman de una manera compatible, pero el significado se ha ampliado para permitir que las estimaciones cambien de maneras apropiadas con tales transformaciones. [1] El término estimador equivariante se utiliza en contextos matemáticos formales que incluyen una descripción precisa de la relación de la forma en que el estimador cambia en respuesta a cambios en el conjunto de datos y la parametrización: esto corresponde al uso de " equivariancia " en matemáticas más generales.

Configuración general

Fondo

En la inferencia estadística , existen varios enfoques de la teoría de la estimación que se pueden utilizar para decidir inmediatamente qué estimadores se deben utilizar de acuerdo con esos enfoques. Por ejemplo, las ideas de la inferencia bayesiana conducirían directamente a los estimadores bayesianos . De manera similar, la teoría de la inferencia estadística clásica a veces puede conducir a conclusiones sólidas sobre qué estimador se debe utilizar. Sin embargo, la utilidad de estas teorías depende de tener un modelo estadístico completamente prescrito y también puede depender de tener una función de pérdida relevante para determinar el estimador. Por lo tanto, se puede realizar un análisis bayesiano , lo que lleva a una distribución posterior para los parámetros relevantes, pero el uso de una función de utilidad o pérdida específica puede no estar claro. Las ideas de invariancia se pueden aplicar entonces a la tarea de resumir la distribución posterior. En otros casos, los análisis estadísticos se realizan sin un modelo estadístico completamente definido o la teoría clásica de la inferencia estadística no se puede aplicar fácilmente porque la familia de modelos que se están considerando no son susceptibles de dicho tratamiento. Además de estos casos en los que la teoría general no prescribe un estimador, el concepto de invariancia de un estimador se puede aplicar cuando se buscan estimadores de formas alternativas, ya sea por simplicidad de aplicación del estimador o para que el estimador sea robusto .

El concepto de invariancia se utiliza a veces por sí solo como una forma de elegir entre estimadores, pero esto no es necesariamente definitivo. Por ejemplo, un requisito de invariancia puede ser incompatible con el requisito de que el estimador sea insesgado respecto de la media ; por otro lado, el criterio de insesgabilidad respecto de la mediana se define en términos de la distribución de muestreo del estimador y, por lo tanto, es invariante ante muchas transformaciones.

Un uso del concepto de invariancia es cuando se propone una clase o familia de estimadores y se debe seleccionar una formulación particular entre ellos. Un procedimiento consiste en imponer propiedades de invariancia relevantes y luego encontrar la formulación dentro de esta clase que tenga las mejores propiedades, lo que conduce a lo que se denomina estimador invariante óptimo.

Algunas clases de estimadores invariantes

Existen varios tipos de transformaciones que resultan útiles al trabajar con estimadores invariantes. Cada una de ellas da lugar a una clase de estimadores que son invariantes a esos tipos particulares de transformación.

La combinación de invariancia de permutación e invariancia de ubicación para estimar un parámetro de ubicación a partir de un conjunto de datos independientes e idénticamente distribuidos utilizando un promedio ponderado implica que los pesos deben ser idénticos y sumar uno. Por supuesto, pueden ser preferibles otros estimadores distintos del promedio ponderado.

Estimadores invariantes óptimos

En esta configuración, se nos proporciona un conjunto de mediciones que contiene información sobre un parámetro desconocido . Las mediciones se modelan como una variable aleatoria vectorial que tiene una función de densidad de probabilidad que depende de un vector de parámetros .

El problema consiste en estimar dado . La estimación, denotada por , es una función de las mediciones y pertenece a un conjunto . La calidad del resultado se define mediante una función de pérdida que determina una función de riesgo . Los conjuntos de valores posibles de , , y se denotan por , , y , respectivamente.

En la clasificación

En la clasificación estadística , la regla que asigna una clase a un nuevo elemento de datos puede considerarse un tipo especial de estimador. Se pueden tener en cuenta varias consideraciones de tipo invariante a la hora de formular el conocimiento previo para el reconocimiento de patrones .

Entorno matemático

Definición

Un estimador invariante es un estimador que obedece las dos reglas siguientes: [ cita requerida ]

  1. Principio de invariancia racional: la acción adoptada en un problema de decisión no debe depender de la transformación de la medida utilizada.
  2. Principio de invariancia: si dos problemas de decisión tienen la misma estructura formal (en términos de , y ), entonces se debe utilizar la misma regla de decisión en cada problema.

Para definir formalmente un estimador invariante o equivariante, primero se necesitan algunas definiciones relacionadas con grupos de transformaciones. Sea , el conjunto de posibles muestras de datos. Un grupo de transformaciones de , que se denotará por , es un conjunto de transformaciones (medibles) 1:1 y sobre 1:1 de sobre sí mismo, que satisface las siguientes condiciones:

  1. Si y entonces
  2. Si entonces , donde (Es decir, cada transformación tiene una inversa dentro del grupo.)
  3. (es decir, hay una transformación de identidad )

Los conjuntos de datos y en son equivalentes si para algún . Todos los puntos equivalentes forman una clase de equivalencia . Dicha clase de equivalencia se denomina órbita (en ). La órbita, , es el conjunto . Si consta de una única órbita, se dice que es transitiva.

Se dice que una familia de densidades es invariante bajo el grupo si, para cada y existe un único tal que tiene densidad . se denotará .

Si es invariante bajo el grupo , entonces se dice que la función de pérdida es invariante bajo si para cada y existe un tal que para todos . El valor transformado se denotará por .

En lo anterior, es un grupo de transformaciones de a sí mismo y es un grupo de transformaciones de a sí mismo.

Un problema de estimación es invariante (equivariante) si existen tres grupos como se definió anteriormente.

Para un problema de estimación que es invariante bajo , el estimador es un estimador invariante bajo si, para todos y ,

Propiedades

  1. La función de riesgo de un estimador invariante, , es constante en las órbitas de . De manera equivalente para todos y .
  2. La función de riesgo de un estimador invariante con transitivo es constante.

Para un problema dado, el estimador invariante con el menor riesgo se denomina "mejor estimador invariante". No siempre se puede lograr el mejor estimador invariante. Un caso especial en el que se puede lograr es cuando es transitivo.

Ejemplo: parámetro de ubicación

Supongamos que es un parámetro de ubicación si la densidad de tiene la forma . Para y , el problema es invariante bajo . El estimador invariante en este caso debe satisfacer

por lo tanto, es de la forma ( ). es transitiva en por lo que el riesgo no varía con : es decir, . El mejor estimador invariante es el que lleva el riesgo al mínimo.

En el caso de que L sea el error al cuadrado

Estimador de Pitman

El problema de estimación es que tiene densidad , donde θ es un parámetro a estimar y donde la función de pérdida es . Este problema es invariante con los siguientes grupos de transformación (aditivos):

El mejor estimador invariante es el que minimiza

y este es el estimador de Pitman (1939).

Para el caso de pérdida de error al cuadrado, el resultado es

Si (es decir, una distribución normal multivariada con componentes independientes de varianza unitaria) entonces

Si (componentes independientes que tienen una distribución de Cauchy con parámetro de escala σ ) entonces ,. Sin embargo, el resultado es

con

Referencias

  1. ^ Véase la sección 5.2.1 en Gourieroux, C. y Monfort, A. (1995). Estadísticas y modelos econométricos, volumen 1. Cambridge University Press.
  2. ^ Gouriéroux y Monfort (1995)