stringtranslate.com

Estimador invariante

En estadística , el concepto de estimador invariante es un criterio que puede usarse para comparar las propiedades de diferentes estimadores para una misma cantidad. Es una forma de formalizar la idea de que un estimador debe tener ciertas cualidades intuitivamente atractivas. Estrictamente hablando, "invariante" significaría que las estimaciones mismas no cambian cuando tanto las mediciones como los parámetros se transforman de manera compatible, pero el significado se ha ampliado para permitir que las estimaciones cambien de manera apropiada con tales transformaciones. [1] El término estimador equivariante se utiliza en contextos matemáticos formales que incluyen una descripción precisa de la relación de la forma en que el estimador cambia en respuesta a cambios en el conjunto de datos y la parametrización: esto corresponde al uso de " equivarianza " en matemáticas más generales. .

Ajustes generales

Fondo

En la inferencia estadística , existen varios enfoques de la teoría de la estimación que pueden usarse para decidir inmediatamente qué estimadores deben usarse de acuerdo con esos enfoques. Por ejemplo, las ideas de la inferencia bayesiana conducirían directamente a estimadores bayesianos . De manera similar, la teoría de la inferencia estadística clásica a veces puede llevar a conclusiones sólidas sobre qué estimador debería utilizarse. Sin embargo, la utilidad de estas teorías depende de tener un modelo estadístico completamente prescrito y también puede depender de tener una función de pérdida relevante para determinar el estimador. Por lo tanto , se podría realizar un análisis bayesiano , que conduzca a una distribución posterior de los parámetros relevantes, pero el uso de una función de utilidad o pérdida específica puede no estar claro. Luego se pueden aplicar ideas de invariancia a la tarea de resumir la distribución posterior. En otros casos, los análisis estadísticos se llevan a cabo sin un modelo estadístico completamente definido o la teoría clásica de la inferencia estadística no puede aplicarse fácilmente porque la familia de modelos que se consideran no son susceptibles de tal tratamiento. Además de estos casos en los que la teoría general no prescribe un estimador, el concepto de invariancia de un estimador se puede aplicar cuando se buscan estimadores de formas alternativas, ya sea por simplicidad de aplicación del estimador o para que el estimador sea robusto .

El concepto de invariancia a veces se utiliza por sí solo como una forma de elegir entre estimadores, pero esto no es necesariamente definitivo. Por ejemplo, un requisito de invariancia puede ser incompatible con el requisito de que el estimador sea insesgado en la media ; por otro lado, el criterio de insesgación de la mediana se define en términos de la distribución muestral del estimador y, por lo tanto, es invariante bajo muchas transformaciones.

Un uso del concepto de invarianza es cuando se propone una clase o familia de estimadores y se debe seleccionar una formulación particular entre ellos. Un procedimiento consiste en imponer propiedades de invariancia relevantes y luego encontrar la formulación dentro de esta clase que tenga las mejores propiedades, lo que lleva a lo que se llama el estimador invariante óptimo.

Algunas clases de estimadores invariantes

Hay varios tipos de transformaciones que se consideran útiles cuando se trata de estimadores invariantes. Cada uno da lugar a una clase de estimadores que son invariantes para esos tipos particulares de transformación.

La combinación de invariancia de permutación e invariancia de ubicación para estimar un parámetro de ubicación a partir de un conjunto de datos independiente e idénticamente distribuido utilizando un promedio ponderado implica que las ponderaciones deben ser idénticas y sumar uno. Por supuesto, pueden ser preferibles estimadores distintos del promedio ponderado.

Estimadores invariantes óptimos

Bajo esta configuración, se nos proporciona un conjunto de mediciones que contienen información sobre un parámetro desconocido . Las mediciones se modelan como una variable aleatoria vectorial que tiene una función de densidad de probabilidad que depende de un vector de parámetros .

El problema es estimar dado . La estimación, denotada por , es función de las medidas y pertenece a un conjunto . La calidad del resultado está definida por una función de pérdida que determina una función de riesgo . Los conjuntos de valores posibles de , y se denotan por , y , respectivamente.

en clasificación

En clasificación estadística , la regla que asigna una clase a un nuevo elemento de datos puede considerarse un tipo especial de estimador. Se pueden aplicar una serie de consideraciones de tipo invariante al formular conocimientos previos para el reconocimiento de patrones .

Entorno matemático

Definición

Un estimador invariante es un estimador que obedece las dos reglas siguientes: [ cita necesaria ]

  1. Principio de Invariancia Racional: La acción tomada en un problema de decisión no debe depender de la transformación de la medida utilizada.
  2. Principio de invariancia: si dos problemas de decisión tienen la misma estructura formal (en términos de , y ) , entonces se debe utilizar la misma regla de decisión en cada problema.

Para definir formalmente un estimador invariante o equivariante, primero se necesitan algunas definiciones relacionadas con grupos de transformaciones. Denotemos el conjunto de posibles muestras de datos. Un grupo de transformaciones de , que se denotará por , es un conjunto de transformaciones (medibles) 1:1 y sobre de en sí mismo, que satisface las siguientes condiciones:

  1. Si y entonces
  2. Si entonces , donde (Es decir, cada transformación tiene una inversa dentro del grupo).
  3. (es decir, hay una transformación de identidad )

Los conjuntos de datos y en son equivalentes para algunos . Todos los puntos equivalentes forman una clase de equivalencia . Esta clase de equivalencia se llama órbita (en ). La órbita, , es el conjunto . Si consta de una sola órbita se dice que es transitiva.

Se dice que una familia de densidades es invariante bajo el grupo si, para cada y existe un tal único que tiene densidad . se denotará .

Si es invariante bajo el grupo , entonces se dice que la función de pérdida es invariante bajo si para cada y existe tal que para todos . El valor transformado se denotará por .

En lo anterior, hay un grupo de transformaciones desde hacia sí mismo y es un grupo de transformaciones desde hacia sí mismo.

Un problema de estimación es invariante (equivariante) si existen tres grupos como se define anteriormente.

Para un problema de estimación que es invariante bajo , el estimador es un estimador invariante bajo si, para todos y ,

Propiedades

  1. La función de riesgo de un estimador invariante, es constante en órbitas de . Equivalentemente para todos y .
  2. La función de riesgo de un estimador invariante con transitiva es constante.

Para un problema determinado, el estimador invariante con menor riesgo se denomina "mejor estimador invariante". No siempre se puede lograr el mejor estimador invariante. Un caso especial en el que se puede lograr es el caso en el que es transitivo.

Ejemplo: parámetro de ubicación

Supongamos que es un parámetro de ubicación si la densidad de tiene la forma . Para y , el problema es invariante bajo . El estimador invariante en este caso debe satisfacer

por tanto es de la forma ( ). es transitivo por lo que el riesgo no varía con : es decir, . El mejor estimador invariante es aquel que reduce el riesgo al mínimo.

En el caso de que L sea el error al cuadrado

estimador pitman

El problema de estimación es que tiene densidad , donde θ es un parámetro a estimar y donde la función de pérdida es . Este problema es invariante con los siguientes grupos de transformación (aditivos):

El mejor estimador invariante es el que minimiza

y este es el estimador de Pitman (1939).

Para el caso de pérdida por error al cuadrado, el resultado es

Si (es decir, una distribución normal multivariada con componentes independientes de varianza unitaria), entonces

Si (componentes independientes que tienen una distribución de Cauchy con parámetro de escala σ ), entonces ,. Sin embargo el resultado es

con

Referencias

  1. ^ consulte la sección 5.2.1 en Gourieroux, C. y Monfort, A. (1995). Estadísticas y modelos econométricos, volumen 1. Cambridge University Press.
  2. ^ Gouriéroux y Monfort (1995)