stringtranslate.com

Regla de decisión admisible

En la teoría de la decisión estadística , una regla de decisión admisible es una regla para tomar una decisión tal que no existe otra regla que sea siempre "mejor" que ella [1] (o al menos a veces mejor y nunca peor), en el sentido preciso de "mejor" definido más adelante. Este concepto es análogo a la eficiencia de Pareto .

Definición

Defina los conjuntos , y , donde son los estados de la naturaleza, las posibles observaciones y las acciones que se pueden tomar. Una observación de se distribuye como y, por lo tanto, proporciona evidencia sobre el estado de la naturaleza . Una regla de decisión es una función , donde al observar , elegimos tomar la acción .

También defina una función de pérdida , que especifica la pérdida que sufriríamos si tomáramos una acción cuando el verdadero estado de la naturaleza es . Por lo general, tomaremos esta acción después de observar los datos , de modo que la pérdida será . (Es posible, aunque no convencional, reformular las siguientes definiciones en términos de una función de utilidad , que es el negativo de la pérdida).

Defina la función de riesgo como la expectativa

El que una regla de decisión tenga un riesgo bajo depende del verdadero estado de la naturaleza . Una regla de decisión domina a otra regla de decisión si y solo si para todos y la desigualdad es estricta para algunos .

Una regla de decisión es admisible (con respecto a la función de pérdida) si y solo si ninguna otra regla la domina; de lo contrario, es inadmisible . Por lo tanto, una regla de decisión admisible es un elemento máximo con respecto al orden parcial anterior. Una regla inadmisible no es preferida (excepto por razones de simplicidad o eficiencia computacional), ya que por definición hay alguna otra regla que logrará un riesgo igual o menor para todos . Pero el hecho de que una regla sea admisible no significa que sea una buena regla para usar. Ser admisible significa que no hay otra regla única que sea siempre tan buena o mejor, pero otras reglas admisibles podrían lograr un riesgo menor para la mayoría de las que ocurren en la práctica. (El riesgo de Bayes que se analiza a continuación es una forma de considerar explícitamente cuáles ocurren en la práctica).

Reglas de Bayes y reglas de Bayes generalizadas

Reglas de Bayes

Sea una distribución de probabilidad sobre los estados de la naturaleza. Desde un punto de vista bayesiano , la consideraríamos como una distribución a priori . Es decir, es nuestra distribución de probabilidad considerada sobre los estados de la naturaleza, antes de observar los datos. Para un frecuentista , es simplemente una función sobre sin una interpretación especial de ese tipo. El riesgo bayesiano de la regla de decisión con respecto a es la expectativa

Una regla de decisión que minimiza se denomina regla de Bayes con respecto a . Puede haber más de una regla de Bayes de este tipo. Si el riesgo de Bayes es infinito para todos los , entonces no se define ninguna regla de Bayes.

Reglas de Bayes generalizadas

En el enfoque bayesiano de la teoría de decisiones, lo observado se considera fijo . Mientras que el enfoque frecuentista (es decir, el riesgo) promedia sobre muestras posibles , el bayesiano fijaría la muestra observada y promediaría sobre hipótesis . Por lo tanto, el enfoque bayesiano consiste en considerar para nuestro observado la pérdida esperada .

donde la expectativa es sobre el posterior de lo dado (obtenido a partir y utilizando el teorema de Bayes ).

Habiendo hecho explícita la pérdida esperada para cada dato por separado, podemos definir una regla de decisión especificando para cada uno una acción que minimice la pérdida esperada. Esto se conoce como una regla de Bayes generalizada con respecto a . Puede haber más de una regla de Bayes generalizada, ya que puede haber múltiples opciones de que logren la misma pérdida esperada.

En un principio, esto puede parecer bastante diferente del enfoque de la regla de Bayes de la sección anterior, no una generalización. Sin embargo, observe que el riesgo de Bayes ya se promedia en la forma bayesiana, y el riesgo de Bayes puede recuperarse como la expectativa sobre la pérdida esperada (donde y ). En términos generales, minimiza esta expectativa de pérdida esperada (es decir, es una regla de Bayes) si y solo si minimiza la pérdida esperada para cada uno por separado (es decir, es una regla de Bayes generalizada).

Entonces, ¿por qué la noción de regla de Bayes generalizada es una mejora? De hecho, es equivalente a la noción de regla de Bayes cuando existe una regla de Bayes y todos tienen probabilidad positiva. Sin embargo, no existe ninguna regla de Bayes si el riesgo de Bayes es infinito (para todos los ). En este caso, sigue siendo útil definir una regla de Bayes generalizada , que al menos elija una acción de pérdida esperada mínima para aquellos para los que existe una acción de pérdida esperada finita. Además, una regla de Bayes generalizada puede ser deseable porque debe elegir una acción de pérdida esperada mínima para cada , mientras que una regla de Bayes podría desviarse de esta política en un conjunto de medida 0 sin afectar el riesgo de Bayes.

Más importante aún, a veces es conveniente utilizar una regla previa impropia . En este caso, el riesgo de Bayes ni siquiera está bien definido, ni hay una distribución bien definida sobre . Sin embargo, la posterior —y, por lo tanto, la pérdida esperada— puede estar bien definida para cada , de modo que aún es posible definir una regla de Bayes generalizada.

Admisibilidad de las reglas de Bayes (generalizadas)

Según los teoremas de clase completos, en condiciones moderadas toda regla admisible es una regla de Bayes (generalizada) (con respecto a alguna regla previa —posiblemente impropia— que favorece las distribuciones en las que esa regla logra un riesgo bajo). Por lo tanto, en la teoría de decisiones frecuentista es suficiente considerar solo reglas de Bayes (generalizadas).

Por el contrario, mientras que las reglas de Bayes con respecto a supuestos previos apropiados son prácticamente siempre admisibles, las reglas de Bayes generalizadas correspondientes a supuestos previos impropios no necesariamente dan lugar a procedimientos admisibles. El ejemplo de Stein es una de esas situaciones famosas.

Ejemplos

El estimador de James-Stein es un estimador no lineal de la media de vectores aleatorios gaussianos y se puede demostrar que domina la técnica de mínimos cuadrados ordinarios con respecto a una función de pérdida de error cuadrático medio. [2] Por lo tanto, la estimación de mínimos cuadrados no es un procedimiento de estimación admisible en este contexto. Algunas otras de las estimaciones estándar asociadas con la distribución normal también son inadmisibles: por ejemplo, la estimación de la varianza a partir de una muestra cuando se desconocen la media y la varianza de la población. [3]

Notas

  1. ^ Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms . OUP. ISBN  0-19-920613-9 (entrada para función de decisión admisible)
  2. ^ Cox y Hinkley 1974, Sección 11.8
  3. ^ Cox y Hinkley 1974, Ejercicio 11.7

Referencias