stringtranslate.com

Inferencia frecuentista

La inferencia frecuentista es un tipo de inferencia estadística basada en la probabilidad frecuentista , que trata la “probabilidad” en términos equivalentes a la “frecuencia” y extrae conclusiones de los datos de muestra enfatizando la frecuencia o proporción de los hallazgos en los datos. La inferencia frecuentista es la base de la estadística frecuentista , en la que se fundamentan las metodologías bien establecidas de prueba de hipótesis estadísticas e intervalos de confianza .

Historia de la estadística frecuentista

La formulación principal del frecuentismo se deriva de la presunción de que las estadísticas podrían ser percibidas como una frecuencia probabilística. Esta visión fue desarrollada principalmente por Ronald Fisher y el equipo de Jerzy Neyman y Egon Pearson . Ronald Fisher contribuyó a las estadísticas frecuentistas al desarrollar el concepto frecuentista de "prueba de significación", que es el estudio de la significación de una medida de una estadística cuando se compara con la hipótesis. Neyman-Pearson extendió las ideas de Fisher a múltiples hipótesis al conjeturar que la relación de probabilidades de hipótesis cuando se maximiza la diferencia entre las dos hipótesis conduce a una maximización de exceder un valor p dado, y también proporciona la base de los errores de tipo I y tipo II . Para obtener más información, consulte la página de fundamentos de la estadística .

Definición

Para la inferencia estadística, la estadística sobre la que queremos hacer inferencias es , donde el vector aleatorio es una función de un parámetro desconocido, . El parámetro se divide en ( ), donde es el parámetro de interés , y es el parámetro de molestia . Para ser más concretos, podría ser la media de la población, , y el parámetro de molestia la desviación estándar de la media de la población, . [1]

Por lo tanto, la inferencia estadística se ocupa de la expectativa del vector aleatorio , .

Para construir áreas de incertidumbre en la inferencia frecuentista, se utiliza un pivote que define el área alrededor de la cual se puede utilizar para proporcionar un intervalo para estimar la incertidumbre. El pivote es una probabilidad tal que para un pivote, , que es una función, que es estrictamente creciente en , donde es un vector aleatorio. Esto permite que, para algún 0 < < 1, podamos definir , que es la probabilidad de que la función pivote sea menor que algún valor bien definido. Esto implica , donde es un límite superior para . Nótese que es un rango de resultados que definen un límite unilateral para , y que es un límite bilateral para , cuando queremos estimar un rango de resultados donde puede ocurrir. Esto define rigurosamente el intervalo de confianza , que es el rango de resultados sobre los cuales podemos hacer inferencias estadísticas.

Reducción de la pesca y criterios operativos de Neyman-Pearson

Dos conceptos complementarios en la inferencia frecuentista son la reducción fisheriana y los criterios operacionales de Neyman-Pearson. Juntos, estos conceptos ilustran una forma de construir intervalos frecuentistas que definen los límites para . La reducción fisheriana es un método para determinar el intervalo dentro del cual puede estar el valor verdadero de , mientras que los criterios operacionales de Neyman-Pearson son una regla de decisión sobre la realización de suposiciones de probabilidad a priori .

La reducción fisheriana se define de la siguiente manera:

En esencia, la reducción fisheriana está diseñada para encontrar dónde se puede utilizar la estadística suficiente para determinar el rango de resultados donde puede ocurrir en una distribución de probabilidad que define todos los valores potenciales de . Esto es necesario para formular intervalos de confianza, donde podemos encontrar un rango de resultados sobre los cuales es probable que ocurra en el largo plazo.

Los criterios operacionales de Neyman-Pearon son una comprensión aún más específica del rango de resultados donde se puede decir que la estadística relevante, , ocurre en el largo plazo. Los criterios operacionales de Neyman-Pearson definen la probabilidad de que ese rango sea realmente adecuado o de que el rango sea inadecuado. Los criterios de Neyman-Pearson definen el rango de la distribución de probabilidad que, si existe en este rango, todavía está por debajo de la estadística poblacional verdadera. Por ejemplo, si la distribución de la reducción de Fisher excede un umbral que consideramos a priori implausible, entonces la evaluación de la reducción de Neyman-Pearson de esa distribución se puede utilizar para inferir dónde mirar puramente las distribuciones de la reducción de Fisherian puede darnos resultados inexactos. Por lo tanto, la reducción de Neyman-Pearson se utiliza para encontrar la probabilidad de errores de tipo I y tipo II . [3] Como punto de referencia, el complemento a esto en las estadísticas bayesianas es el criterio de riesgo mínimo de Bayes .

Debido a que los criterios de Neyman-Pearson dependen de nuestra capacidad para encontrar un rango de resultados en los que es probable que ocurra, el enfoque de Neyman-Pearson solo es posible cuando se puede lograr una reducción fisheriana. [4]

Diseño experimental y metodología

Las inferencias frecuentistas están asociadas con la aplicación de la probabilidad frecuentista al diseño e interpretación experimental, y específicamente con la visión de que cualquier experimento dado puede considerarse uno de una secuencia infinita de posibles repeticiones del mismo experimento, cada una capaz de producir resultados estadísticamente independientes . [5] En esta visión, el enfoque de inferencia frecuentista para extraer conclusiones de los datos es efectivamente requerir que la conclusión correcta se extraiga con una probabilidad dada (alta), entre este conjunto nocional de repeticiones.

Sin embargo, se pueden desarrollar exactamente los mismos procedimientos bajo una formulación sutilmente diferente, en la que se adopta un punto de vista previo al experimento. Se puede argumentar que el diseño de un experimento debería incluir, antes de emprenderlo, decisiones sobre exactamente qué pasos se darán para llegar a una conclusión a partir de los datos que aún no se han obtenido. El científico puede especificar estos pasos de modo que exista una alta probabilidad de llegar a una decisión correcta, en la que, en este caso, la probabilidad se relaciona con un conjunto de eventos aleatorios que aún no se han producido y, por lo tanto, no depende de la interpretación de la probabilidad en términos de frecuencia. Esta formulación ha sido analizada por Neyman [6] , entre otros. Esto es especialmente pertinente porque la importancia de una prueba frecuentista puede variar según la selección del modelo, lo que constituye una violación del principio de verosimilitud.

La filosofía estadística del frecuentismo

El frecuentismo es el estudio de la probabilidad con el supuesto de que los resultados ocurren con una frecuencia dada durante un período de tiempo determinado o con un muestreo repetido. Como tal, el análisis frecuentista debe formularse teniendo en cuenta los supuestos del problema que el frecuentismo intenta analizar. Esto requiere examinar si la cuestión en cuestión se refiere a la comprensión de la variedad de una estadística o a la localización del valor verdadero de una estadística. La diferencia entre estos supuestos es fundamental para interpretar una prueba de hipótesis . El siguiente párrafo profundiza en esto.

En líneas generales, existen dos campos de inferencia estadística: el enfoque epistémico y el enfoque epidemiológico . El enfoque epistémico es el estudio de la variabilidad ; es decir, con qué frecuencia esperamos que una estadística se desvíe de algún valor observado. El enfoque epidemiológico se ocupa del estudio de la incertidumbre ; en este enfoque, el valor de la estadística es fijo, pero nuestra comprensión de esa estadística es incompleta. [7] Para ser más concretos, imaginemos que tratamos de medir la cotización del mercado de valores en lugar de evaluar el precio de un activo. El mercado de valores fluctúa tanto que tratar de encontrar exactamente dónde estará el precio de una acción no es útil: el mercado de valores se entiende mejor utilizando el enfoque epistémico, donde podemos tratar de cuantificar sus movimientos volubles. Por el contrario, el precio de un activo podría no cambiar tanto de un día para otro: es mejor localizar el valor real del activo en lugar de encontrar un rango de precios y, por lo tanto, el enfoque epidemiológico es mejor. La diferencia entre estos enfoques no es trivial para los fines de la inferencia.

Para el enfoque epistémico, formulamos el problema como si quisiéramos atribuir probabilidad a una hipótesis. Esto solo se puede hacer con estadísticas bayesianas, donde la interpretación de la probabilidad es sencilla porque las estadísticas bayesianas están condicionadas a todo el espacio muestral, mientras que las pruebas frecuentistas se ocupan de todo el diseño experimental. Las estadísticas frecuentistas están condicionadas no solo a los datos sino también al diseño experimental . [8] En las estadísticas frecuentistas, el punto de corte para comprender la ocurrencia de frecuencia se deriva de la distribución familiar utilizada en el diseño del experimento. Por ejemplo, una distribución binomial y una distribución binomial negativa se pueden utilizar para analizar exactamente los mismos datos, pero debido a que sus extremos son diferentes, el análisis frecuentista obtendrá diferentes niveles de significación estadística para los mismos datos que asumen diferentes distribuciones de probabilidad. Esta diferencia no ocurre en la inferencia bayesiana. Para obtener más información, consulte el principio de verosimilitud , que las estadísticas frecuentistas violan inherentemente. [9]

Para el enfoque epidemiológico, debe discutirse la idea central detrás de las estadísticas frecuentistas. Las estadísticas frecuentistas están diseñadas para que, en el largo plazo , se pueda comprender la frecuencia de una estadística y, en el largo plazo, se pueda inferir el rango de la media verdadera de una estadística. Esto conduce a la reducción de Fisher y los criterios operativos de Neyman-Pearson, discutidos anteriormente. Cuando definimos la reducción de Fisher y los criterios operativos de Neyman-Pearson para cualquier estadística, estamos evaluando, según estos autores, la probabilidad de que el valor verdadero de la estadística ocurra dentro de un rango dado de resultados asumiendo un número de repeticiones de nuestro método de muestreo. [8] Esto permite la inferencia donde, en el largo plazo, podemos definir que los resultados combinados de múltiples inferencias frecuentistas significan que un intervalo de confianza del 95% literalmente significa que la media verdadera se encuentra en el intervalo de confianza el 95% del tiempo, pero no que la media está en un intervalo de confianza particular con un 95% de certeza. Este es un concepto erróneo popular.

Muy comúnmente, la visión epistémica y la visión epidemiológica se consideran interconvertibles. Esto es demostrablemente falso. En primer lugar, la visión epistémica se centra en las pruebas de significación de Fisher que están diseñadas para proporcionar evidencia inductiva contra la hipótesis nula, , en un solo experimento, y se define por el valor p de Fisher. Por el contrario, la visión epidemiológica, realizada con pruebas de hipótesis de Neyman-Pearson, está diseñada para minimizar los errores de aceptación falsa de tipo II en el largo plazo al proporcionar minimizaciones de error que funcionan en el largo plazo. La diferencia entre las dos es crítica porque la visión epistémica enfatiza las condiciones bajo las cuales podríamos encontrar que un valor es estadísticamente significativo; mientras tanto, la visión epidemiológica define las condiciones bajo las cuales los resultados de largo plazo presentan resultados válidos. Estas son inferencias extremadamente diferentes, porque las conclusiones epistémicas de una sola vez no informan los errores de largo plazo, y los errores de largo plazo no se pueden usar para certificar si los experimentos de una sola vez tienen sentido. La suposición de que los experimentos ocurren una sola vez y ocurren a largo plazo es una atribución errónea, y la suposición de que los experimentos individuales dan lugar a tendencias a largo plazo es un ejemplo de falacia ecológica. [10]

Relación con otros enfoques

Las inferencias frecuentistas contrastan con otros tipos de inferencias estadísticas, como las inferencias bayesianas y las inferencias fiduciales . Si bien a veces se considera que la " inferencia bayesiana " incluye el enfoque de las inferencias que conducen a decisiones óptimas , aquí se adopta una visión más restringida para simplificar.

Inferencia bayesiana

La inferencia bayesiana se basa en la probabilidad bayesiana , que trata la “probabilidad” como equivalente a la “certeza”, y por lo tanto la diferencia esencial entre la inferencia frecuentista y la inferencia bayesiana es la misma que la diferencia entre las dos interpretaciones de lo que significa una “probabilidad”. Sin embargo, cuando corresponde, las inferencias bayesianas (es decir, en este caso, una aplicación del teorema de Bayes ) son utilizadas por quienes emplean la probabilidad frecuencial .

Hay dos diferencias importantes en los enfoques frecuentistas y bayesianos de inferencia que no están incluidas en la consideración anterior de la interpretación de la probabilidad:

  1. En un enfoque frecuentista de la inferencia, los parámetros desconocidos se consideran típicamente como fijos, en lugar de variables aleatorias . Por el contrario, un enfoque bayesiano permite asociar probabilidades con parámetros desconocidos, donde estas probabilidades a veces pueden tener una interpretación de probabilidad de frecuencia además de una bayesiana . El enfoque bayesiano permite que estas probabilidades tengan una interpretación que represente la creencia del científico de que los valores dados del parámetro son verdaderos (ver Probabilidad bayesiana - Probabilidades personales y métodos objetivos para construir valores previos ).
  2. El resultado de un enfoque bayesiano puede ser una distribución de probabilidad para lo que se conoce acerca de los parámetros dados los resultados del experimento o estudio. El resultado de un enfoque frecuentista es una decisión a partir de una prueba de significación o un intervalo de confianza .

Véase también

Referencias

  1. ^ Cox (2006), págs. 1–2.
  2. ^ Cox (2006), págs. 24, 47.
  3. ^ "OpenStax CNX". cnx.org . Consultado el 14 de septiembre de 2021 .
  4. ^ Cox (2006), pág. 24.
  5. ^ Everitt (2002).
  6. ^ Jerzy (1937), págs. 236, 333–380.
  7. ^ Romeijn, Jan-Willem (2017), "Filosofía de la estadística", en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (edición de primavera de 2017), Metaphysics Research Lab, Stanford University , consultado el 14 de septiembre de 2021
  8. ^ ab Wagenmakers et al. (2008).
  9. ^ Vidakovic, Brani. "El principio de verosimilitud" (PDF) .
  10. ^ Hubbard, R.; Bayarri, MJ (2003). "Confusión sobre medidas de evidencia (p's) versus errores (α's) en pruebas estadísticas clásicas" (PDF) . The American Statistician . 57 : 171–182.

Bibliografía