stringtranslate.com

inferencia frecuentista

La inferencia frecuentista es un tipo de inferencia estadística basada en la probabilidad frecuentista , que trata la "probabilidad" en términos equivalentes a la "frecuencia" y saca conclusiones a partir de datos de muestra enfatizando la frecuencia o proporción de los hallazgos en los datos. La inferencia frecuentista subyace a la estadística frecuentista , en la que se basan las metodologías bien establecidas de prueba de hipótesis estadísticas e intervalos de confianza .

Historia de las estadísticas frecuentistas

La formulación principal del frecuentismo surge de la presunción de que se podría percibir que las estadísticas han sido una frecuencia probabilística. Esta visión fue desarrollada principalmente por Ronald Fisher y el equipo de Jerzy Neyman y Egon Pearson . Ronald Fisher contribuyó a la estadística frecuentista desarrollando el concepto frecuentista de "prueba de significancia", que es el estudio de la importancia de una medida de una estadística en comparación con la hipótesis. Neyman-Pearson extendió las ideas de Fisher a múltiples hipótesis al conjeturar que la relación de probabilidades de las hipótesis cuando se maximiza la diferencia entre las dos hipótesis conduce a una maximización de exceder un valor p dado, y también proporciona la base de los errores de tipo I y tipo II. . Para obtener más información, consulte la página de fundamentos de las estadísticas .

Definición

Para la inferencia estadística, la estadística sobre la que queremos hacer inferencias es , donde el vector aleatorio es función de un parámetro desconocido, . El parámetro se divide además en ( ), donde es el parámetro de interés y es el parámetro molesto . Para ser más concretos, podría ser la media poblacional, y el parámetro de molestia , la desviación estándar de la media poblacional ,. [1]

Por tanto, la inferencia estadística se ocupa de la expectativa del vector aleatorio , .

Para construir áreas de incertidumbre en la inferencia frecuentista, se utiliza un pivote que define el área alrededor que se puede utilizar para proporcionar un intervalo para estimar la incertidumbre. El pivote es una probabilidad tal que para un pivote, que es una función estrictamente creciente en donde es un vector aleatorio. Esto permite que, para algún 0 < < 1, podamos definir , que es la probabilidad de que la función pivote sea menor que algún valor bien definido. Esto implica , ¿dónde hay un límite superior para ? Tenga en cuenta que es un rango de resultados que define un límite unilateral para , y que es un límite bilateral para , cuando queremos estimar un rango de resultados que pueden ocurrir. Esto define rigurosamente el intervalo de confianza , que es el rango de resultados sobre los cuales podemos hacer inferencias estadísticas.

Reducción de pesquerías y criterios operativos de Neyman-Pearson

Dos conceptos complementarios en la inferencia frecuentista son la reducción de Fisher y los criterios operativos de Neyman-Pearson. Juntos, estos conceptos ilustran una forma de construir intervalos frecuentistas que definen los límites de . La reducción de Fisher es un método para determinar el intervalo dentro del cual puede encontrarse el verdadero valor de , mientras que el criterio operativo de Neyman-Pearson es una regla de decisión para hacer supuestos de probabilidad a priori .

La reducción de Fisher se define de la siguiente manera:

Esencialmente, la reducción de Fisher está diseñada para encontrar dónde se puede utilizar la estadística suficiente para determinar el rango de resultados que pueden ocurrir en una distribución de probabilidad que define todos los valores potenciales de . Esto es necesario para formular intervalos de confianza, donde podemos encontrar una variedad de resultados que probablemente ocurran en el largo plazo.

El criterio operativo de Neyman-Pearon es una comprensión aún más específica del rango de resultados donde se puede decir que ocurre la estadística relevante, , en el largo plazo. Los criterios operativos de Neyman-Pearson definen la probabilidad de que ese rango sea realmente adecuado o de que sea inadecuado. El criterio de Neyman-Pearson define el rango de la distribución de probabilidad que, si existe en este rango, todavía está por debajo de la verdadera estadística de población. Por ejemplo, si la distribución de la reducción de Fisher excede un umbral que consideramos a priori inverosímil, entonces la evaluación de esa distribución realizada por la reducción de Neyman-Pearson se puede utilizar para inferir dónde observar únicamente las distribuciones de la reducción de Fisher puede darnos resultados inexactos. . Así, se utiliza la reducción de Neyman-Pearson para encontrar la probabilidad de errores de tipo I y tipo II . [3] Como punto de referencia, el complemento a esto en la estadística bayesiana es el criterio de riesgo mínimo de Bayes .

Debido a que los criterios de Neyman-Pearson dependen de nuestra capacidad para encontrar una variedad de resultados que probablemente ocurran, el enfoque de Neyman-Pearson sólo es posible cuando se puede lograr una reducción de Fisher. [4]

Diseño experimental y metodología.

Las inferencias frecuentistas están asociadas con la aplicación de la probabilidad frecuentista al diseño e interpretación experimental , y específicamente con la opinión de que cualquier experimento determinado puede considerarse uno de una secuencia infinita de posibles repeticiones del mismo experimento, cada una de las cuales es capaz de producir resultados estadísticamente independientes . [5] Desde este punto de vista, el enfoque de inferencia frecuentista para sacar conclusiones a partir de datos consiste efectivamente en exigir que la conclusión correcta se extraiga con una probabilidad determinada (alta), entre este conjunto nocional de repeticiones.

Sin embargo, se pueden desarrollar exactamente los mismos procedimientos bajo una formulación sutilmente diferente. Éste es uno donde se adopta un punto de vista previo al experimento. Se puede argumentar que el diseño de un experimento debe incluir, antes de emprenderlo, decisiones sobre exactamente qué pasos se tomarán para llegar a una conclusión a partir de los datos aún por obtener. Estos pasos pueden ser especificados por el científico de modo que exista una alta probabilidad de alcanzar una decisión correcta donde, en este caso, la probabilidad se relaciona con un conjunto de eventos aleatorios aún por ocurrir y, por lo tanto, no depende de la interpretación de frecuencia de la probabilidad. Esta formulación ha sido discutida por Neyman, [6] entre otros. Esto es especialmente pertinente porque la importancia de una prueba frecuentista puede variar según la selección del modelo, una violación del principio de probabilidad.

La filosofía estadística del frecuentismo.

El frecuentismo es el estudio de la probabilidad asumiendo que los resultados ocurren con una frecuencia determinada durante un período de tiempo o con muestreos repetidos. Como tal, el análisis frecuentista debe formularse teniendo en cuenta los supuestos del problema que el frecuentista intenta analizar. Esto requiere investigar si la pregunta que nos ocupa tiene que ver con comprender la variedad de una estadística o localizar el verdadero valor de una estadística. La diferencia entre estos supuestos es fundamental para interpretar una prueba de hipótesis . El siguiente párrafo profundiza sobre esto.

En términos generales, existen dos campos de inferencia estadística, el enfoque epistémico y el enfoque epidemiológico . El enfoque epistémico es el estudio de la variabilidad ; es decir, con qué frecuencia esperamos que una estadística se desvíe de algún valor observado. El enfoque epidemiológico se ocupa del estudio de la incertidumbre ; En este enfoque, el valor de la estadística es fijo pero nuestra comprensión de esa estadística es incompleta. [7] Para ser más concretos, imaginemos tratar de medir la cotización del mercado de valores en lugar de evaluar el precio de un activo. El mercado de valores fluctúa tanto que tratar de encontrar exactamente dónde va a estar el precio de una acción no es útil: el mercado de valores se comprende mejor utilizando el enfoque epistémico, donde podemos intentar cuantificar sus movimientos volubles. Por el contrario, el precio de un activo podría no cambiar mucho de un día para otro: es mejor localizar el valor real del activo en lugar de encontrar un rango de precios y, por tanto, el enfoque epidemiológico es mejor. La diferencia entre estos enfoques no es trivial a efectos de inferencia.

Para el enfoque epistémico, formulamos el problema como si quisiéramos atribuir probabilidad a una hipótesis. Esto sólo se puede hacer con la estadística bayesiana, donde la interpretación de la probabilidad es sencilla porque la estadística bayesiana está condicionada a todo el espacio muestral, mientras que las pruebas frecuentistas se ocupan de todo el diseño experimental. La estadística frecuentista está condicionada no sólo a los datos sino también al diseño experimental . [8] En la estadística frecuentista, el límite para comprender la frecuencia de aparición se deriva de la distribución familiar utilizada en el diseño del experimento. Por ejemplo, se pueden utilizar una distribución binomial y una distribución binomial negativa para analizar exactamente los mismos datos, pero debido a que sus extremos son diferentes, el análisis frecuentista obtendrá diferentes niveles de significancia estadística para los mismos datos que asumen diferentes distribuciones de probabilidad. Esta diferencia no ocurre en la inferencia bayesiana. Para obtener más información, consulte el principio de probabilidad , que las estadísticas frecuentistas violan inherentemente. [9]

Para el enfoque epidemiológico es necesario discutir la idea central detrás de las estadísticas frecuentistas. La estadística frecuentista está diseñada para que, a largo plazo , se pueda comprender la frecuencia de una estadística y, a largo plazo, se pueda inferir el rango de la media verdadera de una estadística. Esto lleva a la reducción de Fisher y a los criterios operativos de Neyman-Pearson, discutidos anteriormente. Cuando definimos la reducción de Fisher y los criterios operativos de Neyman-Pearson para cualquier estadística, estamos evaluando, según estos autores, la probabilidad de que el verdadero valor de la estadística ocurra dentro de un rango dado de resultados suponiendo un número de repeticiones de nuestro cálculo. método de muestreo. [8] Esto permite realizar inferencias en las que, a largo plazo, podemos definir que los resultados combinados de múltiples inferencias frecuentistas significan que un intervalo de confianza del 95% significa literalmente que la verdadera media se encuentra en el intervalo de confianza el 95% de las veces. pero no que la media esté en un intervalo de confianza particular con un 95% de certeza. Ésta es una idea errónea popular.

Muy comúnmente, la visión epistémica y la visión epidemiológica se consideran interconvertibles. Esto es demostrablemente falso. En primer lugar, la visión epistémica se centra en las pruebas de significación de Fisher que están diseñadas para proporcionar evidencia inductiva contra la hipótesis nula, en un solo experimento, y se define por el valor p de Fisher. Por el contrario, la visión epidemiológica, realizada con la prueba de hipótesis de Neyman-Pearson, está diseñada para minimizar los errores de aceptación falsa de tipo II en el largo plazo al proporcionar minimizaciones de errores que funcionan en el largo plazo. La diferencia entre los dos es crítica porque la visión epistémica enfatiza las condiciones bajo las cuales podríamos encontrar que un valor es estadísticamente significativo; mientras tanto, la visión epidemiológica define las condiciones bajo las cuales los resultados de largo plazo presentan resultados válidos. Se trata de inferencias extremadamente diferentes, porque las conclusiones epistémicas únicas no informan sobre errores a largo plazo, y los errores a largo plazo no pueden utilizarse para certificar si los experimentos únicos son sensatos. La suposición de experimentos únicos a sucesos de largo plazo es una atribución errónea, y la suposición de tendencias de largo plazo a experimentos individuales es un ejemplo de falacia ecológica. [10]

Relación con otros enfoques

Las inferencias frecuentistas contrastan con otros tipos de inferencias estadísticas, como las inferencias bayesianas y las inferencias fiduciales . Si bien a veces se considera que la " inferencia bayesiana " incluye el enfoque de las inferencias que conducen a decisiones óptimas , aquí se adopta una visión más restringida por simplicidad.

Inferencia bayesiana

La inferencia bayesiana se basa en la probabilidad bayesiana , que trata la "probabilidad" como equivalente a la "certidumbre", por lo que la diferencia esencial entre la inferencia frecuentista y la inferencia bayesiana es la misma que la diferencia entre las dos interpretaciones de lo que es una "probabilidad". medio. Sin embargo, cuando corresponde, quienes emplean la probabilidad de frecuencia utilizan inferencias bayesianas (es decir, en este caso, una aplicación del teorema de Bayes ) .

Hay dos diferencias principales entre los enfoques frecuentista y bayesiano de la inferencia que no se incluyen en la consideración anterior de la interpretación de la probabilidad:

  1. En un enfoque frecuentista de la inferencia, los parámetros desconocidos generalmente se consideran fijos, en lugar de variables aleatorias . Por el contrario, un enfoque bayesiano permite asociar probabilidades con parámetros desconocidos, donde estas probabilidades a veces pueden tener una interpretación de probabilidad de frecuencia además de una interpretación bayesiana . El enfoque bayesiano permite que estas probabilidades tengan una interpretación que represente la creencia del científico de que los valores dados del parámetro son verdaderos (consulte Probabilidad bayesiana: probabilidades personales y métodos objetivos para construir antecedentes ).
  2. El resultado de un enfoque bayesiano puede ser una distribución de probabilidad de lo que se sabe acerca de los parámetros dados los resultados del experimento o estudio. El resultado de un enfoque frecuentista es una decisión a partir de una prueba de significancia o de un intervalo de confianza .

Ver también

Referencias

  1. ^ Cox (2006), págs. 1-2.
  2. ^ Cox (2006), págs.24, 47.
  3. ^ "OpenStax CNX". cnx.org . Consultado el 14 de septiembre de 2021 .
  4. ^ Cox (2006), pág. 24.
  5. ^ Everitt (2002).
  6. ^ Jerzy (1937), págs. 236, 333–380.
  7. ^ Romeijn, Jan-Willem (2017), "Filosofía de la estadística", en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (edición de primavera de 2017), Metaphysics Research Lab, Universidad de Stanford , consultado el 9 de septiembre de 2021 -14
  8. ^ ab Wagenmakers et al. (2008).
  9. ^ Vidakovic, Brani. "El principio de probabilidad" (PDF) .
  10. ^ Hubbard, R.; Bayarri, MJ (2003). "Confusión sobre medidas de evidencia (p) versus errores (α) en las pruebas estadísticas clásicas" (PDF) . El estadístico estadounidense . 57 : 171–182.

Bibliografía