stringtranslate.com

Inferencia estadística

La inferencia estadística es el proceso de utilizar el análisis de datos para inferir propiedades de una distribución de probabilidad subyacente . [1] El análisis estadístico inferencial infiere propiedades de una población , por ejemplo probando hipótesis y derivando estimaciones. Se supone que el conjunto de datos observados se toma de una población más grande.

La estadística inferencial se puede contrastar con la estadística descriptiva . La estadística descriptiva se ocupa únicamente de las propiedades de los datos observados y no se basa en el supuesto de que los datos provienen de una población más grande. En el aprendizaje automático , el término inferencia a veces se utiliza para significar "hacer una predicción evaluando un modelo ya entrenado"; [2] en este contexto, inferir propiedades del modelo se denomina entrenamiento o aprendizaje (en lugar de inferencia ), y usar un modelo para la predicción se denomina inferencia (en lugar de predicción ); ver también inferencia predictiva .

Introducción

La inferencia estadística hace proposiciones sobre una población, utilizando datos extraídos de la población con alguna forma de muestreo . Dada una hipótesis sobre una población, para la cual deseamos hacer inferencias, la inferencia estadística consiste en (primero) seleccionar un modelo estadístico del proceso que genera los datos y (segundo) deducir proposiciones del modelo. [3]

Konishi y Kitagawa afirman: "La mayoría de los problemas de la inferencia estadística pueden considerarse problemas relacionados con el modelado estadístico". [4] En relación con esto, Sir David Cox ha dicho: "La forma en que se realiza [la] traducción del problema de la materia al modelo estadístico es a menudo la parte más crítica de un análisis". [5]

La conclusión de una inferencia estadística es una proposición estadística . [6] Algunas formas comunes de proposición estadística son las siguientes:

Modelos y supuestos

Cualquier inferencia estadística requiere algunas suposiciones. Un modelo estadístico es un conjunto de supuestos relacionados con la generación de datos observados y datos similares. Las descripciones de los modelos estadísticos generalmente enfatizan el papel de las cantidades de población de interés, sobre las cuales deseamos hacer inferencias. [7] Las estadísticas descriptivas se utilizan normalmente como paso preliminar antes de sacar inferencias más formales. [8]

Grado de modelos/supuestos

Los estadísticos distinguen entre tres niveles de supuestos de modelización;

Importancia de los modelos/supuestos válidos

La imagen de arriba muestra un histograma que evalúa el supuesto de normalidad, que se puede ilustrar a través de la extensión uniforme debajo de la curva de campana.

Cualquiera que sea el nivel de suposición que se haga, una inferencia correctamente calibrada, en general, requiere que estas suposiciones sean correctas; es decir, que los mecanismos generadores de datos realmente se han especificado correctamente.

Los supuestos incorrectos del muestreo aleatorio "simple" pueden invalidar la inferencia estadística. [10] Los supuestos semiparamétricos y totalmente paramétricos más complejos también son motivo de preocupación. Por ejemplo, asumir incorrectamente el modelo de Cox puede, en algunos casos, llevar a conclusiones erróneas. [11] Los supuestos incorrectos de normalidad en la población también invalidan algunas formas de inferencia basada en regresión. [12] La mayoría de los expertos en muestreo de poblaciones humanas ven con escepticismo el uso de cualquier modelo paramétrico: "la mayoría de los estadísticos de muestreo, cuando tratan con intervalos de confianza, se limitan a afirmaciones sobre [estimadores] basados ​​en muestras muy grandes, donde el El teorema del límite central garantiza que estos [estimadores] tendrán distribuciones casi normales". [13] En particular, una distribución normal "sería una suposición totalmente irreal y catastróficamente imprudente si estuviéramos tratando con cualquier tipo de población económica". [13] Aquí, el teorema del límite central establece que la distribución de la media muestral "para muestras muy grandes" tiene una distribución aproximadamente normal, si la distribución no tiene colas pesadas.

Distribuciones aproximadas

Dada la dificultad de especificar distribuciones exactas de estadísticas muestrales, se han desarrollado muchos métodos para aproximarlas.

Con muestras finitas, los resultados de aproximación miden qué tan cerca se acerca una distribución límite a la distribución muestral de la estadística : por ejemplo, con 10.000 muestras independientes, la distribución normal se aproxima (con dos dígitos de precisión) a la distribución de la media muestral para muchas distribuciones poblacionales, según Berry. –Teorema de Essen . [14] Sin embargo, para muchos propósitos prácticos, la aproximación normal proporciona una buena aproximación a la distribución de la media muestral cuando hay 10 (o más) muestras independientes, según los estudios de simulación y la experiencia de los estadísticos. [14] Siguiendo el trabajo de Kolmogorov en la década de 1950, la estadística avanzada utiliza la teoría de la aproximación y el análisis funcional para cuantificar el error de aproximación. En este enfoque se estudia la geometría métrica de las distribuciones de probabilidad ; este enfoque cuantifica el error de aproximación con, por ejemplo, la divergencia de Kullback-Leibler , la divergencia de Bregman y la distancia de Hellinger . [15] [16] [17]

Con muestras indefinidamente grandes, los resultados limitantes como el teorema del límite central describen la distribución límite de la estadística muestral, si existe. Los resultados limitantes no son afirmaciones sobre muestras finitas y, de hecho, son irrelevantes para las muestras finitas. [18] [19] [20] Sin embargo, la teoría asintótica de distribuciones limitantes a menudo se invoca para trabajar con muestras finitas. Por ejemplo, a menudo se invocan resultados limitantes para justificar el método generalizado de momentos y el uso de ecuaciones de estimación generalizadas , que son populares en econometría y bioestadística . La magnitud de la diferencia entre la distribución límite y la distribución verdadera (formalmente, el "error" de la aproximación) se puede evaluar mediante simulación. [21] La aplicación heurística de limitar los resultados a muestras finitas es una práctica común en muchas aplicaciones, especialmente con modelos de baja dimensión con probabilidades log-cóncavas (como con familias exponenciales de un parámetro ).

Modelos basados ​​en aleatorización

Para un conjunto de datos determinado que fue producido mediante un diseño de aleatorización, la distribución de aleatorización de una estadística (bajo la hipótesis nula) se define evaluando la estadística de prueba para todos los planes que podrían haber sido generados por el diseño de aleatorización. En la inferencia frecuentista, la aleatorización permite que las inferencias se basen en la distribución aleatoria en lugar de en un modelo subjetivo, y esto es importante especialmente en el muestreo de encuestas y el diseño de experimentos. [22] [23] La inferencia estadística a partir de estudios aleatorios también es más sencilla que muchas otras situaciones. [24] [25] [26] En la inferencia bayesiana , la aleatorización también es importante: en el muestreo de encuestas , el uso del muestreo sin reemplazo garantiza la intercambiabilidad de la muestra con la población; en experimentos aleatorios, la aleatorización garantiza una suposición aleatoria faltante para la información de covariables . [27]

La aleatorización objetiva permite procedimientos adecuadamente inductivos. [28] [29] [30] [31] [32] Muchos estadísticos prefieren el análisis de datos basado en la aleatorización que se generó mediante procedimientos de aleatorización bien definidos. [33] (Sin embargo, es cierto que en campos de la ciencia con conocimiento teórico desarrollado y control experimental, los experimentos aleatorios pueden aumentar los costos de la experimentación sin mejorar la calidad de las inferencias. [34] [35] ) De manera similar, los resultados de experimentos aleatorios son recomendados por las principales autoridades estadísticas porque permiten inferencias con mayor confiabilidad que los estudios observacionales de los mismos fenómenos. [36] Sin embargo, un buen estudio observacional puede ser mejor que un mal experimento aleatorio.

El análisis estadístico de un experimento aleatorio puede basarse en el esquema de aleatorización establecido en el protocolo experimental y no necesita un modelo subjetivo. [37] [38]

Sin embargo, en cualquier momento, algunas hipótesis no pueden probarse utilizando modelos estadísticos objetivos, que describen con precisión experimentos aleatorios o muestras aleatorias. En algunos casos, estos estudios aleatorios no son económicos ni éticos.

Análisis basado en modelos de experimentos aleatorios.

Es una práctica estándar hacer referencia a un modelo estadístico, por ejemplo, modelos lineales o logísticos, al analizar datos de experimentos aleatorios. [39] Sin embargo, el esquema de aleatorización guía la elección de un modelo estadístico. No es posible elegir un modelo apropiado sin conocer el esquema de aleatorización. [23] Se pueden obtener resultados seriamente engañosos analizando datos de experimentos aleatorios ignorando el protocolo experimental; Los errores comunes incluyen olvidar el bloqueo utilizado en un experimento y confundir mediciones repetidas en la misma unidad experimental con réplicas independientes del tratamiento aplicado a diferentes unidades experimentales. [40]

Inferencia de aleatorización sin modelo

Las técnicas sin modelos proporcionan un complemento a los métodos basados ​​en modelos, que emplean estrategias reduccionistas de simplificación de la realidad. Los primeros combinan, evolucionan, ensamblan y entrenan algoritmos adaptándose dinámicamente a las afinidades contextuales de un proceso y aprendiendo las características intrínsecas de las observaciones. [39] [41]

Por ejemplo, la regresión lineal simple sin modelo se basa en

En cualquier caso, la inferencia de aleatorización sin modelo para características de la distribución condicional común se basa en algunas condiciones de regularidad, por ejemplo, la suavidad funcional. Por ejemplo, la inferencia de aleatorización sin modelo para la media condicional de características de la población , , se puede estimar consistentemente mediante un promedio local o un ajuste polinomial local, bajo el supuesto de que es suave. Además, basándonos en la normalidad asintótica o el remuestreo, podemos construir intervalos de confianza para la característica de la población, en este caso, la media condicional . [42]

Paradigmas para la inferencia

Se han establecido diferentes escuelas de inferencia estadística. Estas escuelas —o "paradigmas"— no son mutuamente excluyentes, y los métodos que funcionan bien bajo un paradigma a menudo tienen interpretaciones atractivas bajo otros paradigmas.

Bandyopadhyay y Forster describen cuatro paradigmas: el paradigma clásico (o frecuentista ), el paradigma bayesiano , el paradigma probabilista y el paradigma basado en criterios de información akaikeanos . [43]

inferencia frecuentista

Este paradigma calibra la plausibilidad de las proposiciones considerando un muestreo repetido (nocional) de una distribución de población para producir conjuntos de datos similares al que tenemos a mano. Al considerar las características del conjunto de datos bajo muestreo repetido, se pueden cuantificar las propiedades frecuentistas de una proposición estadística, aunque en la práctica esta cuantificación puede resultar un desafío.

Ejemplos de inferencia frecuentista

Inferencia frecuentista, objetividad y teoría de la decisión.

Una interpretación de la inferencia frecuentista (o inferencia clásica) es que es aplicable sólo en términos de probabilidad de frecuencia ; es decir, en términos de muestreo repetido de una población. Sin embargo, el enfoque de Neyman [44] desarrolla estos procedimientos en términos de probabilidades previas al experimento. Es decir, antes de emprender un experimento, se decide una regla para llegar a una conclusión tal que la probabilidad de ser correcto se controle de manera adecuada: tal probabilidad no necesita tener una interpretación frecuentista o de muestreo repetido. Por el contrario, la inferencia bayesiana funciona en términos de probabilidades condicionales (es decir, probabilidades condicionadas a los datos observados), en comparación con las probabilidades marginales (pero condicionadas a parámetros desconocidos) utilizadas en el enfoque frecuentista.

Los procedimientos frecuentistas de pruebas de significancia e intervalos de confianza se pueden construir sin tener en cuenta las funciones de utilidad . Sin embargo, algunos elementos de la estadística frecuentista, como la teoría de la decisión estadística , sí incorporan funciones de utilidad . [ cita necesaria ] En particular, los desarrollos frecuentistas de inferencia óptima (como los estimadores insesgados de varianza mínima o las pruebas uniformemente más poderosas ) hacen uso de funciones de pérdida , que desempeñan el papel de funciones de utilidad (negativas). No es necesario establecer explícitamente las funciones de pérdida para que los teóricos de la estadística demuestren que un procedimiento estadístico tiene una propiedad de optimización. [45] Sin embargo, las funciones de pérdida suelen ser útiles para establecer propiedades de optimización: por ejemplo, los estimadores insesgados de mediana son óptimos bajo funciones de pérdida de valor absoluto , ya que minimizan la pérdida esperada, y los estimadores de mínimos cuadrados son óptimos bajo funciones de pérdida de error al cuadrado. en el sentido de que minimizan la pérdida esperada.

Si bien los estadísticos que utilizan la inferencia frecuentista deben elegir por sí mismos los parámetros de interés y los estimadores / estadísticos de prueba que se utilizarán, la ausencia de utilidades y distribuciones previas obviamente explícitas ha ayudado a que los procedimientos frecuentistas sean ampliamente vistos como "objetivos". [46]

Inferencia bayesiana

El cálculo bayesiano describe grados de creencia utilizando el "lenguaje" de la probabilidad; Las creencias son positivas, se integran en una sola y obedecen a axiomas de probabilidad. La inferencia bayesiana utiliza las creencias posteriores disponibles como base para hacer proposiciones estadísticas. [47] Hay varias justificaciones diferentes para utilizar el enfoque bayesiano.

Ejemplos de inferencia bayesiana

Inferencia bayesiana, subjetividad y teoría de la decisión.

Muchas inferencias bayesianas informales se basan en resúmenes "intuitivamente razonables" del posterior. Por ejemplo, la media posterior, la mediana y la moda, los intervalos de densidad posterior más altos y los factores de Bayes se pueden motivar de esta manera. Si bien no es necesario establecer la función de utilidad de un usuario para este tipo de inferencia, todos estos resúmenes dependen (hasta cierto punto) de creencias previas declaradas y generalmente se consideran conclusiones subjetivas. (Se han propuesto métodos de construcción previa que no requieren aportaciones externas, pero aún no se han desarrollado por completo).

Formalmente, la inferencia bayesiana se calibra con referencia a una utilidad o función de pérdida explícitamente establecida; la 'regla de Bayes' es la que maximiza la utilidad esperada, promediada sobre la incertidumbre posterior. Por lo tanto, la inferencia bayesiana formal proporciona automáticamente decisiones óptimas en un sentido teórico de decisión . Dadas las suposiciones, los datos y la utilidad, la inferencia bayesiana se puede hacer esencialmente para cualquier problema, aunque no todas las inferencias estadísticas necesitan tener una interpretación bayesiana. Los análisis que no son formalmente bayesianos pueden ser (lógicamente) incoherentes ; Una característica de los procedimientos bayesianos que utilizan antecedentes adecuados (es decir, aquellos integrables en uno) es que se garantiza su coherencia . Algunos defensores de la inferencia bayesiana afirman que la inferencia debe tener lugar en este marco teórico de la decisión y que la inferencia bayesiana no debe concluir con la evaluación y el resumen de creencias posteriores.

Inferencia basada en probabilidad

La inferencia basada en la probabilidad es un paradigma utilizado para estimar los parámetros de un modelo estadístico basado en datos observados. El verosimilismo aborda la estadística utilizando la función de verosimilitud , denotada como , que cuantifica la probabilidad de observar los datos dados , suponiendo un conjunto específico de valores de parámetros . En la inferencia basada en verosimilitud, el objetivo es encontrar el conjunto de valores de parámetros que maximiza la función de verosimilitud o, de manera equivalente, maximiza la probabilidad de observar los datos dados.

El proceso de inferencia basada en probabilidad normalmente implica los siguientes pasos:

  1. Formulación del modelo estadístico: Se define un modelo estadístico en función del problema en cuestión, especificando los supuestos distributivos y la relación entre los datos observados y los parámetros desconocidos. El modelo puede ser simple, como una distribución normal con varianza conocida, o complejo, como un modelo jerárquico con múltiples niveles de efectos aleatorios.
  2. Construcción de la función de verosimilitud: dado el modelo estadístico, la función de verosimilitud se construye evaluando la densidad de probabilidad conjunta o función de masa de los datos observados en función de los parámetros desconocidos. Esta función representa la probabilidad de observar los datos para diferentes valores de los parámetros.
  3. Maximizar la función de verosimilitud: el siguiente paso es encontrar el conjunto de valores de parámetros que maximiza la función de verosimilitud. Esto se puede lograr utilizando técnicas de optimización como los algoritmos de optimización numérica. Los valores de los parámetros estimados, a menudo denominados , son estimaciones de máxima verosimilitud (MLE).
  4. Evaluación de la incertidumbre: una vez que se obtienen los MLE, es crucial cuantificar la incertidumbre asociada con las estimaciones de los parámetros. Esto se puede hacer calculando errores estándar , intervalos de confianza o realizando pruebas de hipótesis basadas en teoría asintótica o técnicas de simulación como bootstrapping .
  5. Verificación del modelo: después de obtener las estimaciones de los parámetros y evaluar su incertidumbre, es importante evaluar la adecuación del modelo estadístico. Esto implica verificar los supuestos hechos en el modelo y evaluar el ajuste del modelo a los datos mediante pruebas de bondad de ajuste, análisis residual o diagnóstico gráfico.
  6. Inferencia e interpretación: finalmente, en función de los parámetros estimados y la evaluación del modelo, se puede realizar una inferencia estadística. Esto implica sacar conclusiones sobre los parámetros de la población, hacer predicciones o probar hipótesis basadas en el modelo estimado.

inferencia basada en AIC

El criterio de información de Akaike (AIC) es un estimador de la calidad relativa de los modelos estadísticos para un conjunto de datos determinado. Dada una colección de modelos para los datos, AIC estima la calidad de cada modelo, en relación con cada uno de los otros modelos. Por tanto, AIC proporciona un medio para la selección de modelos .

AIC se basa en la teoría de la información : ofrece una estimación de la información relativa perdida cuando se utiliza un modelo determinado para representar el proceso que generó los datos. (Al hacerlo, se ocupa del equilibrio entre la bondad de ajuste del modelo y la simplicidad del modelo).

Otros paradigmas para la inferencia

Longitud mínima de la descripción

El principio de longitud mínima de descripción (MDL) se ha desarrollado a partir de ideas de la teoría de la información [48] y la teoría de la complejidad de Kolmogorov . [49] El principio (MDL) selecciona modelos estadísticos que comprimen al máximo los datos; La inferencia procede sin asumir "mecanismos de generación de datos" contrafácticos o no falsificables o modelos de probabilidad para los datos, como podría hacerse en los enfoques frecuentistas o bayesianos.

Sin embargo, si en realidad existe un "mecanismo generador de datos", entonces, según el teorema de codificación fuente de Shannon, proporciona la descripción MDL de los datos, en promedio y de forma asintótica. [50] Al minimizar la longitud de la descripción (o la complejidad descriptiva), la estimación MDL es similar a la estimación de máxima verosimilitud y a la estimación máxima a posteriori (utilizando antecedentes bayesianos de máxima entropía ). Sin embargo, MDL evita asumir que se conoce el modelo de probabilidad subyacente; El principio MDL también se puede aplicar sin suposiciones de que, por ejemplo, los datos surgieron de un muestreo independiente. [50] [51]

El principio MDL se ha aplicado en la teoría de la codificación de la comunicación, en la teoría de la información , en la regresión lineal , [51] y en la minería de datos . [49]

La evaluación de procedimientos inferenciales basados ​​en MDL suele utilizar técnicas o criterios de la teoría de la complejidad computacional . [52]

inferencia fiduciaria

La inferencia fiducial era un enfoque de la inferencia estadística basada en la probabilidad fiducial , también conocida como "distribución fiducial". En trabajos posteriores, este enfoque ha sido calificado de mal definido, de aplicabilidad extremadamente limitada e incluso falaz. [53] [54] Sin embargo, este argumento es el mismo que muestra [55] que la llamada distribución de confianza no es una distribución de probabilidad válida y, dado que esto no ha invalidado la aplicación de intervalos de confianza , no necesariamente invalida conclusiones extraídas de argumentos fiduciarios. Se intentó reinterpretar los primeros trabajos del argumento fiduciario de Fisher como un caso especial de una teoría de la inferencia que utiliza probabilidades superiores e inferiores . [56]

Inferencia estructural

Desarrollando ideas de Fisher y de Pitman de 1938 a 1939, [57] George A. Barnard desarrolló la "inferencia estructural" o "inferencia fundamental", [58] un enfoque que utiliza probabilidades invariantes en familias de grupos . Barnard reformuló los argumentos detrás de la inferencia fiducial en una clase restringida de modelos en los que los procedimientos "fiduciales" estarían bien definidos y serían útiles. Donald AS Fraser desarrolló una teoría general para la inferencia estructural [59] basada en la teoría de grupos y la aplicó a modelos lineales. [60] La teoría formulada por Fraser tiene estrechos vínculos con la teoría de la decisión y la estadística bayesiana y puede proporcionar reglas de decisión frecuentistas óptimas, si existen. [61]

Temas de inferencia

Los temas siguientes suelen incluirse en el área de inferencia estadística .

  1. Supuestos estadísticos
  2. Teoría de la decisión estadística
  3. Teoría de la estimación
  4. Prueba de hipótesis estadística
  5. Revisar opiniones en estadísticas.
  6. Diseño de experimentos , análisis de varianza y regresión
  7. Muestreo de encuesta
  8. Resumiendo datos estadísticos

Inferencia predictiva

La inferencia predictiva es un enfoque de la inferencia estadística que enfatiza la predicción de observaciones futuras basadas en observaciones pasadas.

Inicialmente, la inferencia predictiva se basaba en parámetros observables y era el objetivo principal del estudio de la probabilidad , [ cita necesaria ] pero cayó en desgracia en el siglo XX debido a un nuevo enfoque paramétrico iniciado por Bruno de Finetti . El enfoque modeló los fenómenos como un sistema físico observado con error (por ejemplo, la mecánica celeste ). La idea de intercambiabilidad de De Finetti (que las observaciones futuras deberían comportarse como observaciones pasadas) llamó la atención del mundo de habla inglesa con la traducción del francés en 1974 de su artículo de 1937, [62] y desde entonces ha sido propuesta por estadísticos como Seymour Geisser. . [63]

Ver también

Notas

  1. ^ Según Peirce, la aceptación significa que la investigación sobre esta cuestión cesa por el momento. En ciencia, todas las teorías científicas son revisables.

Referencias

Citas

  1. ^ Upton, G., Cook, I. (2008) Diccionario Oxford de Estadística , OUP. ISBN  978-0-19-954145-4 .
  2. ^ "Inferencia de TensorFlow Lite". El término inferencia se refiere al proceso de ejecutar un modelo de TensorFlow Lite en el dispositivo para realizar predicciones basadas en datos de entrada.
  3. ^ Johnson, Richard (12 de marzo de 2016). "Inferencia estadística". Enciclopedia de Matemáticas . Springer: la sociedad matemática europea . Consultado el 26 de octubre de 2022 .
  4. ^ Konishi y Kitagawa (2008), pág. 75.
  5. ^ Cox (2006), pág. 197.
  6. ^ "Inferencia estadística - Enciclopedia de Matemáticas". www.encyclopediaofmath.org . Consultado el 23 de enero de 2019 .
  7. ^ ab Cox (2006) página 2
  8. ^ Evans, Michael; et al. (2004). Probabilidad y estadística: la ciencia de la incertidumbre. Freeman y compañía. pag. 267.ISBN 9780716747420.
  9. ^ van der Vaart, AW (1998) Estadística asintótica Cambridge University Press. ISBN 0-521-78450-6 (página 341) 
  10. ^ Kruskal 1988
  11. ^ Freedman, DA (2008) "Análisis de supervivencia: ¿un peligro epidemiológico?". El estadístico americano (2008) 62: 110-119. (Reimpreso como Capítulo 11 (páginas 169 a 192) de Freedman (2010)).
  12. ^ Berk, R. (2003) Análisis de regresión: una crítica constructiva (técnicas cuantitativas avanzadas en las ciencias sociales) (v. 11) Publicaciones Sage. ISBN 0-7619-2904-5 
  13. ^ a b Cervecero, Ken (2002). Inferencia de muestreo de encuesta combinada: pesaje de elefantes de Basu . Hodder Arnold. pag. 6.ISBN 978-0340692295.
  14. ^ ab Probabilidad de Jörgen Hoffman-Jörgensen con miras a la estadística , volumen I. Página 399 [ cita completa necesaria ]
  15. ^ Le Cam (1986) [ página necesaria ]
  16. ^ Erik Torgerson (1991) Comparación de experimentos estadísticos , volumen 36 de la Enciclopedia de Matemáticas. Prensa de la Universidad de Cambridge. [ se necesita cita completa ]
  17. ^ Liese, Friedrich y Miescke, Klaus-J. (2008). Teoría de la decisión estadística: estimación, prueba y selección . Saltador. ISBN 978-0-387-73193-3.
  18. ^ Kolmogorov (1963, p.369): "El concepto de frecuencia, basado en la noción de frecuencia límite a medida que el número de ensayos aumenta hasta el infinito, no aporta nada para fundamentar la aplicabilidad de los resultados de la teoría de la probabilidad a problemas prácticos reales donde siempre tenemos que afrontar un número finito de pruebas".
  19. ^ "De hecho, los teoremas de límite 'que  tienden al infinito' lógicamente carecen de contenido sobre lo que sucede en cualquier momento en particular  . Todo lo que pueden hacer es sugerir ciertos enfoques cuyo desempeño debe luego verificarse en el caso en cuestión". — Le Cam (1986) (página xiv)
  20. ^ Pfanzagl (1994): "El inconveniente crucial de la teoría asintótica: lo que esperamos de la teoría asintótica son resultados que se cumplan aproximadamente... Lo que la teoría asintótica tiene para ofrecer son teoremas de límite". (página ix) "Lo que cuenta para las aplicaciones son aproximaciones, no límites." (página 188)
  21. ^ Pfanzagl (1994): "Al tomar un teorema del límite como aproximadamente cierto para tamaños de muestra grandes, cometemos un error cuyo tamaño se desconoce. [. . .] Mediante simulaciones se puede obtener información realista sobre los errores restantes". (página ix)
  22. ^ Neyman, J. (1934) "Sobre los dos aspectos diferentes del método representativo: el método de muestreo estratificado y el método de selección intencional", Journal of the Royal Statistical Society , 97 (4), 557–625 JSTOR  2342192
  23. ^ ab Hinkelmann y Kempthorne (2008) [ página necesaria ]
  24. ^ Directrices de la ASA para el primer curso de estadística para no estadísticos. (disponible en el sitio web de ASA)
  25. ^ Estadísticas de David A. Freedman y otros .
  26. ^ Moore y col. (2015).
  27. ^ Gelman A. y col. (2013). Análisis de datos bayesianos ( Chapman & Hall ).
  28. ^ Peirce (1877-1878)
  29. ^ Peirce (1883)
  30. ^ Freedman, Pisani y Purves 1978.
  31. ^ Modelos estadísticos de David A. Freedman .
  32. ^ Rao, CR (1997) Estadísticas y verdad: poner la oportunidad a trabajar , World Scientific. ISBN 981-02-3111-3 
  33. ^ Peirce; liberto; Moore y cols. (2015). [ cita necesaria ]
  34. ^ Box, GEP and Friends (2006) Mejorando casi cualquier cosa: ideas y ensayos, edición revisada , Wiley. ISBN 978-0-471-72755-2 
  35. ^ Cox (2006), pág. 196.
  36. ^ Directrices de la ASA para el primer curso de estadística para no estadísticos. (disponible en el sitio web de ASA)
    • David A. Freedman y alias Estadísticas .
    • Moore y cols. (2015).
  37. ^ Neyman, Jerzy. 1923 [1990]. "Sobre la aplicación de la teoría de la probabilidad a experimentos agrícolas. Ensayo sobre principios. Sección 9". Ciencia estadística 5 (4): 465–472. Trans. Dorota M. Dabrowska y Terence P. Speed.
  38. ^ Hinkelmann y Kempthorne (2008) [ página necesaria ]
  39. ^ ab Dinov, Ivo; Palanimalai, Selvam; Khare, Ashwini; Christou, Nicolás (2018). "Inferencia estadística basada en aleatorización: una infraestructura de simulación y remuestreo". Enseñanza de Estadística . 40 (2): 64–73. doi : 10.1111/prueba.12156. PMC 6155997 . PMID  30270947. 
  40. ^ Hinkelmann y Kempthorne (2008) Capítulo 6.
  41. ^ Espiga, Ming; Gao, Chao; Goutman, Stephen; Kalinin, Alejandro; Mukherjee, Bhramar; Guan, Yuanfang; Dinov, Ivo (2019). "Técnicas basadas en modelos y sin modelos para la predicción del diagnóstico de la esclerosis lateral amiotrófica y la agrupación de pacientes". Neuroinformática . 17 (3): 407–421. doi :10.1007/s12021-018-9406-9. PMC 6527505 . PMID  30460455. 
  42. ^ Politis, DN (2019). "Inferencia sin modelos en estadística: cómo y por qué". Boletín IMS . 48 .
  43. ^ Bandyopadhyay y Forster (2011). Consulte la Introducción del libro (p.3) y la "Sección III: Cuatro paradigmas de la estadística".
  44. ^ Neyman, J. (1937). "Esquema de una teoría de estimación estadística basada en la teoría clásica de la probabilidad". Transacciones filosóficas de la Royal Society de Londres A. 236 (767): 333–380. Código bibliográfico : 1937RSPTA.236..333N. doi : 10.1098/rsta.1937.0005 . JSTOR  91337.
  45. ^ Prefacio a Pfanzagl.
  46. ^ Pequeño, Roderick J. (2006). "Bayas calibrado: una hoja de ruta de Bayes/frequentista". El estadístico estadounidense . 60 (3): 213–223. doi :10.1198/000313006X117837. ISSN  0003-1305. JSTOR  27643780. S2CID  53505632.
  47. ^ Lee, Se Yoon (2021). "Muestreador de Gibbs e inferencia variacional de ascenso de coordenadas: una revisión de la teoría de conjuntos". Comunicaciones en Estadística - Teoría y Métodos . 51 (6): 1549-1568. arXiv : 2008.01006 . doi :10.1080/03610926.2021.1921214. S2CID  220935477.
  48. ^ Soofi (2000)
  49. ^ ab Hansen y Yu (2001)
  50. ^ ab Hansen y Yu (2001), página 747.
  51. ^ ab Rissanen (1989), página 84
  52. ^ Joseph F. Traub, GW Wasilkowski y H. Wozniakowski. (1988) [ página necesaria ]
  53. ^ Neyman (1956)
  54. ^ Zabell (1992)
  55. ^ Cox (2006) página 66
  56. ^ Hampel 2003.
  57. ^ Davison, página 12. [ se necesita cita completa ]
  58. ^ Barnard, GA (1995) "Modelos fundamentales y el argumento fiducial", International Statistical Review, 63 (3), 309–323. JSTOR  1403482
  59. ^ Fraser, DAS (1968). La estructura de la inferencia. Nueva York: Wiley. ISBN 0-471-27548-4. OCLC  440926.
  60. ^ Fraser, DAS (1979). Inferencia y modelos lineales. Londres: McGraw-Hill. ISBN 0-07-021910-9. OCLC  3559629.
  61. ^ Taraldsen, Gunnar; Lindqvist, Bo Henry (1 de febrero de 2013). "Teoría fiducial e inferencia óptima". Los anales de la estadística . 41 (1). arXiv : 1301.1717 . doi :10.1214/13-AOS1083. ISSN  0090-5364. S2CID  88520957.
  62. ^ De Finetti, Bruno (1937). "La Prévision: ses lois logiques, ses fuentes subjetivas". Anales del Instituto Henri Poincaré . 7 (1): 1–68. ISSN  0365-320X.Traducido en De Finetti, Bruno (1992). "Previsión: sus leyes lógicas, sus fuentes subjetivas". Avances en estadística . Serie Springer en Estadística. págs. 134-174. doi :10.1007/978-1-4612-0919-5_10. ISBN 978-0-387-94037-3.
  63. ^ Geisser, Seymour (1993) Inferencia predictiva: introducción , CRC Press. ISBN 0-412-03471-9 

Fuentes

Otras lecturas

enlaces externos