stringtranslate.com

Fundamentos de la estadística

Los fundamentos de la estadística consisten en la base matemática y filosófica de los argumentos y las inferencias realizadas utilizando la estadística . Esto incluye la justificación de los métodos de inferencia estadística , estimación y prueba de hipótesis , la cuantificación de la incertidumbre en las conclusiones de los argumentos estadísticos y la interpretación de esas conclusiones en términos probabilísticos. Se puede utilizar una base válida para explicar paradojas estadísticas como la paradoja de Simpson , proporcionar una descripción precisa de las leyes estadísticas observadas , [1] y guiar la aplicación de conclusiones estadísticas en aplicaciones sociales y científicas .

La inferencia estadística aborda cuestiones relacionadas con el análisis y la interpretación de datos. Los ejemplos incluyen el uso de inferencia bayesiana versus inferencia frecuente ; la distinción entre la "prueba de significancia" de Fisher y la "prueba de hipótesis" de Neyman - Pearson ; y si se debe seguir el principio de probabilidad . Algunas de estas cuestiones han estado sujetas a debates sin resolver durante hasta dos siglos. [2] Otros han logrado un consenso pragmático para aplicaciones específicas, como el uso de métodos bayesianos para ajustar modelos ecológicos complejos. [3]

Bandyopadhyay & Forster [4] describen cuatro paradigmas estadísticos : la estadística clásica (o estadística de error), la estadística bayesiana , la estadística basada en verosimilitud y el uso del Criterio de Información de Akaike como base estadística. Más recientemente, Judea Pearl reintrodujo una matemática formal para atribuir causalidad en sistemas estadísticos que aborda las limitaciones fundamentales de los métodos bayesianos y de Neyman-Pearson.

"Prueba de significancia" de Fisher versus "prueba de hipótesis" de Neyman-Pearson

Durante el segundo cuarto del siglo XX, el desarrollo de la estadística clásica condujo al surgimiento de dos modelos competitivos para las pruebas estadísticas inductivas . [5] [6] Los méritos de estos modelos fueron ampliamente debatidos [7] durante más de 25 años hasta el fallecimiento de Fisher. Aunque comúnmente se enseña y utiliza un enfoque híbrido que combina elementos de ambos métodos, las cuestiones filosóficas planteadas durante el debate siguen sin resolverse.

Pruebas de significancia

Fisher jugó un papel importante en la popularización de las pruebas de significancia a través de sus publicaciones, como " Métodos estadísticos para trabajadores de investigación " en 1925 y " El diseño de experimentos " en 1935. [8] Su objetivo era lograr resultados experimentales científicos sin sesgos de opiniones previas. . La prueba de significancia es una forma probabilística de inferencia deductiva , similar al Modus tollens . Una declaración simplificada de la prueba se puede describir de la siguiente manera: "Si la evidencia contradice la hipótesis en un grado suficiente, la hipótesis se rechaza". En la práctica, se calcula una estadística basándose en los datos experimentales y la probabilidad de obtener un valor mayor que esa estadística bajo un modelo predeterminado o " nulo " se compara con un umbral predeterminado. Este umbral representa el nivel de discordia requerido (normalmente establecido por convención). Una aplicación común de este método es determinar si un tratamiento tiene un efecto notable basándose en un experimento comparativo . En este caso, la hipótesis nula corresponde a la ausencia de un efecto del tratamiento , lo que implica que el grupo tratado y el grupo de control provienen de la misma población . La significancia estadística mide la probabilidad y no aborda la importancia práctica. Puede verse como un criterio para la relación estadística señal-ruido . Es importante señalar que la prueba no puede probar la hipótesis (de que el tratamiento no tiene efecto ), pero puede proporcionar evidencia en su contra. El método se basa en formular una población infinita imaginaria, que representa la hipótesis nula, dentro de un modelo estadístico específico.

La prueba de significancia de Fisherman implica una única hipótesis, pero la elección del estadístico de prueba requiere una comprensión de las direcciones relevantes de desviación del modelo hipotético.

Evaluación de la hipótesis

Neyman y Pearson colaboraron en el problema de seleccionar la hipótesis más apropiada basándose únicamente en evidencia experimental, que difería de las pruebas de significancia. Su artículo conjunto más famoso, publicado en 1933, [9] introdujo el lema de Neyman-Pearson , que establece que una relación de probabilidades sirve como un criterio eficaz para la selección de hipótesis (siendo arbitraria la elección del umbral). El artículo demostró la optimización de la prueba t de Student , una de las pruebas de significancia. Neyman creía que las pruebas de hipótesis representaban una generalización y una mejora de las pruebas de significancia. La justificación de sus métodos se puede encontrar en sus artículos colaborativos. [10]

La prueba de hipótesis implica considerar múltiples hipótesis y seleccionar una entre ellas, similar a tomar una decisión de opción múltiple. La ausencia de pruebas no es un factor inmediato a tener en cuenta. El método se basa en el supuesto de muestreo repetido de la misma población (el supuesto clásico de frecuentador), aunque Fisher criticó este supuesto. [11]

Motivos de desacuerdo

La duración de la disputa permitió una discusión exhaustiva de varias cuestiones fundamentales en el campo de la estadística.

Un ejemplo de intercambio entre 1955 y 1956

El ataque de Fisher [12]

Muestreo repetido de la misma población.

Errores tipo II

Comportamiento inductivo

La refutación de Neyman [13]

El ataque de Fisher al comportamiento inductivo ha tenido gran éxito porque seleccionó el campo de batalla. Si bien las decisiones operativas se toman habitualmente basándose en una variedad de criterios (como el costo), las conclusiones científicas de la experimentación generalmente se obtienen basándose únicamente en la probabilidad. La teoría de Fisher sobre la inferencia fiduciaria es errónea

Una teoría de pruebas puramente probabilística requiere una hipótesis alternativa. Los ataques de Fisher a los errores de tipo II se han desvanecido con el tiempo. En los años transcurridos, las estadísticas han separado lo exploratorio de lo confirmatorio. En el entorno actual, el concepto de errores de tipo II se utiliza en los cálculos de potencia para la determinación del tamaño de la muestra de las pruebas de hipótesis confirmatorias .

Discusión

El ataque de Fisher basado en la probabilidad del frecuentador fracasó pero no quedó sin resultados. Identificó un caso específico (tabla 2×2) en el que las dos escuelas de pruebas alcanzaron resultados diferentes. Este caso es uno de varios que siguen siendo preocupantes. Los comentaristas creen que la respuesta "correcta" depende del contexto. [14] A la probabilidad fiduciaria no le ha ido bien, ya que prácticamente no tiene defensores, mientras que la probabilidad más frecuente sigue siendo una interpretación predominante.

El ataque de Fisher al comportamiento inductivo ha tenido gran éxito porque seleccionó el campo de batalla. Mientras que las "decisiones operativas" se toman habitualmente basándose en una variedad de criterios (como el costo), las "conclusiones científicas" de la experimentación generalmente se basan únicamente en la probabilidad.

Durante este intercambio, Fisher también discutió los requisitos de la inferencia inductiva, criticando específicamente las funciones de costos que penalizan los juicios erróneos. Neyman respondió mencionando el uso de tales funciones por parte de Gauss y Laplace. Estos argumentos se produjeron 15 años después de que los libros de texto comenzaran a enseñar una teoría híbrida de pruebas estadísticas.

Fisher y Neyman tenían perspectivas diferentes sobre los fundamentos de la estadística (aunque ambos se oponían al punto de vista bayesiano): [14]

Fisher y Neyman divergieron en sus actitudes y, tal vez, en su lenguaje. Fisher era un científico y un matemático intuitivo, y el razonamiento inductivo le resultaba natural. Neyman, por otra parte, era un matemático riguroso que se basaba en el razonamiento deductivo en lugar de cálculos de probabilidad basados ​​en experimentos. [5] Por lo tanto, hubo un choque inherente entre los enfoques aplicados y teóricos (entre ciencia y matemáticas).

Historia relacionada

En 1938, Neyman se mudó a la costa oeste de los Estados Unidos de América, poniendo fin efectivamente a su colaboración con Pearson y su trabajo en la prueba de hipótesis. [5] Otros investigadores llevaron a cabo desarrollos posteriores en este campo.

En 1940, los libros de texto comenzaron a presentar un enfoque híbrido que combinaba elementos de prueba de significancia y prueba de hipótesis. [16] Sin embargo, ninguno de los principales contribuyentes participó directamente en el desarrollo posterior del enfoque híbrido que actualmente se enseña en la introducción a la estadística. [6]

Posteriormente, las estadísticas se diversificaron en varias direcciones, incluida la teoría de la decisión, la estadística bayesiana, el análisis exploratorio de datos, la estadística robusta y la estadística no paramétrica. Las pruebas de hipótesis de Neyman-Pearson hicieron contribuciones significativas a la teoría de la decisión, que se emplea ampliamente, particularmente en el control de calidad estadístico. La prueba de hipótesis también amplió su aplicabilidad para incorporar probabilidades previas, dándole un carácter bayesiano. Si bien las pruebas de hipótesis de Neyman-Pearson han evolucionado hasta convertirse en una materia matemática abstracta que se enseña a nivel de posgrado, [17] gran parte de lo que se enseña y utiliza en la educación universitaria bajo el paraguas de las pruebas de hipótesis se puede atribuir a Fisher.

Opinión contemporánea

No ha habido conflictos importantes entre las dos escuelas clásicas de evaluación en las últimas décadas, aunque persisten críticas y disputas ocasionales. Sin embargo, es muy poco probable que una teoría de pruebas estadísticas sustituya por completo a la otra en el futuro previsible.

El enfoque híbrido, que combina elementos de ambas escuelas de evaluación en competencia, puede interpretarse de diferentes maneras. Algunos lo ven como una amalgama de dos ideas matemáticamente complementarias, [14] mientras que otros lo ven como una unión defectuosa de conceptos filosóficamente incompatibles. [18] El enfoque de Fisher tenía ciertas ventajas filosóficas, mientras que Neyman y Pearson enfatizaban las matemáticas rigurosas. La prueba de hipótesis sigue siendo un tema de controversia para algunos usuarios, pero el método alternativo más aceptado, los intervalos de confianza, se basa en los mismos principios matemáticos.

Debido al desarrollo histórico de las pruebas, no existe una única fuente autorizada que abarque completamente la teoría híbrida tal como se practica comúnmente en estadística. Además, la terminología utilizada en este contexto puede carecer de coherencia. La evidencia empírica indica que los individuos, incluidos los estudiantes e instructores de cursos de introducción a la estadística, a menudo tienen una comprensión limitada del significado de la prueba de hipótesis. [19]

Resumen

Inferencia bayesiana versus inferencia frecuente

Durante mucho tiempo han existido dos interpretaciones distintas de la probabilidad, una basada en evidencia objetiva y la otra en grados subjetivos de creencia. El debate entre Gauss y Laplace podría haber tenido lugar hace más de 200 años, dando lugar a dos escuelas de estadística en competencia. La estadística inferencial clásica surgió principalmente durante el segundo cuarto del siglo XX, [6] en gran medida como respuesta al controvertido principio de indiferencia utilizado en la probabilidad bayesiana en ese momento. El resurgimiento de la inferencia bayesiana fue una reacción a las limitaciones de la probabilidad frecuente, lo que condujo a mayores desarrollos y reacciones.

Si bien las interpretaciones filosóficas tienen una larga historia, la terminología estadística específica es relativamente reciente. Los términos "bayesiano" y "frecuente" se estandarizaron en la segunda mitad del siglo XX. [20] Sin embargo, la terminología puede resultar confusa, ya que la interpretación "clásica" de la probabilidad se alinea con los principios bayesianos, mientras que las estadísticas "clásicas" siguen el enfoque frecuente. Además, incluso dentro del término "más frecuente", existen variaciones en la interpretación, que difieren entre filosofía y física.

Los intrincados detalles de las interpretaciones filosóficas de la probabilidad se exploran en otra parte. En el campo de la estadística, estas interpretaciones alternativas permiten el análisis de diferentes conjuntos de datos utilizando distintos métodos basados ​​en varios modelos, con el objetivo de lograr objetivos ligeramente diferentes. Al comparar las escuelas de pensamiento en competencia en estadística, se tienen en cuenta criterios pragmáticos más allá de las consideraciones filosóficas.

Principales contribuyentes

Fisher y Neyman fueron figuras importantes en el desarrollo de los métodos frecuentistas (clásicos). [5] Mientras que Fisher tenía una interpretación única de la probabilidad que difería de los principios bayesianos, Neyman se adhirió estrictamente al enfoque frecuentista. En el ámbito de la filosofía, las matemáticas y los métodos estadísticos bayesianos, de Finetti, [21] Jeffreys , [22] y Savage [23] emergieron como contribuyentes notables durante el siglo XX. Savage jugó un papel crucial en la popularización de las ideas de Finetti en las regiones de habla inglesa y en el establecimiento de matemáticas bayesianas rigurosas. En 1965, el trabajo en dos volúmenes de Dennis Lindley titulado "Introducción a la probabilidad y la estadística desde un punto de vista bayesiano" jugó un papel vital en la introducción de los métodos bayesianos a una amplia audiencia. Durante tres generaciones, las estadísticas han progresado significativamente y las opiniones de los primeros contribuyentes no necesariamente se consideran autorizadas en los tiempos actuales.

Enfoques contrastantes

inferencia frecuente

La descripción anterior destaca brevemente la inferencia frecuente, que abarca la "prueba de significancia" de Fisher y la "prueba de hipótesis" de Neyman-Pearson. La inferencia frecuente incorpora varias perspectivas y permite conclusiones científicas, decisiones operativas y estimación de parámetros con o sin intervalos de confianza .

Inferencia bayesiana

Una distribución de frecuencia clásica proporciona información sobre la probabilidad de los datos observados. Al aplicar el teorema de Bayes , se introduce un concepto más abstracto, que implica estimar la probabilidad de una hipótesis (asociada a una teoría) dados los datos. Este concepto, anteriormente denominado "probabilidad inversa", se realiza mediante la inferencia bayesiana. La inferencia bayesiana implica actualizar la estimación de probabilidad de una hipótesis a medida que se dispone de nueva evidencia. Considera explícitamente tanto la evidencia como las creencias previas, lo que permite la incorporación de múltiples conjuntos de evidencia.

Comparaciones de características.

Los frecuentistas y los bayesianos emplean distintos modelos de probabilidad. Los frecuentes suelen ver los parámetros como fijos pero desconocidos, mientras que los bayesianos asignan distribuciones de probabilidad a estos parámetros. Como resultado, los bayesianos analizan probabilidades que con frecuencia no reconocen. Los bayesianos consideran la probabilidad de una teoría, mientras que los verdaderos frecuentistas sólo pueden evaluar la coherencia de la evidencia con la teoría. Por ejemplo, un parámetro frecuente no afirma tener una probabilidad del 95% de que el valor real de un parámetro se encuentre dentro de un intervalo de confianza; más bien, afirman que el 95% de los intervalos de confianza abarcan el valor real.

Resultados matemáticos

Tanto la escuela frecuente como la bayesiana están sujetas a crítica matemática y ninguna de ellas acepta fácilmente dicha crítica. Por ejemplo, la paradoja de Stein destaca la complejidad de determinar una distribución de probabilidad previa "plana" o "poco informativa" en espacios de alta dimensión. [2] Si bien los bayesianos perciben esto como tangencial a su filosofía fundamental, lo encuentran frecuentemente plagado de inconsistencias, paradojas y comportamiento matemático desfavorable. Los viajeros frecuentes pueden ser responsables de la mayoría de estos problemas. Ciertos escenarios "problemáticos", como estimar la variabilidad del peso de una manada de elefantes basándose en una sola medición ("los elefantes de Basu"), ejemplifican casos extremos que desafían la estimación estadística. El principio de probabilidad ha sido un área de debate polémica.

Resultados estadísticos

Tanto la escuela frecuente como la bayesiana han demostrado logros notables al abordar desafíos prácticos. La estadística clásica, que depende de calculadoras mecánicas y tablas impresas especializadas, cuenta con una historia más larga de obtención de resultados. Los métodos bayesianos, por otro lado, han demostrado una eficacia notable en el análisis de información muestreada secuencialmente, como datos de radar y sonar. Varias técnicas bayesianas, así como ciertos métodos frecuentes recientes como el bootstrap, necesitan capacidades computacionales que se han vuelto ampliamente accesibles en las últimas décadas. Existe un discurso en curso sobre la integración de enfoques bayesianos y frecuentes, [25] aunque se han planteado preocupaciones con respecto a la interpretación de los resultados y la posible disminución de la diversidad metodológica.

Resultados filosóficos

Los bayesianos comparten una postura común contra las limitaciones de lo frecuente, pero están divididos en varios campos filosóficos (empíricos, jerárquicos, objetivos, personales y subjetivos), cada uno de los cuales enfatiza aspectos diferentes. Un filósofo de la estadística desde la perspectiva frecuente ha observado un cambio del dominio estadístico a las interpretaciones filosóficas de la probabilidad en las últimas dos generaciones. [27] Algunos perciben que los éxitos logrados con las aplicaciones bayesianas no justifican suficientemente el marco filosófico asociado. [28] Los métodos bayesianos a menudo desarrollan modelos prácticos que se desvían de la inferencia tradicional y tienen una dependencia mínima de la filosofía. [29] Ni las interpretaciones filosóficas frecuentes ni las bayesianas de la probabilidad pueden considerarse completamente sólidas. La visión frecuente es criticada por ser demasiado rígida y restrictiva, mientras que la visión bayesiana puede abarcar elementos tanto objetivos como subjetivos, entre otros.

Citas ilustrativas

Resumen

El principio de probabilidad

En el uso común, probabilidad se considera a menudo sinónimo de probabilidad. Sin embargo, según las estadísticas, este no es el caso. En estadística, la probabilidad se refiere a datos variables dada una hipótesis fija, mientras que la probabilidad se refiere a hipótesis variables dado un conjunto fijo de datos. Por ejemplo, cuando se realizan mediciones repetidas con una regla en condiciones fijas, cada conjunto de observaciones corresponde a una distribución de probabilidad, y las observaciones pueden verse como una muestra de esa distribución, siguiendo la interpretación frecuente de probabilidad. Por otro lado, también puede surgir un conjunto de observaciones al muestrear varias distribuciones basadas en diferentes condiciones de observación. La relación probabilística entre una muestra fija y una distribución variable derivada de una hipótesis variable se denomina verosimilitud y representa la visión bayesiana de la probabilidad. Por ejemplo, un conjunto de mediciones de longitud puede representar lecturas tomadas por observadores con características y condiciones específicas.

La probabilidad es un concepto que fue introducido y desarrollado por Fisher a lo largo de más de 40 años, aunque existen referencias anteriores al concepto y el apoyo de Fisher no fue incondicional. [34] El concepto fue posteriormente aceptado y revisado sustancialmente por Jeffreys . [35] En 1962, Birnbaum "demostró" el principio de probabilidad basándose en premisas que fueron ampliamente aceptadas entre los estadísticos, [36] aunque su prueba ha sido objeto de controversia por parte de estadísticos y filósofos. En particular, en 1970, Birnbaum había rechazado una de estas premisas (el principio de condicionalidad ) y también había abandonado el principio de probabilidad debido a su incompatibilidad con el frecuente "concepto de confianza de la evidencia estadística". [37] [38] El principio de probabilidad afirma que toda la información de una muestra está contenida dentro de la función de probabilidad , que los bayesianos consideran una distribución de probabilidad válida, pero no los frecuentes.

Ciertas pruebas de significación empleadas por los frecuentistas no son consistentes con el principio de probabilidad. Los bayesianos, por otro lado, adoptan el principio porque se alinea con su punto de vista filosófico (quizás en respuesta a una incomodidad frecuente). El enfoque de probabilidad es compatible con la inferencia estadística bayesiana, donde la distribución de Bayes posterior de un parámetro se deriva multiplicando la distribución anterior por la función de probabilidad utilizando el teorema de Bayes. [34] Frecuentes interpretan el principio de probabilidad de manera desfavorable, ya que sugiere una falta de preocupación por la confiabilidad de la evidencia. El principio de probabilidad, según la estadística bayesiana, implica que la información sobre el diseño experimental utilizado para recopilar evidencia no se tiene en cuenta en el análisis estadístico de los datos. [39] Algunos bayesianos, incluido Savage, [ cita necesaria ] reconocen esta implicación como una vulnerabilidad.

Los defensores más acérrimos del principio de probabilidad argumentan que proporciona una base más sólida para las estadísticas en comparación con las alternativas presentadas por los enfoques bayesianos y frecuentes. [40] Estos partidarios incluyen algunos estadísticos y filósofos de la ciencia. [41] Si bien los bayesianos reconocen la importancia de la probabilidad para los cálculos, sostienen que la distribución de probabilidad posterior sirve como base apropiada para la inferencia. [42]

Modelado

La estadística inferencial se basa en modelos estadísticos . Las pruebas de hipótesis clásicas, por ejemplo, a menudo se han basado en el supuesto de normalidad de los datos. Para reducir la dependencia de este supuesto, se han desarrollado estadísticas sólidas y no paramétricas. La estadística bayesiana, por otro lado, interpreta nuevas observaciones basándose en conocimientos previos, asumiendo una continuidad entre el pasado y el presente. El diseño experimental supone cierto conocimiento de los factores que se van a controlar, variar, aleatorizar y observar. Los estadísticos son conscientes de los desafíos que supone establecer la causalidad y a menudo afirman que " la correlación no implica causalidad ", lo que es más una limitación en el modelado que una restricción matemática.

A medida que las estadísticas y los conjuntos de datos se han vuelto más complejos, [a] [b] han surgido preguntas sobre la validez de los modelos y las inferencias extraídas de ellos. Existe una amplia gama de opiniones encontradas sobre el modelaje.

Los modelos pueden basarse en teoría científica o análisis de datos ad hoc, y cada uno emplea métodos diferentes. Existen defensores de cada enfoque. [44] La complejidad del modelo es una compensación y enfoques menos subjetivos como el criterio de información de Akaike y el criterio de información bayesiano tienen como objetivo lograr un equilibrio. [45]

Se han planteado preocupaciones incluso acerca de los modelos de regresión simples utilizados en las ciencias sociales, ya que una multitud de supuestos subyacentes a la validez del modelo a menudo no se mencionan ni se verifican. En algunos casos, se considera suficiente una comparación favorable entre las observaciones y el modelo. [46]

La estadística bayesiana se centra tan estrictamente en la probabilidad posterior que ignora la comparación fundamental de las observaciones y el modelo. [ dudosodiscutir ] [29]

Los modelos tradicionales basados ​​en la observación a menudo no logran abordar muchos problemas importantes, lo que requiere la utilización de una gama más amplia de modelos, incluidos los algorítmicos. "Si el modelo es una mala emulación de la naturaleza, las conclusiones pueden ser erróneas". [47]

Con frecuencia, la modelización se realiza de forma inadecuada, se emplean métodos inadecuados y la presentación de informes sobre los modelos suele ser deficiente. [48]

Dada la falta de un consenso sólido sobre la revisión filosófica de los modelos estadísticos, muchos estadísticos se adhieren a las palabras de advertencia de George Box : " Todos los modelos son incorrectos , pero algunos son útiles " .

Otra lectura

Para una introducción concisa a los fundamentos de la estadística, consulte Stuart, A.; viejo, JK (1994). "Cap. 8 - Probabilidad e inferencia estadística" en Teoría avanzada de la estadística de Kendall, Volumen I: Teoría de la distribución (6ª ed.), publicado por Edward Arnold .

En su libro La estadística como argumento basado en principios , Robert P. Abelson presenta la perspectiva de que la estadística sirve como método estandarizado para resolver desacuerdos entre científicos, quienes de otro modo podrían enzarzarse en debates interminables sobre los méritos de sus respectivas posiciones. Desde este punto de vista, las estadísticas pueden verse como una forma de retórica. Sin embargo, la eficacia de los métodos estadísticos depende del consenso entre todas las partes involucradas sobre el enfoque elegido. [49]

Ver también

Notas a pie de página

  1. ^ Algunos modelos grandes intentan predecir el comportamiento de los votantes en los Estados Unidos de América. La población ronda los 300 millones. Cada votante puede verse influenciado por muchos factores. Para conocer algunas de las complicaciones del comportamiento de los votantes (que los nativos entienden más fácilmente), consulte: Gelman [43]
  2. ^ Efron (2013) menciona millones de puntos de datos y miles de parámetros de estudios científicos. [24]

Citas

  1. ^ Kitcher y salmón (2009) p.51
  2. ^ ab Efron 1978.
  3. ^ van de Schoot, Rens; Depaoli, Sarah; Rey, Rut; Kramer, Bianca; Märtens, Kaspar; Tadesse, Mahlet G.; Vannucci, Marina; Gelman, Andrés; Veen, Duco; Willemsen, Joukje; Yau, Christopher (14 de enero de 2021). "Estadísticas y modelos bayesianos". Imprimaciones de métodos de reseñas de la naturaleza . 1 (1). doi :10.1038/s43586-020-00001-2. hdl : 20.500.11820/9fc72a0b-33e4-4a9c-bdb7-d88dab16f621 . ISSN  2662-8449.
  4. ^ Bandyopadhyay y Forster 2011.
  5. ^ abcd Lehmann 2011.
  6. ^ a b C Gigerenzer et al. 1989.
  7. ^ ab Louçã 2008.
  8. ^ Pescador 1956.
  9. ^ Neyman y Pearson 1933.
  10. ^ Neyman y Pearson 1967.
  11. ^ Rubin, M (2020). ""¿Muestreo repetido de la misma población? "Una crítica de las respuestas de Neyman y Pearson a Fisher". Revista Europea de Filosofía de la Ciencia . 10 (42): 1–15. doi :10.1007/s13194-020-00309-6. S2CID  221939887.
  12. ^ Pescador 1955.
  13. ^ Neyman 1956.
  14. ^ abc Lehmann 1993.
  15. ^ Lenhard 2006.
  16. ^ Halpin y Stam 2006.
  17. ^ Lehmann y Romano 2005.
  18. ^ Hubbard y Bayarri c. 2003.
  19. ^ Sotos y col. 2007.
  20. ^ Fienberg 2006.
  21. ^ de Finetti 1964.
  22. ^ ab Jeffreys 1939.
  23. ^ Salvaje 1972.
  24. ^ abcd Efron 2013.
  25. ^ ab Pequeño 2006.
  26. ^ Yu 2009.
  27. ^ Mayo de 2013.
  28. ^ Senn 2011.
  29. ^ ab Gelman y Shalizi 2012.
  30. ^ abc Cox 2005.
  31. ^ Bernardo 2008.
  32. ^ Kassc. 2012.
  33. ^ ab Gelman 2008.
  34. ^ ab Edwards 1999.
  35. ^ Aldrich 2002.
  36. ^ Birnbaum 1962.
  37. ^ Birnbaum, A., (1970) Métodos estadísticos en inferencia científica. Naturaleza , 225, 14 de marzo de 1970, págs.1033.
  38. ^ Giere, R. (1977) La concepción de la evidencia estadística de Allan Birnbaum. Síntesis , 36, pp.5-13.
  39. ^ Atrás 1999.
  40. ^ Forster y sobrio 2001.
  41. ^ Real 1997.
  42. ^ Lindley 2000.
  43. ^ Gelman. "Charla rojo-azul UBC" (PDF) . Estadísticas. Columbia U. Archivado (PDF) desde el original el 6 de octubre de 2013 . Consultado el 16 de septiembre de 2013 .
  44. ^ Tabachnick y Fidell 1996.
  45. ^ Forster y sobrio 1994.
  46. ^ Libertado 1995.
  47. ^ Breiman 2001.
  48. ^ barbilla y
  49. ^ Abelson, Robert P. (1995). La estadística como argumento de principios . Asociados de Lawrence Erlbaum. ISBN 978-0-8058-0528-4. ... el propósito de las estadísticas es organizar un argumento útil a partir de evidencia cuantitativa, utilizando una forma de retórica de principios.

Referencias

Otras lecturas

enlaces externos