stringtranslate.com

Historia de la estadística

La estadística , en el sentido moderno de la palabra, comenzó a evolucionar en el siglo XVIII en respuesta a las nuevas necesidades de los estados soberanos en proceso de industrialización .

En los primeros tiempos, el significado se limitaba a la información sobre los estados, en particular la demografía , como la población. Más tarde, esto se amplió para incluir todas las colecciones de información de todo tipo, y más tarde aún se amplió para incluir el análisis y la interpretación de dichos datos. En términos modernos, "estadística" significa tanto conjuntos de información recopilada, como en las cuentas nacionales y el registro de temperatura , como el trabajo analítico que requiere inferencia estadística . Las actividades estadísticas a menudo se asocian con modelos expresados ​​​​utilizando probabilidades , de ahí la conexión con la teoría de la probabilidad. Los grandes requisitos del procesamiento de datos han hecho de la estadística una aplicación clave de la computación. Una serie de conceptos estadísticos tienen un impacto importante en una amplia gama de ciencias. Estos incluyen el diseño de experimentos y enfoques de inferencia estadística como la inferencia bayesiana , cada uno de los cuales puede considerarse que tiene su propia secuencia en el desarrollo de las ideas subyacentes a las estadísticas modernas.

Introducción

En el siglo XVIII, el término " estadística " designaba la recopilación sistemática de datos demográficos y económicos por parte de los estados. Durante al menos dos milenios, estos datos eran principalmente tabulaciones de recursos humanos y materiales que podían ser gravados o utilizados con fines militares. A principios del siglo XIX, la recopilación se intensificó y el significado de "estadística" se amplió para incluir la disciplina relacionada con la recopilación, el resumen y el análisis de datos. Hoy en día, se recopilan datos y se calculan estadísticas y se distribuyen ampliamente en el gobierno, las empresas, la mayoría de las ciencias y los deportes, e incluso en muchos pasatiempos. Las computadoras electrónicas han acelerado los cálculos estadísticos más elaborados, al tiempo que han facilitado la recopilación y agregación de datos. Un solo analista de datos puede tener disponible un conjunto de archivos de datos con millones de registros, cada uno con docenas o cientos de mediciones separadas. Estos se recopilaron a lo largo del tiempo a partir de la actividad informática (por ejemplo, una bolsa de valores) o de sensores computarizados, registros de puntos de venta, etc. Las computadoras producen entonces resúmenes simples y precisos, y permiten realizar análisis más tediosos, como los que requieren invertir una matriz grande o realizar cientos de pasos de iteración, que nunca se intentarían a mano. La computación más rápida ha permitido a los estadísticos desarrollar métodos "intensivos de computación" que pueden analizar todas las permutaciones o utilizar la aleatorización para analizar 10.000 permutaciones de un problema, a fin de estimar respuestas que no son fáciles de cuantificar solo con la teoría.

El término " estadística matemática " designa las teorías matemáticas de probabilidad e inferencia estadística , que se utilizan en la práctica estadística . Sin embargo, la relación entre la estadística y la teoría de la probabilidad se desarrolló bastante tarde. En el siglo XIX, la estadística utilizó cada vez más la teoría de la probabilidad , cuyos resultados iniciales se encontraron en los siglos XVII y XVIII, particularmente en el análisis de juegos de azar (juegos de azar). Hacia 1800, la astronomía utilizaba modelos de probabilidad y teorías estadísticas, particularmente el método de mínimos cuadrados . La teoría de la probabilidad y la estadística tempranas se sistematizaron en el siglo XIX y el razonamiento estadístico y los modelos de probabilidad fueron utilizados por los científicos sociales para avanzar en las nuevas ciencias de la psicología experimental y la sociología , y por los científicos físicos en la termodinámica y la mecánica estadística . El desarrollo del razonamiento estadístico estuvo estrechamente asociado con el desarrollo de la lógica inductiva y el método científico , que son preocupaciones que alejan a los estadísticos del área más estrecha de la estadística matemática. Gran parte del trabajo teórico estaba fácilmente disponible en el momento en que las computadoras estaban disponibles para explotarlos. En la década de 1970, Johnson y Kotz produjeron un Compendio sobre distribuciones estadísticas de cuatro volúmenes (1.ª ed., 1969-1972), que sigue siendo un recurso invaluable.

La estadística aplicada puede considerarse no como un campo de las matemáticas sino como una ciencia matemática autónoma , como la informática y la investigación de operaciones . A diferencia de las matemáticas, la estadística tuvo sus orígenes en la administración pública . Las aplicaciones surgieron temprano en la demografía y la economía ; grandes áreas de la micro y la macroeconomía hoy son "estadísticas" con énfasis en los análisis de series temporales. Con su énfasis en el aprendizaje de los datos y en la realización de las mejores predicciones, la estadística también ha sido moldeada por áreas de investigación académica que incluyen las pruebas psicológicas, la medicina y la epidemiología . Las ideas de las pruebas estadísticas tienen una superposición considerable con la ciencia de la decisión . Con sus preocupaciones por la búsqueda y presentación efectiva de datos , la estadística se superpone con la ciencia de la información y la informática .

Etimología

Busque estadísticas en Wikcionario , el diccionario libre.

El término estadística se deriva en última instancia del neolatín statisticum collegium ("consejo de estado") y la palabra italiana statista ("estadista" o " político "). El término alemán Statistik , introducido por primera vez por Gottfried Achenwall (1749), designaba originalmente el análisis de datos sobre el estado , es decir, la "ciencia del estado" (entonces llamada aritmética política en inglés). Adquirió el significado de la recopilación y clasificación de datos en general a principios del siglo XIX. Fue introducido al inglés en 1791 por Sir John Sinclair cuando publicó el primero de 21 volúmenes titulado Cuenta estadística de Escocia . [1]

Orígenes de la teoría de la probabilidad

Las formas básicas de estadística se han utilizado desde el comienzo de la civilización. Los primeros imperios solían recopilar censos de población o registrar el comercio de diversos productos. La dinastía Han y el Imperio romano fueron algunos de los primeros estados en recopilar datos extensivos sobre el tamaño de la población, la superficie geográfica y la riqueza del imperio.

El uso de métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides, en su Historia de la guerra del Peloponeso [2], describe cómo los atenienses calculaban la altura de la muralla de Platea contando el número de ladrillos que había en una sección no revestida de la muralla lo suficientemente cerca de ellos como para poder contarlos. El recuento se repetía varias veces por varios soldados. El valor más frecuente (en la terminología moderna, la moda ) así determinado se tomaba como el valor más probable del número de ladrillos. Al multiplicar este valor por la altura de los ladrillos utilizados en la muralla, los atenienses podían determinar la altura de las escaleras necesarias para escalar las murallas. [ cita requerida ]

La Prueba del Copón es una prueba de pureza de las monedas de la Real Casa de la Moneda que se lleva a cabo periódicamente desde el siglo XII. La Prueba en sí se basa en métodos de muestreo estadístico. Después de acuñar una serie de monedas (originalmente de diez libras de plata), se coloca una sola moneda en el Copón, una caja situada en la Abadía de Westminster . Después de un período determinado (ahora una vez al año), se extraen las monedas y se pesan. A continuación, se prueba la pureza de una muestra de monedas extraídas de la caja.

La Nuova Cronica , una historia de Florencia del siglo XIV escrita por el banquero y funcionario florentino Giovanni Villani , incluye mucha información estadística sobre población, ordenanzas, comercio, educación e instalaciones religiosas y ha sido descrita como la primera introducción de la estadística como un elemento positivo en la historia, [3] aunque ni el término ni el concepto de la estadística como campo específico existían todavía.

La media aritmética , aunque era un concepto conocido por los griegos, no se generalizó a más de dos valores hasta el siglo XVI. Es probable que la invención del sistema decimal por Simon Stevin en 1585 haya facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía por Tycho Brahe, quien intentaba reducir los errores en sus estimaciones de las ubicaciones de varios cuerpos celestes.

La idea de la mediana se originó en el libro de navegación de Edward Wright ( Ciertos errores en la navegación ) en 1599 en una sección sobre la determinación de la ubicación con una brújula. Wright creía que este valor era el que tenía más probabilidades de ser el valor correcto en una serie de observaciones. La diferencia entre la media y la mediana fue advertida en 1669 por Christian Huygens en el contexto del uso de las tablas de Graunt. [4]

Sir William Petty , un economista del siglo XVII que utilizó métodos estadísticos tempranos para analizar datos demográficos.

El término "estadística" fue introducido por el erudito italiano Girolamo Ghilini en 1589 con referencia a esta ciencia. [5] [6] El nacimiento de la estadística a menudo se fecha en 1662, cuando John Graunt , junto con William Petty , desarrolló los primeros métodos estadísticos y censales humanos que proporcionaron un marco para la demografía moderna . Produjo la primera tabla de vida , dando probabilidades de supervivencia a cada edad. Su libro Natural and Political Observations Made upon the Bills of Mortality utilizó el análisis de los registros de mortalidad para hacer la primera estimación basada en estadísticas de la población de Londres . Sabía que había alrededor de 13.000 funerales por año en Londres y que tres personas morían por cada once familias por año. Estimó a partir de los registros parroquiales que el tamaño promedio de la familia era de 8 y calculó que la población de Londres era de aproximadamente 384.000; este es el primer uso conocido de un estimador de razón . Laplace en 1802 estimó la población de Francia con un método similar; Consulte Estimador de proporción § Historial para obtener más detalles.

Aunque el alcance original de la estadística se limitaba a los datos útiles para la gobernanza, el enfoque se extendió a muchos campos de naturaleza científica o comercial durante el siglo XIX. Los fundamentos matemáticos de la materia se basaron en gran medida en la nueva teoría de la probabilidad , iniciada en el siglo XVI por Gerolamo Cardano , Pierre de Fermat y Blaise Pascal . Christiaan Huygens (1657) dio el primer tratamiento científico conocido del tema. El Ars Conjectandi de Jakob Bernoulli (póstumo, 1713) y La doctrina de las probabilidades de Abraham de Moivre (1718) trataron el tema como una rama de las matemáticas. En su libro, Bernoulli introdujo la idea de representar la certeza completa como uno y la probabilidad como un número entre cero y uno.

Una de las primeras aplicaciones clave de la estadística en el siglo XVIII fue la proporción de sexos humanos al nacer. [7] John Arbuthnot estudió esta cuestión en 1710. [8] [9] [10] [11] Arbuthnot examinó los registros de nacimientos en Londres durante cada uno de los 82 años desde 1629 hasta 1710. En cada año, el número de varones nacidos en Londres superó al número de mujeres. Considerando que es igualmente probable que haya más nacimientos de varones o más de mujeres, la probabilidad del resultado observado es de 0,5^82, o aproximadamente 1 en 4.8360.0000.0000.0000.0000.0000; en términos modernos, el valor p es . Esto es extremadamente pequeño, lo que lleva a Arbuthnot a pensar que esto no se debía al azar, sino a la providencia divina: "De donde se sigue que es el arte, no el azar, lo que gobierna". Este y otros trabajos de Arbuthnot se consideran "el primer uso de pruebas de significación " [12], el primer ejemplo de razonamiento sobre la significación estadística y la certeza moral, [13] y "... quizás el primer informe publicado de una prueba no paramétrica ...", [9] específicamente la prueba de signos ; consulte los detalles en Prueba de signos § Historia .

El estudio formal de la teoría de los errores se remonta a la Opera Miscellanea de Roger Cotes (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría al análisis de los errores de observación. La reimpresión (1757) de esta memoria establece los axiomas de que los errores positivos y negativos son igualmente probables y que existen ciertos límites asignables dentro de los cuales se puede suponer que caen todos los errores; se analizan los errores continuos y se da una curva de probabilidad. Simpson analizó varias distribuciones posibles de error. Primero consideró la distribución uniforme y luego la distribución triangular simétrica discreta seguida de la distribución triangular simétrica continua. Tobias Mayer , en su estudio de la libración de la luna ( Kosmographische Nachrichten , Nuremberg, 1750), inventó el primer método formal para estimar las cantidades desconocidas al generalizar el promedio de observaciones en circunstancias idénticas al promedio de grupos de ecuaciones similares.

Roger Joseph Boscovich en 1755, basándose en su trabajo sobre la forma de la tierra, propuso en su libro De Litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli que el verdadero valor de una serie de observaciones sería el que minimiza la suma de errores absolutos. En la terminología moderna, este valor es la mediana. El primer ejemplo de lo que más tarde se conocería como la curva normal fue estudiado por Abraham de Moivre, quien trazó esta curva el 12 de noviembre de 1733. [14] De Moivre estaba estudiando el número de caras que se producían cuando se lanzaba una moneda "justa".

En 1763, Richard Price transmitió a la Royal Society la prueba de Thomas Bayes de una regla para utilizar una distribución binomial para calcular una probabilidad posterior de un evento anterior.

En 1765 Joseph Priestley inventó los primeros gráficos de línea de tiempo .

Johann Heinrich Lambert en su libro Anlage zur Architectonic de 1765 propuso el semicírculo como una distribución de errores:

con -1 < x < 1.

Gráficas de densidad de probabilidad para la distribución de Laplace

Pierre-Simon Laplace (1774) fue el primero en intentar deducir una regla para la combinación de observaciones a partir de los principios de la teoría de probabilidades. Representó la ley de probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres observaciones.

En 1774, Laplace observó que la frecuencia de un error podía expresarse como una función exponencial de su magnitud una vez que se descartaba su signo. [15] [16] Esta distribución se conoce ahora como distribución de Laplace . Lagrange propuso una distribución fractal parabólica de errores en 1776.

En 1778, Laplace publicó su segunda ley de errores, en la que señalaba que la frecuencia de un error era proporcional a la exponencial del cuadrado de su magnitud. Esta ley fue redescubierta posteriormente por Gauss (posiblemente en 1795) y ahora se la conoce mejor como distribución normal, que es de importancia central en estadística. [17] Esta distribución fue mencionada por primera vez como distribución normal por CS Peirce en 1873, quien estaba estudiando los errores de medición cuando se dejaba caer un objeto sobre una base de madera. [18] Eligió el término normal debido a su frecuente aparición en variables naturales.

Lagrange también sugirió en 1781 otras dos distribuciones de errores: una distribución de coseno elevado y una distribución logarítmica .

Laplace (1781) dio una fórmula para la ley de facilidad de error (un término debido a Joseph Louis Lagrange , 1774), pero que condujo a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del producto máximo de las probabilidades de un sistema de errores concurrentes.

En 1786, William Playfair (1759-1823) introdujo la idea de la representación gráfica en las estadísticas. Inventó el gráfico de líneas , el gráfico de barras y el histograma y los incorporó a sus obras sobre economía , el Atlas comercial y político . A esto le siguió en 1795 su invención del gráfico circular y del gráfico circular, que utilizó para mostrar la evolución de las importaciones y exportaciones de Inglaterra. Estos últimos gráficos llamaron la atención del público cuando publicó ejemplos en su Breviario estadístico en 1801.

Laplace, en una investigación de los movimientos de Saturno y Júpiter en 1787, generalizó el método de Mayer utilizando diferentes combinaciones lineales de un solo grupo de ecuaciones.

En 1791, Sir John Sinclair introdujo el término «estadística» en inglés en sus Cuentas estadísticas de Escocia .

En 1802, Laplace estimó que la población de Francia era de 28.328.612 habitantes. [19] Calculó esta cifra utilizando el número de nacimientos del año anterior y los datos del censo de tres comunidades. Los datos del censo de estas comunidades mostraban que tenían 2.037.615 personas y que el número de nacimientos era de 71.866. Suponiendo que estas muestras eran representativas de Francia, Laplace elaboró ​​su estimación para toda la población.

Carl Friedrich Gauss , matemático que desarrolló el método de mínimos cuadrados en 1809

El método de mínimos cuadrados , que se utilizó para minimizar los errores en la medición de datos , fue publicado de forma independiente por Adrien-Marie Legendre (1805), Robert Adrain (1808) y Carl Friedrich Gauss (1809). Gauss había utilizado el método en su famosa predicción de 1801 sobre la ubicación del planeta enano Ceres . Las observaciones en las que Gauss basó sus cálculos fueron realizadas por el monje italiano Piazzi.

El método de mínimos cuadrados fue precedido por el uso de una pendiente de regresión mediana. Este método minimiza la suma de las desviaciones absolutas. Un método para estimar esta pendiente fue inventado por Roger Joseph Boscovich en 1760 y lo aplicó a la astronomía.

El término error probable ( der wahrscheinliche Fehler ) –la desviación mediana respecto de la media– fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm Bessel . Antoine Augustin Cournot fue el primero en utilizar en 1843 el término mediana ( valeur médiane ) para designar el valor que divide una distribución de probabilidad en dos mitades iguales.

Otros contribuyentes a la teoría de los errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). [ cita requerida ] La fórmula de Peters (1856) para , el "error probable" de una sola observación, fue ampliamente utilizada e inspiró las primeras estadísticas robustas (resistentes a los valores atípicos : véase el criterio de Peirce ).

En el siglo XIX, los autores de teoría estadística incluyeron a Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurent (1873), Liagre, Didion, De Morgan y Boole .

Gustav Theodor Fechner utilizó la mediana ( Centralwerth ) en fenómenos sociológicos y psicológicos. [20] Anteriormente se había utilizado sólo en astronomía y campos relacionados. Francis Galton utilizó el término inglés mediana por primera vez en 1881, habiendo utilizado anteriormente los términos valor medio en 1869 y medio en 1880. [21]

Adolphe Quetelet (1796-1874), otro importante fundador de la estadística, introdujo la noción del "hombre medio" ( l'homme moyen ) como un medio para comprender fenómenos sociales complejos como las tasas de criminalidad , las tasas de matrimonio y las tasas de suicidio . [22]

Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán Wilhelm Lexis en la década de 1870. Los únicos conjuntos de datos disponibles que pudo demostrar que tenían una distribución normal fueron las tasas de natalidad.

Desarrollo de la estadística moderna

Aunque los orígenes de la teoría estadística se encuentran en los avances del siglo XVIII en probabilidad, el campo moderno de la estadística solo surgió a fines del siglo XIX y principios del XX en tres etapas. La primera ola, a principios del siglo, fue liderada por el trabajo de Francis Galton y Karl Pearson , quienes transformaron la estadística en una disciplina matemática rigurosa utilizada para el análisis, no solo en la ciencia, sino también en la industria y la política. La segunda ola de las décadas de 1910 y 1920 fue iniciada por William Sealy Gosset y alcanzó su culminación en las ideas de Ronald Fisher . Esto implicó el desarrollo de mejores modelos de diseño de experimentos , pruebas de hipótesis y técnicas para usar con pequeñas muestras de datos. La ola final, que vio principalmente el refinamiento y la expansión de desarrollos anteriores, surgió del trabajo colaborativo entre Egon Pearson y Jerzy Neyman en la década de 1930. [23] Hoy en día, los métodos estadísticos se aplican en todos los campos que involucran la toma de decisiones, para hacer inferencias precisas a partir de un conjunto de datos recopilados y para tomar decisiones frente a la incertidumbre basada en la metodología estadística.

El logotipo original de la Royal Statistical Society , fundada en 1834

Los primeros organismos estadísticos se crearon a principios del siglo XIX. La Royal Statistical Society se fundó en 1834 y Florence Nightingale , su primera miembro femenina, fue pionera en la aplicación del análisis estadístico a los problemas de salud para fomentar la comprensión epidemiológica y la práctica de la salud pública. Sin embargo, los métodos que se utilizaban entonces no se considerarían hoy en día estadísticas modernas.

El libro del erudito de Oxford Francis Ysidro Edgeworth , Metretike: or The Method of Measuring Probability and Utility (1887) abordó la probabilidad como base del razonamiento inductivo, y sus trabajos posteriores se centraron en la "filosofía del azar". [24] Su primer artículo sobre estadística (1883) exploró la ley del error ( distribución normal ), y sus Métodos de estadística (1885) introdujeron una versión temprana de la distribución t , la expansión de Edgeworth , la serie de Edgeworth , el método de transformación de variables y la teoría asintótica de estimaciones de máxima verosimilitud.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895. [25] Arthur Lyon Bowley introdujo nuevos métodos de muestreo de datos en 1906 cuando trabajaba en estadísticas sociales. Aunque las encuestas estadísticas de las condiciones sociales habían comenzado con "La vida y el trabajo de la gente en Londres" (1889-1903) de Charles Booth y "La pobreza, un estudio de la vida urbana" (1901) de Seebohm Rowntree , la innovación clave de Bowley consistió en el uso de técnicas de muestreo aleatorio . Sus esfuerzos culminaron en su Nueva encuesta sobre la vida y el trabajo en Londres . [26]

A Francis Galton se le atribuye ser uno de los principales fundadores de la teoría estadística. Sus contribuciones a este campo incluyeron la introducción de los conceptos de desviación estándar , correlación y regresión , y la aplicación de estos métodos al estudio de la variedad de características humanas (altura, peso, longitud de las pestañas, entre otras). Descubrió que muchas de ellas podían ajustarse a una distribución de curva normal. [27]

Galton presentó un artículo a la revista Nature en 1907 sobre la utilidad de la mediana. [28] Examinó la precisión de 787 suposiciones sobre el peso de un buey en una feria rural. El peso real fue de 1208 libras: la mediana supuesta fue de 1198. Las suposiciones estaban marcadamente distribuidas de manera no normal (cf. Wisdom of the Crowd ).

Karl Pearson , el fundador de la estadística matemática

La publicación de Natural Inheritance por Galton en 1889 despertó el interés de un matemático brillante, Karl Pearson , [29] que entonces trabajaba en el University College de Londres , y él fundó la disciplina de la estadística matemática. [30] Hizo hincapié en la base estadística de las leyes científicas y promovió su estudio y su laboratorio atrajo a estudiantes de todo el mundo atraídos por sus nuevos métodos de análisis, incluido Udny Yule . Su trabajo creció para abarcar los campos de la biología , la epidemiología , la antropometría, la medicina y la historia social . En 1901, con Walter Weldon , fundador de la biometría , y Galton, fundó la revista Biometrika como la primera revista de estadística matemática y biometría.

Su trabajo, y el de Galton, sustentan muchos de los métodos estadísticos "clásicos" que se usan comúnmente hoy en día, incluyendo el coeficiente de correlación , definido como un momento producto; [31] el método de momentos para el ajuste de distribuciones a muestras; el sistema de curvas continuas de Pearson que forma la base de las distribuciones de probabilidad continuas ahora convencionales; la distancia Chi, un precursor y caso especial de la distancia de Mahalanobis [32] y el valor P , definido como la medida de probabilidad del complemento de la pelota con el valor hipotético como punto central y la distancia chi como radio. [32] También introdujo el término "desviación estándar".

También fundó la teoría de prueba de hipótesis estadística , [32] la prueba de chi-cuadrado de Pearson y el análisis de componentes principales . [33] [34] En 1911 fundó el primer departamento de estadística universitaria del mundo en el University College de Londres .

La segunda ola de estadística matemática fue iniciada por Ronald Fisher , quien escribió dos libros de texto, Métodos estadísticos para investigadores , publicado en 1925 y El diseño de experimentos en 1935, que definirían la disciplina académica en universidades de todo el mundo. También sistematizó resultados anteriores, colocándolos sobre una base matemática sólida. En su artículo seminal de 1918 La correlación entre parientes en la suposición de la herencia mendeliana , el primero en utilizar el término estadístico, varianza . En 1919, en la Estación Experimental de Rothamsted comenzó un estudio importante de las extensas colecciones de datos registrados durante muchos años. Esto dio como resultado una serie de informes bajo el título general Estudios en variación de cultivos. En 1930 publicó La teoría genética de la selección natural donde aplicó la estadística a la evolución .

Durante los siguientes siete años, fue pionero en los principios del diseño de experimentos (ver más abajo) y elaboró ​​sus estudios de análisis de varianza. Amplió sus estudios de las estadísticas de muestras pequeñas. Quizás aún más importante, comenzó su enfoque sistemático del análisis de datos reales como trampolín para el desarrollo de nuevos métodos estadísticos. Desarrolló algoritmos computacionales para analizar datos de sus diseños experimentales balanceados. En 1925, este trabajo resultó en la publicación de su primer libro, Métodos estadísticos para trabajadores de investigación . [35] Este libro pasó por muchas ediciones y traducciones en años posteriores, y se convirtió en la obra de referencia estándar para científicos en muchas disciplinas. En 1935, este libro fue seguido por El diseño de experimentos , que también fue ampliamente utilizado.

Además del análisis de varianza, Fisher nombró y promovió el método de estimación de máxima verosimilitud . Fisher también originó los conceptos de suficiencia , estadística auxiliar , discriminador lineal de Fisher e información de Fisher . Su artículo On a distribution yielding the error functions of several wellknown statistics (1924) presentó la prueba chi-cuadrado de Pearson y la t de William Sealy Gosset en el mismo marco que la distribución gaussiana , y su propio parámetro en el análisis de varianza, la distribución z de Fisher (más comúnmente utilizada décadas después en la forma de la distribución F ). [36] El nivel de significancia del 5% parece haber sido introducido por Fisher en 1925. [37] Fisher afirmó que las desviaciones que exceden el doble de la desviación estándar se consideran significativas. Antes de esto, las desviaciones que exceden el triple del error probable se consideraban significativas. Para una distribución simétrica, el error probable es la mitad del rango intercuartil. Para una distribución normal, el error probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio del 5% de Fisher tenía sus raíces en prácticas anteriores.

Otras contribuciones importantes en esta época incluyeron el coeficiente de correlación de rangos de Charles Spearman , que fue una extensión útil del coeficiente de correlación de Pearson. William Sealy Gosset , el estadístico inglés más conocido bajo su seudónimo de Student , introdujo la distribución t de Student , una distribución de probabilidad continua útil en situaciones en las que el tamaño de la muestra es pequeño y se desconoce la desviación estándar de la población.

Egon Pearson (hijo de Karl) y Jerzy Neyman introdujeron los conceptos de error de " tipo II ", potencia de una prueba e intervalos de confianza . En 1934, Jerzy Neyman demostró que el muestreo aleatorio estratificado era, en general, un mejor método de estimación que el muestreo intencional (por cuotas). [38]

Diseño de experimentos

James Lind llevó a cabo el primer ensayo clínico en 1747, en un esfuerzo por encontrar un tratamiento para el escorbuto .

En 1747, mientras trabajaba como cirujano en el HM Bark Salisbury , James Lind llevó a cabo un experimento controlado para desarrollar una cura para el escorbuto . [39] En este estudio, los casos de sus sujetos "eran tan similares como pude imaginar", es decir, proporcionó requisitos de entrada estrictos para reducir la variación extraña. Los hombres fueron emparejados, lo que proporcionó un bloqueo . Desde una perspectiva moderna, lo principal que falta es la asignación aleatoria de sujetos a los tratamientos.

En la actualidad, a Lind se lo suele describir como un experimentador que analizaba un factor a la vez. [40] En la década de 1840, Sir John Lawes realizó una experimentación similar que analizaba un factor a la vez (OFAT) en la Estación de Investigación de Rothamsted para determinar el fertilizante inorgánico óptimo para su uso en el trigo. [40]

Charles S. Peirce desarrolló una teoría de la inferencia estadística en " Ilustraciones de la lógica de la ciencia " (1877-1878) y " Una teoría de la inferencia probable " (1883), dos publicaciones que enfatizaban la importancia de la inferencia basada en la aleatorización en las estadísticas. En otro estudio, Peirce asignó aleatoriamente a voluntarios a un diseño ciego de medidas repetidas para evaluar su capacidad para discriminar pesos. [41] [42] [ 43] [44]

El experimento de Peirce inspiró a otros investigadores en psicología y educación, que desarrollaron una tradición de investigación de experimentos aleatorios en laboratorios y libros de texto especializados en el siglo XIX. [41] [42] [43] [44] Peirce también contribuyó con la primera publicación en idioma inglés sobre un diseño óptimo para modelos de regresión en 1876. [45] Gergonne sugirió un diseño óptimo pionero para la regresión polinomial en 1815. [ cita requerida ] En 1918, Kirstine Smith publicó diseños óptimos para polinomios de grado seis (y menos). [46]

El uso de una secuencia de experimentos, donde el diseño de cada uno puede depender de los resultados de experimentos anteriores, incluida la posible decisión de dejar de experimentar, fue iniciado [47] por Abraham Wald en el contexto de pruebas secuenciales de hipótesis estadísticas. [48] Hay encuestas disponibles de diseños secuenciales óptimos , [49] y de diseños adaptativos . [50] Un tipo específico de diseño secuencial es el "bandido de dos brazos", generalizado al bandido de múltiples brazos , en el que Herbert Robbins realizó un trabajo temprano en 1952. [51]

El término "diseño de experimentos" (DOE) se deriva del trabajo estadístico temprano realizado por Sir Ronald Fisher . Anders Hald lo describió como "un genio que casi sin ayuda creó las bases de la ciencia estadística moderna". [52] Fisher inició los principios del diseño de experimentos y profundizó en sus estudios de " análisis de varianza ". Quizás aún más importante, Fisher comenzó su enfoque sistemático para el análisis de datos reales como trampolín para el desarrollo de nuevos métodos estadísticos. Comenzó a prestar especial atención al trabajo involucrado en los cálculos necesarios realizados a mano y desarrolló métodos que eran tan prácticos como basados ​​en el rigor. En 1925, este trabajo culminó en la publicación de su primer libro, Métodos estadísticos para investigadores . [53] Este tuvo muchas ediciones y traducciones en años posteriores, y se convirtió en una obra de referencia estándar para científicos en muchas disciplinas. [54]

Ronald A. Fisher propuso una metodología para diseñar experimentos en su innovador libro The Design of Experiments (1935), que también se convirtió en un estándar. [55] [56] [57] [58] Como ejemplo, describió cómo probar la hipótesis de que cierta dama podía distinguir solo por el sabor si la leche o el té se colocaba primero en la taza. Si bien esto parece una aplicación frívola, le permitió ilustrar las ideas más importantes del diseño experimental: consulte Dama probando té .

Los avances en la ciencia agrícola sirvieron para hacer frente a la combinación de poblaciones urbanas más grandes y menos granjas. Pero para que los científicos de cultivos tuvieran debidamente en cuenta los climas y necesidades geográficas de crecimiento muy diferentes, era importante diferenciar las condiciones de cultivo locales. Para extrapolar los experimentos en cultivos locales a escala nacional, tuvieron que extender económicamente las pruebas de muestras de cultivos a las poblaciones generales. A medida que los métodos estadísticos avanzaron (principalmente la eficacia de los experimentos diseñados en lugar de la experimentación de un factor a la vez), el diseño factorial representativo de los experimentos comenzó a permitir la extensión significativa, por inferencia, de los resultados del muestreo experimental a la población en su conjunto. [ cita requerida ] Pero era difícil decidir cuán representativa era la muestra de cultivo elegida. [ cita requerida ] La metodología de diseño factorial mostró cómo estimar y corregir cualquier variación aleatoria dentro de la muestra y también en los procedimientos de recolección de datos.

Estadísticas bayesianas

Pierre-Simon, marqués de Laplace, el principal desarrollador temprano de la estadística bayesiana

El término bayesiano se refiere a Thomas Bayes (1702-1761), quien demostró que se podían poner límites probabilísticos a un evento desconocido. Sin embargo, fue Pierre-Simon Laplace (1749-1827) quien introdujo (como principio VI) lo que ahora se llama teorema de Bayes y lo aplicó a la mecánica celeste , la estadística médica, la confiabilidad y la jurisprudencia . [59] Cuando no se disponía de suficiente conocimiento para especificar un prior informado, Laplace utilizó priores uniformes , de acuerdo con su " principio de razón insuficiente ". [59] [60] Laplace asumió priores uniformes por simplicidad matemática en lugar de por razones filosóficas. [59] Laplace también introdujo [ cita requerida ] versiones primitivas de priores conjugados y el teorema de von Mises y Bernstein , según el cual los posteriores correspondientes a priores inicialmente diferentes finalmente coinciden, a medida que aumenta el número de observaciones. [61] Esta inferencia bayesiana temprana, que utilizaba valores previos uniformes siguiendo el principio de razón insuficiente de Laplace , se denominó " probabilidad inversa " (porque infiere hacia atrás desde las observaciones a los parámetros, o desde los efectos a las causas [62] ).

Después de la década de 1920, la probabilidad inversa fue suplantada en gran medida [ cita requerida ] por una colección de métodos desarrollados por Ronald A. Fisher , Jerzy Neyman y Egon Pearson . Sus métodos llegaron a llamarse estadísticas frecuentistas . [62] Fisher rechazó la visión bayesiana, escribiendo que "la teoría de la probabilidad inversa se basa en un error y debe ser rechazada por completo". [63] Sin embargo, al final de su vida, Fisher expresó un mayor respeto por el ensayo de Bayes, que Fisher creía que había anticipado su propio enfoque fiducial de la probabilidad; Fisher todavía sostenía que las opiniones de Laplace sobre la probabilidad eran "basura falaz". [63] Neyman comenzó como un "cuasi-bayesiano", pero posteriormente desarrolló intervalos de confianza (un método clave en las estadísticas frecuentistas) porque "toda la teoría se vería mejor si se construyera desde el principio sin referencia al bayesianismo y a los valores anteriores". [64] La palabra bayesiano apareció alrededor de 1950, y en la década de 1960 se convirtió en el término preferido por aquellos insatisfechos con las limitaciones de las estadísticas frecuentistas. [62] [65]

En el siglo XX, las ideas de Laplace se desarrollaron en dos direcciones diferentes, dando lugar a corrientes objetivas y subjetivas en la práctica bayesiana. En la corriente objetivista, el análisis estadístico depende únicamente del modelo asumido y de los datos analizados. [66] No es necesario tomar decisiones subjetivas. Por el contrario, los estadísticos "subjetivistas" niegan la posibilidad de un análisis totalmente objetivo para el caso general.

En el desarrollo posterior de las ideas de Laplace, las ideas subjetivas son anteriores a las posiciones objetivistas. La idea de que la "probabilidad" debe interpretarse como "grado subjetivo de creencia en una proposición" fue propuesta, por ejemplo, por John Maynard Keynes a principios de la década de 1920. [ cita requerida ] Esta idea fue llevada más allá por Bruno de Finetti en Italia ( Fondamenti Logici del Ragionamento Probabilistico , 1930) y Frank Ramsey en Cambridge ( The Foundations of Mathematics , 1931). [67] El enfoque fue ideado para resolver problemas con la definición frecuentista de probabilidad pero también con el enfoque objetivista anterior de Laplace. [66] Los métodos bayesianos subjetivos fueron desarrollados y popularizados en la década de 1950 por LJ Savage . [ cita requerida ]

La inferencia bayesiana objetiva fue desarrollada por Harold Jeffreys en la Universidad de Cambridge . Su libro Theory of Probability apareció por primera vez en 1939 y jugó un papel importante en el resurgimiento de la visión bayesiana de la probabilidad . [68] [69] En 1957, Edwin Jaynes promovió el concepto de máxima entropía para construir valores a priori, que es un principio importante en la formulación de métodos objetivos, principalmente para problemas discretos. En 1965, la obra de dos volúmenes de Dennis Lindley "Introducción a la probabilidad y la estadística desde un punto de vista bayesiano" llevó los métodos bayesianos a una amplia audiencia. En 1979, José-Miguel Bernardo introdujo el análisis de referencia , [66] que ofrece un marco general aplicable para el análisis objetivo. [70] Otros defensores conocidos de la teoría de la probabilidad bayesiana incluyen a IJ Good , BO Koopman , Howard Raiffa , Robert Schlaifer y Alan Turing .

En la década de 1980, hubo un crecimiento espectacular en la investigación y las aplicaciones de los métodos bayesianos, principalmente atribuido al descubrimiento de los métodos de Monte Carlo de cadenas de Markov , que eliminaron muchos de los problemas computacionales , y un creciente interés en aplicaciones complejas no estándar. [71] A pesar del crecimiento de la investigación bayesiana, la mayoría de la enseñanza de pregrado todavía se basa en estadísticas frecuentistas. [72] No obstante, los métodos bayesianos son ampliamente aceptados y utilizados, como por ejemplo en el campo del aprendizaje automático . [73]

Contribuyentes importantes a las estadísticas

Referencias

  1. ^ Ball, Philip (2004). Masa crítica . Farrar, Straus y Giroux. pág. 53. ISBN 978-0-374-53041-9.
  2. ^ Tucídides (1985). Historia de la Guerra del Peloponeso . Nueva York: Penguin Books, Ltd., pág. 204.
  3. ^ Villani, Giovanni. Encyclopædia Britannica. Encyclopædia Britannica 2006 Ultimate Reference Suite DVD . Recuperado el 4 de marzo de 2008.
  4. ^ Bakker, Arthur; Gravemeijer, Koeno PE (1 de junio de 2006). "Una fenomenología histórica de la media y la mediana". Educational Studies in Mathematics . 62 (2): 149–168. doi :10.1007/s10649-006-7099-8. ISSN  1573-0816.
  5. ^ Ostasiewicz, Walenty (2014). "El surgimiento de la ciencia estadística". Śląski Przegląd Statystyczny . 12 (18): 76–77. doi : 10.15611/sps.2014.12.04 .
  6. ^ Bruneau, Quentin (2022). Los Estados y los amos del capital: préstamos soberanos, antiguos y nuevos. Columbia University Press . ISBN 978-0231555647.
  7. ^ Brian, Éric; Jaisson, Marie (2007). "Fisicoteología y matemáticas (1710-1794)". El origen de la proporción de sexos humanos al nacer . Springer Science & Business Media. págs. 1–25. ISBN 978-1-4020-6036-6.
  8. ^ John Arbuthnot (1710). "Un argumento a favor de la Divina Providencia, tomado de la regularidad constante observada en los nacimientos de ambos sexos" (PDF) . Philosophical Transactions of the Royal Society of London . 27 (325–336): 186–190. doi : 10.1098/rstl.1710.0011 . S2CID  186209819.
  9. ^ ab Conover, WJ (1999), "Capítulo 3.4: La prueba de signos", Practical Nonparametric Statistics (tercera edición), Wiley, págs. 157-176, ISBN 978-0-471-16068-7
  10. ^ Sprent, P. (1989), Métodos estadísticos no paramétricos aplicados (segunda edición), Chapman & Hall, ISBN 978-0-412-44980-2
  11. ^ Stigler, Stephen M. (1986). Historia de la estadística: la medición de la incertidumbre antes de 1900. Harvard University Press. pp. 225–226. ISBN 978-0-67440341-3.
  12. ^ Bellhouse, P. (2001), "John Arbuthnot", en CC Heyde ; E. Seneta (eds.), en Estadísticos de los siglos , Springer, págs. 39-42, ISBN 978-0-387-95329-8
  13. ^ Hald, Anders (1998), "Capítulo 4. Azar o diseño: Pruebas de significancia", Una historia de las estadísticas matemáticas de 1750 a 1930 , Wiley, pág. 65
  14. ^ de Moivre, A. (1738) La doctrina de las probabilidades. Woodfall
  15. ^ Laplace, PS (1774). "Mémoire sur la probabilité des cause par les évènements". Mémoires de l'Académie Royale des Sciences Présentés par Divers Savants . 6 : 621–656.
  16. ^ Wilson, Edwin Bidwell (1923) "Primera y segunda ley del error", Journal of the American Statistical Association , 18 (143), 841-851 JSTOR  2965467
  17. ^ Havil J (2003) Gamma: exploración de la constante de Euler . Princeton, Nueva Jersey: Princeton University Press, pág. 157
  18. ^ CS Peirce (1873) Teoría de los errores de observación. Informe del Superintendente de la Inspección Costera de los Estados Unidos, Washington, Oficina de Imprenta del Gobierno. Apéndice n.º 21: 200-224
  19. ^ Cochran WG (1978) "Estimadores de la razón de Laplace". pp 3-10. En David HA, (ed). Contribuciones al muestreo de encuestas y estadísticas aplicadas: artículos en honor a HO Hartley . Academic Press, Nueva York ISBN 978-1483237930 
  20. ^ Keynes, JM (1921) Un tratado sobre probabilidad. Parte II Cap. XVII §5 (p. 201)
  21. ^ Galton F (1881) Informe del Comité Antropométrico, págs. 245-260. Informe de la 51.ª reunión de la Asociación Británica para el Avance de la Ciencia
  22. ^ Stigler (1986, Capítulo 5: Los dos intentos de Quetelet)
  23. ^ Helen Mary Walker (1975). Estudios sobre la historia del método estadístico. Arno Press. ISBN 9780405066283.
  24. ^ (Stigler 1986, Capítulo 9: La próxima generación: Edgeworth)
  25. ^ Bellhouse DR (1988) Una breve historia de los métodos de muestreo aleatorio. Manual de estadística. Vol 6, págs. 1-14 Elsevier
  26. ^ Bowley, AL (1906). "Discurso ante la Sección de Ciencias Económicas y Estadísticas de la Asociación Británica para el Avance de la Ciencia". JR Stat Soc . 69 : 548–557. doi :10.2307/2339344. JSTOR  2339344.
  27. ^ Galton, F (1877). "Leyes típicas de la herencia". Nature . 15 (388): 492–553. Bibcode :1877Natur..15..492.. doi : 10.1038/015492a0 .
  28. ^ Galton, F (1907). "Un voto, un valor". Nature . 75 (1948): 414. Bibcode :1907Natur..75Q.414G. doi : 10.1038/075414a0 . S2CID  4053860.
  29. ^ Stigler (1986, Capítulo 10: Pearson y Yule)
  30. ^ Varberg, Dale E. (1963). "El desarrollo de la estadística moderna". The Mathematics Teacher . 56 (4): 252–257. doi :10.5951/MT.56.4.0252. JSTOR  27956805.
  31. ^ Stigler, SM (1989). "Relato de Francis Galton sobre la invención de la correlación". Ciencia estadística . 4 (2): 73–79. doi : 10.1214/ss/1177012580 .
  32. ^ abc Pearson, K. (1900). "Sobre el criterio de que un sistema dado de desviaciones de lo probable en el caso de un sistema correlacionado de variables es tal que puede suponerse razonablemente que ha surgido de un muestreo aleatorio". Philosophical Magazine . Serie 5. 50 (302): 157–175. doi :10.1080/14786440009463897.
  33. ^ Pearson, K. (1901). "Sobre las líneas y los planos de ajuste más cercano a los sistemas de puntos está el espacio". Revista filosófica . Serie 6. 2 (11): 559–572. doi :10.1080/14786440109462720.
  34. ^ Jolliffe, IT (2002). Análisis de componentes principales, 2.ª ed . Nueva York: Springer-Verlag.
  35. ^ Caja, RA Fisher , págs. 93-166
  36. ^ Agresti, Alan; David B. Hichcock (2005). "Inferencia bayesiana para análisis de datos categóricos" (PDF) . Métodos estadísticos y aplicaciones . 14 (3): 298. doi :10.1007/s10260-005-0121-y. S2CID  18896230.
  37. ^ Fisher RA (1925) Métodos estadísticos para investigadores, Edimburgo: Oliver & Boyd
  38. ^ Neyman, J (1934) Sobre los dos aspectos diferentes del método representativo: el método de muestreo estratificado y el método de selección intencional. Journal of the Royal Statistical Society 97 (4) 557-625 JSTOR  2342192
  39. ^ Dunn, Peter (enero de 1997). "James Lind (1716-94) de Edimburgo y el tratamiento del escorbuto". Archivos de enfermedades de la infancia: Edición fetal y neonatal . 76 (1): 64–65. doi :10.1136/fn.76.1.F64. PMC 1720613 . PMID  9059193. 
  40. ^ por Klaus Hinkelmann (2012). Diseño y análisis de experimentos, diseños especiales y aplicaciones. John Wiley & Sons. pág. xvii. ISBN 9780470530689.
  41. ^ ab Charles Sanders Peirce y Joseph Jastrow (1885). "Sobre pequeñas diferencias en la sensación". Memorias de la Academia Nacional de Ciencias . 3 : 73–83.
  42. ^ ab Hacking, Ian (septiembre de 1988). "Telepatía: orígenes de la aleatorización en el diseño experimental". Isis . 79 (Número especial sobre artefactos y experimentos, número 3): 427–451. doi :10.1086/354775. JSTOR  234674. MR  1013489. S2CID  52201011.
  43. ^ por Stephen M. Stigler (noviembre de 1992). "Una visión histórica de los conceptos estadísticos en psicología e investigación educativa". Revista estadounidense de educación . 101 (1): 60–70. doi :10.1086/444032. S2CID  143685203.
  44. ^ ab Trudy Dehue (diciembre de 1997). "Decepción, eficiencia y grupos aleatorios: psicología y el origen gradual del diseño de grupos aleatorios" (PDF) . Isis . 88 (4): 653–673. doi :10.1086/383850. PMID  9519574. S2CID  23526321.
  45. ^ Peirce, CS (1876). "Nota sobre la teoría de la economía de la investigación". Coast Survey Report : 197–201., publicado en 1879, NOAA PDF Eprint.
    Reimpreso en Collected Papers 7 , párrafos 139–157, también en Writings 4 , pp. 72–78, y en Peirce, CS (julio–agosto de 1967). "Nota sobre la teoría de la economía de la investigación". Investigación de operaciones . 15 (4): 643–648. doi :10.1287/opre.15.4.643. JSTOR  168276. Archivado desde el original el 26 de julio de 2011 . Consultado el 18 de noviembre de 2010 .
  46. ^ Smith, Kirstine (1918). "Sobre las desviaciones estándar de los valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que proporcionan hacia una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR  2331929.
  47. ^ Johnson, NL (1961). "Análisis secuencial: una encuesta". Journal of the Royal Statistical Society , Serie A. Vol. 124 (3), 372–411. (páginas 375–376)
  48. ^ Wald, A. (1945) "Pruebas secuenciales de hipótesis estadísticas", Anales de estadística matemática , 16 (2), 117–186.
  49. ^ Chernoff, H. (1972) Análisis secuencial y diseño óptimo , monografía SIAM . ISBN 978-0898710069 
  50. ^ Zacks, S. (1996) "Diseños adaptativos para modelos paramétricos". En: Ghosh, S. y Rao, CR, (Eds) (1996). "Diseño y análisis de experimentos", Handbook of Statistics , volumen 13. North-Holland. ISBN 0-444-82061-2 . (páginas 151–180) 
  51. ^ Robbins, H. (1952). "Algunos aspectos del diseño secuencial de experimentos". Boletín de la Sociedad Americana de Matemáticas . 58 (5): 527–535. CiteSeerX 10.1.1.335.3232 . doi :10.1090/S0002-9904-1952-09620-8. 
  52. ^ Hald, Anders (1998) Una historia de la estadística matemática . Nueva York: Wiley. [ página necesaria ]
  53. ^ Box, Joan Fisher (1978) RA Fisher: La vida de un científico , Wiley. ISBN 0-471-09300-9 (págs. 93-166) 
  54. ^ Edwards, AWF (2005). "RA Fisher, Métodos estadísticos para investigadores, 1925". En Grattan-Guinness, Ivor (ed.). Escritos fundamentales en matemáticas occidentales 1640-1940 . Ámsterdam, Boston: Elsevier. ISBN 9780444508713.
  55. ^ Stanley, JC (1966). "La influencia de "El diseño de experimentos" de Fisher en la investigación educativa treinta años después". Revista de investigación educativa estadounidense . 3 (3): 223–229. doi :10.3102/00028312003003223. S2CID  145725524.
  56. ^ Box, JF (febrero de 1980). "RA Fisher y el diseño de experimentos, 1922-1926". The American Statistician . 34 (1): 1–7. doi :10.2307/2682986. JSTOR  2682986.
  57. ^ Yates, Frank (junio de 1964). "Sir Ronald Fisher y el diseño de experimentos". Biometrics . 20 (2): 307–321. doi :10.2307/2528399. JSTOR  2528399.
  58. ^ Stanley, Julian C. (1966). "La influencia de "El diseño de experimentos" de Fisher en la investigación educativa treinta años después". Revista de investigación educativa estadounidense . 3 (3): 223–229. doi :10.3102/00028312003003223. JSTOR  1161806. S2CID  145725524.
  59. ^ abc Stigler (1986, Capítulo 3: Probabilidad inversa)
  60. ^ Hald (1998) [ página necesaria ]
  61. ^ Lucien Le Cam (1986) Métodos asintóticos en la teoría de decisiones estadísticas : páginas 336 y 618–621 (von Mises y Bernstein).
  62. ^ abc Stephen. E. Fienberg, (2006) ¿Cuándo se convirtió la inferencia bayesiana en "bayesiana"? Archivado el 10 de septiembre de 2014 en Wayback Machine Bayesian Analysis , 1 (1), 1–40. Véase la página 5.
  63. ^ ab Aldrich, A (2008). "RA Fisher sobre Bayes y el teorema de Bayes". Análisis bayesiano . 3 (1): 161–170. doi : 10.1214/08-ba306 .
  64. ^ Neyman, J. (1977). "Probabilidad frecuentista y estadística frecuentista". Síntesis . 36 (1): 97–131. doi :10.1007/BF00485695. S2CID  46968744.
  65. ^ Jeff Miller, "Usos más antiguos conocidos de algunas de las palabras de las matemáticas (B)" "El término bayesiano entró en circulación alrededor de 1950. RA Fisher lo utilizó en las notas que escribió para acompañar los artículos de su obra Contributions to Mathematical Statistics (1950). Fisher pensó que el argumento de Bayes estaba prácticamente extinto, ya que el único trabajo reciente que lo tomó en serio fue Theory of Probability (1939) de Harold Jeffreys . En 1951, LJ Savage, al revisar Statistical Decisions Functions (Funciones de decisión estadística) de Wald, se refirió a la "teoría estadística moderna o no bayesiana" ("The Theory of Statistical Decision", Journal of the American Statistical Association , 46, p. 58). Poco después, sin embargo, Savage pasó de ser un no bayesiano a ser un bayesiano".
  66. ^ abc Bernardo J (2005). "Análisis de referencia". Pensamiento bayesiano: modelado y computación . Manual de estadística. Vol. 25. págs. 17–90. doi :10.1016/S0169-7161(05)25002-2. ISBN 9780444515391.
  67. ^ Gillies, D. (2000), Teorías filosóficas de la probabilidad . Routledge. ISBN 0-415-18276-X pp 50-1 
  68. ^ ET Jaynes. Teoría de la probabilidad: la lógica de la ciencia, Cambridge University Press, (2003). ISBN 0-521-59271-2 
  69. ^ O'Connor, John J.; Robertson, Edmund F. , "Historia de la estadística", Archivo de Historia de las Matemáticas de MacTutor , Universidad de St Andrews
  70. ^ Bernardo, JM y Smith, AFM (1994). "Teoría bayesiana". Chichester: Wiley.
  71. ^ Wolpert, RL (2004). "Una conversación con James O. Berger". Ciencia estadística . 9 : 205–218. doi : 10.1214/088342304000000053 . MR  2082155.
  72. ^ Bernardo, JM (2006). "A Bayesian Mathematical Statistics Primer" (PDF) . Actas de la Séptima Conferencia Internacional sobre Enseñanza de la Estadística [CDROM] . Salvador (Bahía), Brasil: Asociación Internacional para la Educación Estadística.
  73. ^ Bishop, CM (2007) Reconocimiento de patrones y aprendizaje automático . Springer ISBN 978-0387310732 

Bibliografía

Enlaces externos