stringtranslate.com

ley de los grandes números

Una ilustración de la ley de los grandes números utilizando una serie particular de tiradas de un solo dado . A medida que aumenta el número de tiradas en esta ejecución, el promedio de los valores de todos los resultados se acerca a 3,5. Aunque cada recorrido mostraría una forma distintiva en un pequeño número de lanzamientos (a la izquierda), en un gran número de lanzamientos (a la derecha) las formas serían extremadamente similares.

En teoría de la probabilidad , la ley de los grandes números ( LLN ) es un teorema matemático que establece que el promedio de los resultados obtenidos de un gran número de muestras aleatorias independientes e idénticas converge al valor verdadero, si existe. [1] Más formalmente, el LIN establece que dada una muestra de valores independientes e idénticamente distribuidos, la media muestral converge a la media verdadera .

El LIN es importante porque garantiza resultados estables a largo plazo para los promedios de algunos eventos aleatorios . [1] [2] Por ejemplo, aunque un casino puede perder dinero en un solo giro de la ruleta , sus ganancias tenderán a ser un porcentaje predecible a lo largo de un gran número de giros. Cualquier racha ganadora de un jugador eventualmente será superada por los parámetros del juego. Es importante destacar que la ley se aplica (como su nombre indica) sólo cuando se considera un gran número de observaciones. No existe ningún principio de que un pequeño número de observaciones coincida con el valor esperado o de que una racha de un valor sea inmediatamente "equilibrada" por los demás (ver la falacia del jugador ).

El LLN sólo se aplica al promedio de los resultados obtenidos de ensayos repetidos y afirma que este promedio converge al valor esperado; no afirma que la suma de n resultados se acerque al valor esperado multiplicado por n a medida que n aumenta.

A lo largo de su historia, muchos matemáticos han perfeccionado esta ley. Hoy en día, el LLN se utiliza en muchos campos, incluidos la estadística, la teoría de la probabilidad, la economía y los seguros. [3]

Ejemplos

Por ejemplo, una sola tirada de un dado de seis caras produce uno de los números 1, 2, 3, 4, 5 o 6, cada uno con la misma probabilidad . Por tanto, el valor esperado del promedio de los rollos es:

Según la ley de los grandes números, si se lanza una gran cantidad de dados de seis caras, el promedio de sus valores (a veces llamado media muestral ) se aproximará a 3,5, y la precisión aumentará a medida que se lancen más dados.

De la ley de los grandes números se deduce que la probabilidad empírica de éxito en una serie de ensayos de Bernoulli convergerá con la probabilidad teórica. Para una variable aleatoria de Bernoulli , el valor esperado es la probabilidad teórica de éxito, y el promedio de n tales variables (suponiendo que sean independientes e idénticamente distribuidas (iid) ) es precisamente la frecuencia relativa.

Un ejemplo gráfico de la ley de los grandes números utilizada para dos tiradas de dados. La suma de los dos dados fluctúa en las primeras tiradas, pero a medida que aumenta el número de tiradas, el valor esperado de la suma de los dos dados se acerca a 7.

Por ejemplo, un lanzamiento justo de moneda es una prueba de Bernoulli. Cuando se lanza una moneda justa una vez, la probabilidad teórica de que el resultado sea cara es igual a 12 . Por lo tanto, según la ley de los grandes números, la proporción de caras en un "gran" número de lanzamientos de moneda "debería ser" aproximadamente 12 . En particular, la proporción de caras después de n lanzamientos casi seguramente convergerá a 12 cuando n se acerque al infinito.

Aunque la proporción de caras (y cruces) se acerca a 12 , es casi seguro que la diferencia absoluta en el número de caras y cruces aumentará a medida que aumente el número de lanzamientos. Es decir, la probabilidad de que la diferencia absoluta sea un número pequeño se acerca a cero a medida que el número de lanzamientos aumenta. Además, es casi seguro que la relación entre la diferencia absoluta y el número de lanzamientos se aproximará a cero. Intuitivamente, la diferencia esperada crece, pero a un ritmo más lento que el número de lanzamientos.

Otro buen ejemplo del LIN es el método Monte Carlo . Estos métodos son una clase amplia de algoritmos computacionales que se basan en muestreos aleatorios repetidos para obtener resultados numéricos. Cuanto mayor sea el número de repeticiones, mejor tiende a ser la aproximación. La razón por la que este método es importante es principalmente que, a veces, resulta difícil o imposible utilizar otros enfoques. [4]

Limitación

El promedio de los resultados obtenidos de un gran número de ensayos puede no converger en algunos casos. Por ejemplo, el promedio de n resultados tomados de la distribución de Cauchy o de algunas distribuciones de Pareto (α<1) no convergerá a medida que n crezca; la razón son las colas pesadas . [5] La distribución de Cauchy y la distribución de Pareto representan dos casos: la distribución de Cauchy no tiene una expectativa, [6] mientras que la expectativa de la distribución de Pareto ( α <1) es infinita. [7] Una forma de generar el ejemplo distribuido de Cauchy es donde los números aleatorios son iguales a la tangente de un ángulo distribuido uniformemente entre −90° y +90°. [8] La mediana es cero, pero el valor esperado no existe y, de hecho, el promedio de n tales variables tiene la misma distribución que una de esas variables. No converge en probabilidad hacia cero (o cualquier otro valor) cuando n tiende al infinito.

Y si los ensayos incorporan un sesgo de selección , típico del comportamiento económico/racional humano, la ley de los grandes números no ayuda a resolver el sesgo. Incluso si aumenta el número de ensayos, el sesgo de selección persiste.

Historia

La difusión es un ejemplo de la ley de los grandes números. Inicialmente, hay moléculas de soluto en el lado izquierdo de una barrera (línea magenta) y ninguna en el derecho. Se elimina la barrera y el soluto se difunde hasta llenar todo el recipiente.
  • Arriba: Con una sola molécula, el movimiento parece ser bastante aleatorio.
  • Medio: Con más moléculas, hay claramente una tendencia a que el soluto llene el recipiente de manera cada vez más uniforme, pero también hay fluctuaciones aleatorias.
  • Abajo: Con una enorme cantidad de moléculas de soluto (demasiadas para verlas), la aleatoriedad esencialmente ha desaparecido: el soluto parece moverse suave y sistemáticamente desde áreas de alta concentración a áreas de baja concentración. En situaciones realistas, los químicos pueden describir la difusión como un fenómeno macroscópico determinista (véanse las leyes de Fick ), a pesar de su naturaleza aleatoria subyacente.

El matemático italiano Gerolamo Cardano (1501-1576) afirmó sin pruebas que la precisión de las estadísticas empíricas tiende a mejorar con el número de ensayos. [9] [3] Esto luego se formalizó como una ley de grandes números. Jacob Bernoulli demostró por primera vez una forma especial de LIN (para una variable aleatoria binaria) . [10] [3] Le llevó más de 20 años desarrollar una prueba matemática suficientemente rigurosa que se publicó en su Ars Conjectandi ( El arte de conjeturar ) en 1713. Lo llamó su "Teorema de oro", pero se conoció generalmente como " El teorema de Bernoulli ". Esto no debe confundirse con el principio de Bernoulli , llamado así en honor al sobrino de Jacob Bernoulli, Daniel Bernoulli . En 1837, SD Poisson la describió con más detalle bajo el nombre de "la loi des grands nombres" ("la ley de los grandes números"). [11] [12] [3] A partir de entonces, se conoció con ambos nombres, pero la "ley de los grandes números" es la más utilizada.

Después de que Bernoulli y Poisson publicaran sus esfuerzos, otros matemáticos también contribuyeron al refinamiento de la ley, incluidos Chebyshev , [13] Markov , Borel , Cantelli , Kolmogorov y Khinchin . [3] Markov demostró que la ley puede aplicarse a una variable aleatoria que no tiene una varianza finita bajo algún otro supuesto más débil, y Khinchin demostró en 1929 que si la serie consta de variables aleatorias independientes distribuidas idénticamente, basta con que el valor esperado existe para que la ley débil de los grandes números sea cierta. [14] [15] Estos estudios adicionales han dado lugar a dos formas destacadas de LIN. Una se llama ley "débil" y la otra ley "fuerte", en referencia a dos modos diferentes de convergencia de las medias de la muestra acumulativa con el valor esperado; en particular, como se explica más adelante, la forma fuerte implica la débil. [14]

Formularios

Existen dos versiones diferentes de la ley de los grandes números que se describen a continuación. Se les llama ley fuerte de los grandes números y ley débil de los grandes números . [16] [1] Planteado para el caso donde X 1 , X 2 , ... es una secuencia infinita de variables aleatorias integrables de Lebesgue independientes e idénticamente distribuidas (iid) con valor esperado E( X 1 ) = E( X 2 ) = ... = µ , ambas versiones de la ley establecen que el promedio muestral

converge al valor esperado:

(La integrabilidad de Lebesgue de X j significa que el valor esperado E ( X j ) existe según la integración de Lebesgue y es finito. No significa que la medida de probabilidad asociada sea absolutamente continua con respecto a la medida de Lebesgue ).

Los textos introductorios sobre probabilidad a menudo suponen además una varianza finita idéntica (para todos ) y ninguna correlación entre variables aleatorias. En ese caso, la varianza del promedio de n variables aleatorias es

que se puede utilizar para acortar y simplificar las pruebas. Este supuesto de varianza finita no es necesario . Una varianza grande o infinita hará que la convergencia sea más lenta, pero el LIN se mantiene de todos modos. [17]

La independencia mutua de las variables aleatorias puede sustituirse por independencia por pares [18] o intercambiabilidad [19] en ambas versiones de la ley.

La diferencia entre la versión fuerte y la débil tiene que ver con el modo de convergencia que se afirma. Para la interpretación de estos modos, consulte Convergencia de variables aleatorias .

ley débil

Simulación que ilustra la ley de los grandes números. En cada cuadro, se lanza una moneda roja por un lado y azul por el otro y se agrega un punto en la columna correspondiente. Un gráfico circular muestra la proporción de rojo y azul hasta el momento. Observe que si bien la proporción varía significativamente al principio, se acerca al 50% a medida que aumenta el número de ensayos.

La ley débil de los números grandes (también llamada ley de Khinchin ) establece que dada una colección de muestras iid de una variable aleatoria con media finita, la media muestral converge en probabilidad al valor esperado [20]

Es decir, para cualquier número positivo ε ,

Al interpretar este resultado, la ley débil establece que para cualquier margen especificado distinto de cero ( ε ), no importa cuán pequeño sea, con una muestra suficientemente grande habrá una probabilidad muy alta de que el promedio de las observaciones se acerque al valor esperado; es decir, dentro del margen.

Como se mencionó anteriormente, la ley débil se aplica en el caso de variables aleatorias iid, pero también se aplica en algunos otros casos. Por ejemplo, la varianza puede ser diferente para cada variable aleatoria de la serie, manteniendo constante el valor esperado. Si las varianzas están acotadas, entonces se aplica la ley, como lo demostró Chebyshev ya en 1867. (Si los valores esperados cambian durante la serie, entonces podemos simplemente aplicar la ley a la desviación promedio de los respectivos valores esperados. La ley entonces afirma que esto converge en probabilidad a cero.) De hecho, la prueba de Chebyshev funciona siempre que la varianza del promedio de los primeros n valores llegue a cero cuando n llegue al infinito. [15] Como ejemplo, supongamos que cada variable aleatoria de la serie sigue una distribución gaussiana (distribución normal) con media cero, pero con varianza igual a , que no está acotada. En cada etapa, el promedio se distribuirá normalmente (como el promedio de un conjunto de variables distribuidas normalmente). La varianza de la suma es igual a la suma de las varianzas, que es asintótica para . Por tanto, la varianza del promedio es asintótica y tiende a cero.

También hay ejemplos de aplicación de la ley débil aunque el valor esperado no exista.

Ley fuerte

La ley fuerte de los grandes números (también llamada ley de Kolmogorov ) establece que el promedio muestral converge casi con seguridad al valor esperado [21]

Eso es,

Lo que esto significa es que la probabilidad de que, a medida que el número de ensayos n llega al infinito, el promedio de las observaciones converja al valor esperado, es igual a uno. La prueba moderna de la ley fuerte es más compleja que la de la ley débil y se basa en pasar a una subsecuencia apropiada. [17]

La ley fuerte de los grandes números puede verse en sí misma como un caso especial del teorema ergódico puntual . Este punto de vista justifica la interpretación intuitiva del valor esperado (sólo para la integración de Lebesgue) de una variable aleatoria cuando se muestrea repetidamente como el "promedio a largo plazo".

La ley 3 se llama ley fuerte porque se garantiza que las variables aleatorias que convergen fuertemente (casi con seguridad) convergerán débilmente (en probabilidad). Sin embargo, se sabe que la ley débil se cumple en ciertas condiciones en las que la ley fuerte no se cumple y entonces la convergencia es solo débil (en probabilidad). Vea las diferencias entre la ley débil y la ley fuerte.

La ley fuerte se aplica a variables aleatorias independientes distribuidas idénticamente que tienen un valor esperado (como la ley débil). Esto lo demostró Kolmogorov en 1930. También puede aplicarse en otros casos. Kolmogorov también demostró, en 1933, que si las variables son independientes y están distribuidas idénticamente, entonces para que el promedio converja casi con seguridad en algo (esto puede considerarse otra afirmación de la ley fuerte), es necesario que tengan un valor esperado ( y luego, por supuesto, el promedio convergerá casi con seguridad en eso). [22]

Si los sumandos son independientes pero no están distribuidos idénticamente, entonces

siempre que cada X k tenga un segundo momento finito y

Esta afirmación se conoce como ley fuerte de Kolmogorov ; véase, por ejemplo, Sen y Singer (1993, Teorema 2.3.10).

Diferencias entre la ley débil y la ley fuerte

La ley débil establece que para un n grande especificado , es probable que el promedio esté cerca de μ . [23] Por lo tanto, deja abierta la posibilidad de que suceda un número infinito de veces, aunque a intervalos poco frecuentes. (No necesariamente para todos los n ).

La ley fuerte muestra que esto casi seguramente no ocurrirá. No implica que con probabilidad 1, tengamos que para cualquier ε > 0 la desigualdad sea válida para todo n suficientemente grande , ya que la convergencia no es necesariamente uniforme en el conjunto donde se cumple. [24]

La ley fuerte no se cumple en los siguientes casos, pero la ley débil sí. [25] [26]

  1. Sea X una variable aleatoria distribuida exponencialmente con parámetro 1. La variable aleatoria no tiene valor esperado según la integración de Lebesgue, pero usando convergencia condicional e interpretando la integral como una integral de Dirichlet , que es una integral de Riemann impropia , podemos decir:
  2. Sea X una variable aleatoria distribuida geométricamente con probabilidad 0,5. La variable aleatoria no tiene un valor esperado en el sentido convencional porque la serie infinita no es absolutamente convergente, pero usando la convergencia condicional podemos decir:
  3. Si la función de distribución acumulativa de una variable aleatoria es
    entonces no tiene valor esperado, pero la ley débil es verdadera. [27] [28]
  4. Sea X k más o menos (comenzando en k lo suficientemente grande como para que el denominador sea positivo) con probabilidad 12 para cada uno. [22] La varianza de X k es entonces la ley fuerte de Kolmogorov no se aplica porque la suma parcial en su criterio hasta k  =  n es asintótica y ésta no está acotada. Si reemplazamos las variables aleatorias con variables gaussianas que tienen las mismas varianzas, es decir , entonces el promedio en cualquier punto también tendrá una distribución normal. El ancho de la distribución del promedio tenderá a cero (desviación estándar asintótica a ), pero para un ε dado , existe una probabilidad que no llega a cero con n , mientras que el promedio en algún momento después del enésimo ensayo volverá a subir. a ε . Dado que el ancho de la distribución del promedio no es cero, debe tener un límite inferior positivo p ( ε ), lo que significa que existe una probabilidad de al menos p ( ε ) de que el promedio alcance ε después de n ensayos. Sucederá con probabilidad p ( ε )/2 antes de alguna m que depende de n . Pero incluso después de m , todavía existe una probabilidad de al menos p ( ε ) de que esto suceda. (Esto parece indicar que p ( ε ) = 1 y el promedio alcanzará ε un número infinito de veces).

Leyes uniformes de grandes números.

Hay extensiones de la ley de grandes números a conjuntos de estimadores, donde la convergencia es uniforme en todo el conjunto; de ahí el nombre ley uniforme de grandes números .

Supongamos que f ( x , θ ) es alguna función definida para θ ∈ Θ y continua en θ . Entonces, para cualquier θ fijo , la secuencia { f ( X 1 , θ ), f ( X 2 , θ ), ...} será una secuencia de variables aleatorias independientes e idénticamente distribuidas, de modo que la media muestral de esta secuencia converge en probabilidad a E[ f ( X , θ )]. Esta es la convergencia puntual (en θ ).

Un ejemplo particular de ley uniforme de grandes números establece las condiciones bajo las cuales la convergencia ocurre uniformemente en θ . Si [29] [30]

  1. Θ es compacto,
  2. f ( x , θ ) es continua en cada θ ∈ Θ para casi todos los x s, y es una función mensurable de x en cada θ .
  3. existe una función dominante d ( x ) tal que E[ d ( X )] < ∞, y

Entonces E[ f ( X , θ )] es continua en θ , y

Este resultado es útil para derivar la coherencia de una gran clase de estimadores (ver Estimador extremo ).

Ley de Borel de grandes números.

La ley de los grandes números de Borel , que lleva el nombre de Émile Borel , establece que si un experimento se repite un gran número de veces, de forma independiente y en condiciones idénticas, entonces la proporción de veces que se espera que ocurra cualquier evento específico es aproximadamente igual a la probabilidad de que ocurra el evento. en cualquier juicio en particular; cuanto mayor es el número de repeticiones, mejor tiende a ser la aproximación. Más precisamente, si E denota el evento en cuestión, p su probabilidad de ocurrencia, y N n ( E ) el número de veces que E ocurre en los primeros n ensayos, entonces con probabilidad uno, [31]

Este teorema hace rigurosa la noción intuitiva de probabilidad como la frecuencia relativa esperada a largo plazo de que ocurra un evento. Es un caso especial de cualquiera de varias leyes más generales de números grandes en la teoría de la probabilidad.

La desigualdad de Chebyshev . Sea X una variable aleatoria con valor esperado finito μ y varianza finita distinta de cero σ 2 . Entonces, para cualquier número real k > 0 ,

Prueba de la ley débil

Dada X 1 , X 2 , ... una secuencia infinita de variables aleatorias iid con valor esperado finito , estamos interesados ​​en la convergencia del promedio muestral

La ley débil de los grandes números establece:

Prueba utilizando la desigualdad de Chebyshev suponiendo una varianza finita

Esta prueba utiliza el supuesto de varianza finita (para todos ). La independencia de las variables aleatorias implica que no hay correlación entre ellas, y tenemos que

La media común μ de la secuencia es la media del promedio muestral:

Usando la desigualdad de Chebyshev en resultados en

Esto se puede utilizar para obtener lo siguiente:

Cuando n tiende a infinito, la expresión tiende a 1. Y por definición de convergencia en probabilidad , hemos obtenido

Prueba mediante convergencia de funciones características.

Según el teorema de Taylor para funciones complejas , la función característica de cualquier variable aleatoria, X , con media finita μ, se puede escribir como

Todos X 1 , X 2 , ... tienen la misma función característica, por lo que simplemente denotaremos este φ X .

Entre las propiedades básicas de las funciones características se encuentran

XY

Estas reglas se pueden utilizar para calcular la función característica de en términos de φ X :

El límite e itμ es la función característica de la variable aleatoria constante μ y, por lo tanto, según el teorema de continuidad de Lévy , converge en distribución a μ:

μ es una constante, lo que implica que la convergencia en distribución a μ y la convergencia en probabilidad a μ son equivalentes (consulte Convergencia de variables aleatorias ). Por lo tanto,

Esto muestra que la media muestral converge en probabilidad a la derivada de la función característica en el origen, siempre que esta última exista.

Prueba de la ley fuerte

Damos una prueba relativamente simple de la ley fuerte bajo los supuestos de que son iid, , y .

Primero observemos que sin pérdida de generalidad podemos asumir eso centrándonos. En este caso, la ley fuerte dice que

calculamos

Hay términos de la forma y términos de la forma , y ​​así


Otra prueba se puede encontrar en [32]

Para una prueba sin el supuesto adicional de un cuarto momento finito, consulte la Sección 22 de. [33]

Consecuencias

La ley de los grandes números proporciona una expectativa de una distribución desconocida a partir de la realización de la secuencia, pero también cualquier característica de la distribución de probabilidad . [1] Al aplicar la ley de números grandes de Borel , se podría obtener fácilmente la función de masa de probabilidad. Para cada evento en la función de masa de probabilidad objetiva, se podría aproximar la probabilidad de que ocurra el evento con la proporción de veces que ocurre cualquier evento específico. Cuanto mayor sea el número de repeticiones, mejor será la aproximación. En cuanto al caso continuo: , para h positivo pequeño. Así, para n grande:

Con este método, se puede cubrir todo el eje x con una cuadrícula (con un tamaño de cuadrícula de 2h) y obtener un gráfico de barras que se llama histograma .

Aplicaciones

Una aplicación del LIN es el uso de un importante método de aproximación, el Método Monte Carlo . [3] Este método utiliza un muestreo aleatorio de números para aproximar los resultados numéricos. El algoritmo para calcular una integral de f(x) en un intervalo [a,b] es el siguiente: [3]

  1. Simule variables aleatorias uniformes X 1 , X 2 , ..., X n que se pueden hacer usando un software, y use una tabla de números aleatorios que proporcione U 1 , U 2 , ..., U n independiente e idénticamente distribuida (iid ) variables aleatorias en [0,1]. Entonces sea X i = a+(b - a)U i para i= 1, 2, ..., n. Entonces X 1 , X 2 , ..., X n son variables aleatorias uniformes independientes y distribuidas idénticamente en [a, b].
  2. Evaluar f(X 1 ), f(X 2 ), ..., f(X n )
  3. Tome el promedio de f(X 1 ), f(X 2 ), ..., f(X n ) calculando y luego mediante la Ley Fuerte de los Números Grandes, esto converge a = =

Podemos encontrar la integral de en [-1,2]. Usar métodos tradicionales para calcular esta integral es muy difícil, por lo que aquí se puede utilizar el método de Monte Carlo. [3] Usando el algoritmo anterior, obtenemos

= 0,905 cuando n=25

y

= 1,028 cuando n=250

Observamos que a medida que n aumenta, el valor numérico también aumenta. Cuando obtenemos los resultados reales para la integral obtenemos

= 1.000194

Al utilizar el LIN, la aproximación de la integral fue más precisa y más cercana a su valor real. [3]

Otro ejemplo es la integración de f(x) = en [0,1]. [34] Utilizando el método de Monte Carlo y el LIN, podemos ver que a medida que aumenta el número de muestras, el valor numérico se acerca a 0,4180233. [34]

Ver también

Notas

  1. ^ abcd Dekking, Michel (2005). Una introducción moderna a la probabilidad y la estadística . Saltador. págs. 181-190. ISBN 9781852338961.
  2. ^ Yao, Kai; Gao, Jinwu (2016). "Ley de los números grandes para variables aleatorias inciertas". Transacciones IEEE en sistemas difusos . 24 (3): 615–621. doi :10.1109/TFUZZ.2015.2466080. ISSN  1063-6706. S2CID  2238905.
  3. ^ abcdefghi Sedor, Kelly. «La Ley de los Grandes Números y sus Aplicaciones» (PDF) .
  4. ^ Kroese, Dirk P.; Brereton, Tim; Taimré, Thomas; Botev, Zdravko I. (2014). "Por qué el método Montecarlo es tan importante hoy". Revisiones interdisciplinarias de Wiley: estadística computacional . 6 (6): 386–392. doi :10.1002/wics.1314. S2CID  18521840.
  5. ^ Dekking, Michel, ed. (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Textos de Springer en estadística. Londres [Heidelberg]: Springer. pag. 187.ISBN _ 978-1-85233-896-1.
  6. ^ Dekking, Michel (2005). Una introducción moderna a la probabilidad y la estadística . Saltador. págs.92. ISBN 9781852338961.
  7. ^ Dekking, Michel (2005). Una introducción moderna a la probabilidad y la estadística . Saltador. págs.63. ISBN 9781852338961.
  8. ^ Pitman, EJG; Williams, EJ (1967). "Funciones distribuidas por Cauchy de las variantes de Cauchy". Los anales de la estadística matemática . 38 (3): 916–918. ISSN  0003-4851.
  9. ^ Mlodinow, L. (2008). El paseo del borracho . Nueva York: Casa aleatoria. pag. 50.
  10. ^ Bernoulli, Jakob (1713). "4". Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis (en latín). Traducido por Sheynin, Óscar.
  11. ^ Poisson nombra la "ley de los grandes números" ( la loi des grands nombres ) en: Poisson, SD (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (en francés). París, Francia: Bachelier. pag. 7.Intenta una prueba de la ley en dos partes en las páginas 139-143 y 277 y siguientes.
  12. ^ Hackear, Ian (1983). "Grietas en el concepto de determinismo del siglo XIX". Revista de Historia de las Ideas . 44 (3): 455–475. doi :10.2307/2709176. JSTOR  2709176.
  13. ^ Chebichef, P. (1846). "Démonstration élémentaire d'une proposition générale de la théorie des probabilités". Journal für die reine und angewandte Mathematik (en francés). 1846 (33): 259–267. doi :10.1515/crll.1846.33.259. S2CID  120850863.
  14. ^ ab Seneta 2013.
  15. ^ ab Yuri Prohorov . "Ley de los grandes números". Enciclopedia de Matemáticas . Prensa EMS.
  16. ^ Bhattacharya, rabino; Lin, Lizhen; Patrangenaru, Víctor (2016). Un curso de estadística matemática y teoría de muestras grandes . Textos Springer en Estadística. Nueva York, Nueva York: Springer Nueva York. doi :10.1007/978-1-4939-4032-5. ISBN 978-1-4939-4030-1.
  17. ^ ab "La ley fuerte de los grandes números: novedades". Terrytao.wordpress.com. 19 de junio de 2008 . Consultado el 9 de junio de 2012 .
  18. ^ Etemadi, Nueva Zelanda (1981). "Una prueba elemental de la ley fuerte de los grandes números". Wahrscheinlichkeitstheorie Verw Gebiete . 55 (1): 119-122. doi : 10.1007/BF01013465 . S2CID  122166046.
  19. ^ Kingman, JFC (abril de 1978). "Usos de la intercambiabilidad". Los anales de la probabilidad . 6 (2). doi : 10.1214/aop/1176995566 . ISSN  0091-1798.
  20. ^ Loève 1977, Capítulo 1.4, p. 14
  21. ^ Loève 1977, Capítulo 17.3, p. 251
  22. ^ ab Yuri Prokhorov. "Ley fuerte de los grandes números". Enciclopedia de Matemáticas .
  23. ^ "¿Qué es la ley de los números grandes? (Definición) | Incorporada". construidoin.com . Consultado el 20 de octubre de 2023 .
  24. ^ Ross (2009)
  25. ^ Lehmann, Erich L.; Romano, José P. (30 de marzo de 2006). La ley débil converge a constante. Saltador. ISBN 9780387276052.
  26. ^ Dguvl Hun Hong; Sung Ho Lee (1998). "Una nota sobre la ley débil de los números grandes para variables aleatorias intercambiables" (PDF) . Comunicaciones de la Sociedad Matemática de Corea . 13 (2): 385–391. Archivado desde el original (PDF) el 1 de julio de 2016 . Consultado el 28 de junio de 2014 .
  27. ^ Mukherjee, Sayan. «Ley de los grandes números» (PDF) . Archivado desde el original (PDF) el 9 de marzo de 2013 . Consultado el 28 de junio de 2014 .
  28. ^ J. Geyer, Charles. «Ley de los grandes números» (PDF) .
  29. ^ Newey y McFadden 1994, Lema 2.4
  30. ^ Jennrich, Robert I. (1969). "Propiedades asintóticas de estimadores de mínimos cuadrados no lineales". Los anales de la estadística matemática . 40 (2): 633–643. doi : 10.1214/aoms/1177697731 .
  31. ^ Wen, Liu (1991). "Una técnica analítica para demostrar la fuerte ley de los grandes números de Borel". El Mensual Matemático Estadounidense . 98 (2): 146-148. doi :10.2307/2323947. JSTOR  2323947.
  32. ^ Etemadi, Nasrollah (1981). "Una prueba elemental de la ley fuerte de los grandes números". Zeitschrift f{\"u}r Wahrscheinlichkeitstheorie und verwandte Gebiete . Springer. 55 : 119–122. doi : 10.1007/BF01013465 . S2CID  122166046.
  33. ^ Billingsley, Patricio (1979). Probabilidad y Medida .
  34. ^ ab Reiter, Detlev (2008), Fehske, H.; Schneider, R.; Weiße, A. (eds.), "El método Monte Carlo, una introducción", Física computacional de muchas partículas , Berlín, Heidelberg: Springer Berlin Heidelberg, vol. 739, págs. 63–78, doi :10.1007/978-3-540-74686-7_3, ISBN 978-3-540-74685-0, recuperado el 8 de diciembre de 2023

Referencias

enlaces externos