stringtranslate.com

Valor esperado

En teoría de la probabilidad , el valor esperado (también llamado expectativa , expectativa , operador de expectativa , expectativa matemática , media , valor esperado o primer momento ) es una generalización del promedio ponderado . De manera informal, el valor esperado es la media de los posibles valores que puede tomar una variable aleatoria , ponderada por la probabilidad de esos resultados. Dado que se obtiene mediante aritmética, a veces el valor esperado ni siquiera puede estar incluido en el conjunto de datos de muestra; no es el valor que "esperaría" obtener en la realidad.

El valor esperado de una variable aleatoria con un número finito de resultados es un promedio ponderado de todos los resultados posibles. En el caso de un continuo de resultados posibles, la expectativa se define mediante la integración . En la base axiomática de la probabilidad proporcionada por la teoría de la medida , la expectativa se da mediante la integración de Lebesgue .

El valor esperado de una variable aleatoria X se denota a menudo por E( X ) , E[ X ] o E X , donde E también suele estilizarse como o E . [1] [2] [3]

Historia

La idea del valor esperado se originó a mediados del siglo XVII a partir del estudio del llamado problema de los puntos , que busca dividir las apuestas de manera justa entre dos jugadores, que tienen que terminar su juego antes de que este termine adecuadamente. [4] Este problema había sido debatido durante siglos. Muchas propuestas y soluciones conflictivas se habían sugerido a lo largo de los años cuando fue planteado a Blaise Pascal por el escritor francés y matemático aficionado Chevalier de Méré en 1654. Méré afirmó que este problema no podía resolverse y que mostraba cuán defectuosas eran las matemáticas cuando se trataba de su aplicación al mundo real. Pascal, siendo matemático, se sintió provocado y decidido a resolver el problema de una vez por todas.

Comenzó a discutir el problema en la famosa serie de cartas a Pierre de Fermat . Al poco tiempo, ambos encontraron una solución de forma independiente. Resolvieron el problema de diferentes maneras computacionales, pero sus resultados fueron idénticos porque sus cálculos se basaban en el mismo principio fundamental. El principio es que el valor de una ganancia futura debe ser directamente proporcional a la probabilidad de obtenerla. Este principio parecía haber surgido de forma natural para ambos. Estaban muy contentos por el hecho de que habían encontrado esencialmente la misma solución, y esto a su vez los convenció absolutamente de que habían resuelto el problema de manera concluyente; sin embargo, no publicaron sus hallazgos. Solo informaron sobre ello a un pequeño círculo de amigos científicos mutuos en París. [5]

En su libro, el matemático holandés Christiaan Huygens analizó el problema de los puntos y presentó una solución basada en el mismo principio que las soluciones de Pascal y Fermat. Huygens publicó su tratado en 1657 (véase Huygens (1657)) " De ratiociniis in ludo aleæ " sobre la teoría de la probabilidad justo después de visitar París. El libro amplió el concepto de expectativa añadiendo reglas sobre cómo calcular las expectativas en situaciones más complicadas que el problema original (por ejemplo, para tres o más jugadores), y puede considerarse el primer intento exitoso de sentar las bases de la teoría de la probabilidad .

En el prólogo de su tratado, Huygens escribió:

Hay que decir también que desde hace algún tiempo algunos de los mejores matemáticos de Francia se han ocupado de esta especie de cálculo, de modo que nadie me atribuya el honor de haberlo inventado primero. Esto no me corresponde. Pero estos sabios, aunque se ponen a prueba unos a otros proponiéndose muchas cuestiones difíciles de resolver, han ocultado sus métodos. He tenido, pues, que examinar y profundizar por mí mismo en esta materia, empezando por los elementos, y me es imposible, por esta razón, afirmar que he partido siquiera del mismo principio. Pero, finalmente, he comprobado que mis respuestas, en muchos casos, no difieren de las suyas.

—Edwards  (2002)

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de las expectativas de variables aleatorias . [6]

Etimología

Ni Pascal ni Huygens utilizaron el término "expectativa" en su sentido moderno. En particular, Huygens escribe: [7]

Que cualquier posibilidad o expectativa de ganar algo vale exactamente la misma suma que se obtendría con la misma posibilidad y expectativa en una apuesta justa. ... Si espero a o b, y tengo la misma posibilidad de ganarlos, mi expectativa vale (a+b)/2.

Más de cien años después, en 1814, Pierre-Simon Laplace publicó su tratado " Théorie analytique des probabilités ", donde se definía explícitamente el concepto de valor esperado: [8]

... esta ventaja en la teoría del azar es el producto de la suma esperada por la probabilidad de obtenerla; es la suma parcial que debe resultar cuando no queremos correr los riesgos del evento al suponer que la división se hace proporcional a las probabilidades. Esta división es la única equitativa cuando se eliminan todas las circunstancias extrañas; porque un grado igual de probabilidad da un derecho igual a la suma esperada. Llamaremos a esta ventaja esperanza matemática.

Notaciones

El uso de la letra E para denotar "valor esperado" se remonta a W. A. ​​Whitworth en 1901. [9] Desde entonces, el símbolo se ha vuelto popular entre los escritores ingleses. En alemán, E significa Erwartungswert , en español, esperanza matemática , y en francés, espérance mathématique. [10]

Cuando se utiliza "E" para denotar "valor esperado", los autores utilizan una variedad de estilizaciones: el operador de expectativa se puede estilizar como E (vertical), E (cursiva) o (en negrita de pizarra ), mientras que se utilizan una variedad de notaciones entre corchetes (como E( X ) , E[ X ] y E X ).

Otra notación popular es μ X . X , Xav , y se utilizan comúnmente en física. [11] M( X ) se utiliza en la literatura en idioma ruso.

Definición

Como se ha comentado anteriormente, existen varias formas de definir el valor esperado que dependen del contexto. La definición más simple y original se ocupa del caso de un número finito de resultados posibles, como en el lanzamiento de una moneda. Con la teoría de series infinitas, esto se puede extender al caso de un número contable de resultados posibles. También es muy común considerar el caso específico de las variables aleatorias dictadas por funciones de densidad de probabilidad continuas (por partes) , ya que estas surgen en muchos contextos naturales. Todas estas definiciones específicas pueden considerarse casos especiales de la definición general basada en las herramientas matemáticas de la teoría de la medida y la integración de Lebesgue , que proporcionan a estos diferentes contextos una base axiomática y un lenguaje común.

Cualquier definición de valor esperado puede extenderse para definir un valor esperado de una variable aleatoria multidimensional, es decir, un vector aleatorio X . Se define componente por componente, como E[ X ] i = E[ X i ] . De manera similar, se puede definir el valor esperado de una matriz aleatoria X con componentes X ij como E[ X ] ij = E[ X ij ] .

Variables aleatorias con un número finito de resultados

Consideremos una variable aleatoria X con una lista finita x 1 , ..., x k de resultados posibles, cada uno de los cuales (respectivamente) tiene una probabilidad p 1 , ..., p k de ocurrir. La esperanza de X se define como [12]

Dado que las probabilidades deben satisfacer p 1 + ⋅⋅⋅ + p k = 1 , es natural interpretar E[ X ] como un promedio ponderado de los valores x i , con pesos dados por sus probabilidades p i .

En el caso especial de que todos los resultados posibles sean equiprobables (es decir, p 1 = ⋅⋅⋅ = p k ), el promedio ponderado viene dado por el promedio estándar . En el caso general, el valor esperado tiene en cuenta el hecho de que algunos resultados son más probables que otros.

Ejemplos

Una ilustración de la convergencia de los promedios de secuencia de tiradas de un dado al valor esperado de 3,5 a medida que aumenta el número de tiradas (ensayos)

Variables aleatorias con un número infinito de resultados contables

De manera informal, la expectativa de una variable aleatoria con un conjunto infinito numerable de resultados posibles se define análogamente como el promedio ponderado de todos los resultados posibles, donde los pesos están dados por las probabilidades de realizar cada valor dado. Esto quiere decir que donde x 1 , x 2 , ... son los resultados posibles de la variable aleatoria X y p 1 , p 2 , ... son sus probabilidades correspondientes. En muchos libros de texto no matemáticos, esto se presenta como la definición completa de valores esperados en este contexto. [13]

Sin embargo, la suma infinita tiene algunas sutilezas, por lo que la fórmula anterior no es adecuada como definición matemática. En particular, el teorema de la serie de Riemann del análisis matemático ilustra que el valor de ciertas sumas infinitas que involucran sumandos positivos y negativos depende del orden en el que se dan los sumandos. Dado que los resultados de una variable aleatoria no tienen un orden dado de manera natural, esto crea una dificultad para definir el valor esperado con precisión.

Por esta razón, muchos libros de texto de matemáticas sólo consideran el caso en que la suma infinita dada anteriormente converge absolutamente , lo que implica que la suma infinita es un número finito independiente del orden de los sumandos. [14] En el caso alternativo de que la suma infinita no converja absolutamente, se dice que la variable aleatoria no tiene expectativa finita. [14]

Ejemplos

Variables aleatorias con densidad

Ahora considere una variable aleatoria X que tiene una función de densidad de probabilidad dada por una función f en la línea de números reales . Esto significa que la probabilidad de que X tome un valor en cualquier intervalo abierto dado está dada por la integral de f en ese intervalo. La esperanza de X está dada entonces por la integral [15] Una formulación general y matemáticamente precisa de esta definición utiliza la teoría de la medida y la integración de Lebesgue , y la teoría correspondiente de variables aleatorias absolutamente continuas se describe en la siguiente sección. Las funciones de densidad de muchas distribuciones comunes son continuas por partes y, como tal, la teoría a menudo se desarrolla en este entorno restringido. [16] Para tales funciones, es suficiente considerar solo la integración estándar de Riemann . A veces, las variables aleatorias continuas se definen como aquellas correspondientes a esta clase especial de densidades, aunque el término se usa de manera diferente por varios autores.

De manera análoga al caso numerable-infinito anterior, esta expresión tiene sutilezas debido a la región infinita de integración. Dichas sutilezas se pueden ver concretamente si la distribución de X está dada por la distribución de Cauchy Cauchy(0, π) , de modo que f ( x ) = ( x 2 + π 2 ) −1 . Es sencillo calcular en este caso que El límite de esta expresión cuando a → −∞ y b → ∞ no existe: si los límites se toman de modo que a = − b , entonces el límite es cero, mientras que si se toma la restricción 2 a = − b , entonces el límite es ln(2) .

Para evitar tales ambigüedades, en los libros de texto de matemáticas es común requerir que la integral dada converja absolutamente , dejando E[ X ] sin definir en caso contrario. [17] Sin embargo, las nociones de teoría de la medida que se dan a continuación se pueden utilizar para dar una definición sistemática de E[ X ] para variables aleatorias más generales X .

Variables aleatorias arbitrarias de valor real

Todas las definiciones del valor esperado pueden expresarse en el lenguaje de la teoría de la medida . En general, si X es una variable aleatoria de valor real definida en un espacio de probabilidad (Ω, Σ, P) , entonces el valor esperado de X , denotado por E[ X ] , se define como la integral de Lebesgue [18]. A pesar de la situación recientemente abstracta, esta definición es extremadamente similar en naturaleza a la definición más simple de valores esperados, dada anteriormente, como ciertos promedios ponderados. Esto se debe a que, en la teoría de la medida, el valor de la integral de Lebesgue de X se define a través de promedios ponderados de aproximaciones de X que toman un número finito de valores. [19] Además, si se da una variable aleatoria con un número finito o contable de valores posibles, la teoría de Lebesgue de la expectativa es idéntica a las fórmulas de suma dadas anteriormente. Sin embargo, la teoría de Lebesgue aclara el alcance de la teoría de las funciones de densidad de probabilidad. Se dice que una variable aleatoria X es absolutamente continua si se cumple alguna de las siguientes condiciones:

Estas condiciones son todas equivalentes, aunque no es trivial establecerlo. [20] En esta definición, f se denomina función de densidad de probabilidad de X (relativa a la medida de Lebesgue). Según la fórmula de cambio de variables para la integración de Lebesgue, [21] combinada con la ley del estadístico inconsciente , [22] se deduce que para cualquier variable aleatoria absolutamente continua X . La discusión anterior de las variables aleatorias continuas es, por lo tanto, un caso especial de la teoría general de Lebesgue, debido al hecho de que toda función continua por partes es medible.

Valor esperado μ y mediana 𝑚
Valor esperado μ y mediana 𝑚

El valor esperado de cualquier variable aleatoria de valor real también se puede definir en el gráfico de su función de distribución acumulativa mediante una igualdad cercana de áreas. De hecho, con un número real si y solo si las dos superficies en el plano - , descritas por respectivamente, tienen la misma área finita, es decir, si y ambas integrales impropias de Riemann convergen. Finalmente, esto es equivalente a la representación También con integrales convergentes. [23]

Valores esperados infinitos

Los valores esperados como se definieron anteriormente son automáticamente números finitos. Sin embargo, en muchos casos es fundamental poder considerar valores esperados de ±∞ . Esto es intuitivo, por ejemplo, en el caso de la paradoja de San Petersburgo , en la que se considera una variable aleatoria con resultados posibles x i = 2 i , con probabilidades asociadas p i = 2 i , para i que abarcan todos los números enteros positivos. Según la fórmula de suma en el caso de variables aleatorias con un número contable de resultados, se tiene Es natural decir que el valor esperado es igual a +∞ .

Existe una rigurosa teoría matemática subyacente a tales ideas, que a menudo se toma como parte de la definición de la integral de Lebesgue. [19] La primera observación fundamental es que, cualquiera de las definiciones anteriores que se sigan, a cualquier variable aleatoria no negativa se le puede dar un valor esperado inequívoco; siempre que la convergencia absoluta falle, entonces el valor esperado se puede definir como +∞ . La segunda observación fundamental es que cualquier variable aleatoria se puede escribir como la diferencia de dos variables aleatorias no negativas. Dada una variable aleatoria X , se definen las partes positiva y negativa por X + = max( X , 0) y X = −min( X , 0) . Estas son variables aleatorias no negativas, y se puede verificar directamente que X = X +X . Dado que E[ X + ] y E[ X ] se definen entonces como números no negativos o +∞ , es natural definir:

Según esta definición, E[ X ] existe y es finito si y solo si E[ X + ] y E[ X ] son ​​ambos finitos. Debido a la fórmula | X | = X + + X , este es el caso si y solo si E| X | es finito, y esto es equivalente a las condiciones de convergencia absoluta en las definiciones anteriores. Como tal, las presentes consideraciones no definen valores esperados finitos en ningún caso no considerado previamente; solo son útiles para expectativas infinitas.

Valores esperados de distribuciones comunes

La siguiente tabla muestra los valores esperados de algunas distribuciones de probabilidad que se dan con frecuencia . La tercera columna muestra los valores esperados tanto en la forma que se da inmediatamente en la definición como en la forma simplificada que se obtiene mediante el cálculo a partir de ella. Los detalles de estos cálculos, que no siempre son sencillos, se pueden encontrar en las referencias indicadas.

Propiedades

Las propiedades básicas que se muestran a continuación (y sus nombres en negrita) replican o se derivan inmediatamente de las de la integral de Lebesgue . Nótese que las letras "como" significan " casi con seguridad ", una propiedad central de la integral de Lebesgue. Básicamente, se dice que una desigualdad como es cierta casi con seguridad, cuando la medida de probabilidad atribuye masa cero al evento complementario.

Desigualdades

Las desigualdades de concentración controlan la probabilidad de que una variable aleatoria adopte valores grandes. La desigualdad de Markov es una de las más conocidas y sencillas de demostrar: para una variable aleatoria no negativa X y cualquier número positivo a , establece que [37]

Si X es cualquier variable aleatoria con expectativa finita, entonces la desigualdad de Markov puede aplicarse a la variable aleatoria | X −E[ X ]| 2 para obtener la desigualdad de Chebyshev donde Var es la varianza . [37] Estas desigualdades son significativas por su casi total falta de supuestos condicionales. Por ejemplo, para cualquier variable aleatoria con expectativa finita, la desigualdad de Chebyshev implica que hay al menos un 75% de probabilidad de que un resultado esté dentro de dos desviaciones estándar del valor esperado. Sin embargo, en casos especiales las desigualdades de Markov y Chebyshev a menudo dan información mucho más débil que la que está disponible de otra manera. Por ejemplo, en el caso de un dado no ponderado, la desigualdad de Chebyshev dice que las probabilidades de obtener un número entre 1 y 6 son al menos del 53%; en realidad, las probabilidades son, por supuesto, del 100%. [38] La desigualdad de Kolmogorov extiende la desigualdad de Chebyshev al contexto de sumas de variables aleatorias. [39]

Las siguientes tres desigualdades son de importancia fundamental en el campo del análisis matemático y sus aplicaciones a la teoría de la probabilidad.

Las desigualdades de Hölder y Minkowski se pueden extender a espacios de medida generales y suelen darse en ese contexto. Por el contrario, la desigualdad de Jensen es específica del caso de los espacios de probabilidad.

Expectativas bajo convergencia de variables aleatorias

En general, no es el caso de que, incluso si es puntual, no se pueden intercambiar límites y expectativas sin condiciones adicionales sobre las variables aleatorias. Para ver esto, sea una variable aleatoria distribuida uniformemente en Para definir una secuencia de variables aleatorias con siendo la función indicadora del evento Entonces, se sigue que es puntual. Pero, para cada Por lo tanto,

De manera análoga, para una secuencia general de variables aleatorias, el operador de valor esperado no es -aditivo, es decir

Se obtiene fácilmente un ejemplo estableciendo y para donde es como en el ejemplo anterior.

Una serie de resultados de convergencia especifican condiciones exactas que permiten intercambiar límites y expectativas, como se especifica a continuación.

Relación con la función característica

La función de densidad de probabilidad de una variable aleatoria escalar está relacionada con su función característica mediante la fórmula de inversión:

Para el valor esperado de (donde es una función de Borel ), podemos usar esta fórmula de inversión para obtener

Si es finito, cambiando el orden de integración, obtenemos, de acuerdo con el teorema de Fubini-Tonelli , donde es la transformada de Fourier de La expresión para también se sigue directamente del teorema de Plancherel .

Usos y aplicaciones

La expectativa de una variable aleatoria juega un papel importante en una variedad de contextos.

En estadística , cuando se buscan estimaciones para parámetros desconocidos en función de los datos disponibles obtenidos de muestras , la media de la muestra sirve como estimación de la expectativa y es en sí misma una variable aleatoria. En tales contextos, se considera que la media de la muestra cumple el criterio deseable para que un estimador "bueno" sea imparcial ; es decir, el valor esperado de la estimación es igual al valor verdadero del parámetro subyacente.

Por poner un ejemplo diferente, en la teoría de decisiones , a menudo se supone que un agente que toma una decisión óptima en el contexto de información incompleta maximiza el valor esperado de su función de utilidad .

Es posible construir un valor esperado igual a la probabilidad de un evento tomando la esperanza de una función indicadora que es uno si el evento ha ocurrido y cero en caso contrario. Esta relación se puede utilizar para traducir propiedades de valores esperados en propiedades de probabilidades, por ejemplo, utilizando la ley de los grandes números para justificar la estimación de probabilidades por frecuencias .

Los valores esperados de las potencias de X se denominan momentos de X ; los momentos respecto a la media de X son valores esperados de potencias de X − E[ X ] . Los momentos de algunas variables aleatorias se pueden utilizar para especificar sus distribuciones, a través de sus funciones generadoras de momentos .

Para estimar empíricamente el valor esperado de una variable aleatoria, se miden repetidamente las observaciones de la variable y se calcula la media aritmética de los resultados. Si el valor esperado existe, este procedimiento estima el valor esperado real de manera imparcial y tiene la propiedad de minimizar la suma de los cuadrados de los residuos (la suma de las diferencias al cuadrado entre las observaciones y la estimación). La ley de los grandes números demuestra (en condiciones bastante moderadas) que, a medida que aumenta el tamaño de la muestra, la varianza de esta estimación se hace menor.

Esta propiedad se explota a menudo en una amplia variedad de aplicaciones, incluidos problemas generales de estimación estadística y aprendizaje automático , para estimar cantidades (probabilísticas) de interés a través de métodos de Monte Carlo , ya que la mayoría de las cantidades de interés se pueden escribir en términos de expectativa, por ejemplo, donde es la función indicadora del conjunto.

La masa de la distribución de probabilidad está equilibrada en el valor esperado, aquí una distribución Beta(α,β) con valor esperado α/(α+β).

En mecánica clásica , el centro de masas es un concepto análogo a la expectativa. Por ejemplo, supongamos que X es una variable aleatoria discreta con valores x i y probabilidades correspondientes p i . Ahora, consideremos una varilla sin peso sobre la que se colocan pesas, en posiciones x i a lo largo de la varilla y que tienen masas p i (cuya suma es uno). El punto en el que la varilla se equilibra es E[ X ].

Los valores esperados también se pueden utilizar para calcular la varianza, mediante la fórmula de cálculo de la varianza.

Una aplicación muy importante del valor esperado se encuentra en el campo de la mecánica cuántica . El valor esperado de un operador mecánico cuántico que opera sobre un vector de estado cuántico se escribe como La incertidumbre en se puede calcular mediante la fórmula .

Véase también

Referencias

  1. ^ "Expectativa | Media | Promedio". www.probabilitycourse.com . Consultado el 11 de septiembre de 2020 .
  2. ^ Hansen, Bruce. "PROBABILIDAD Y ESTADÍSTICA PARA ECONOMISTAS" (PDF) . Archivado desde el original (PDF) el 2022-01-19 . Consultado el 2021-07-20 .
  3. ^ Wasserman, Larry (diciembre de 2010). Toda la estadística: un curso conciso de inferencia estadística . Textos de Springer sobre estadística. pág. 47. ISBN 9781441923226.
  4. ^ Historia de la probabilidad y la estadística y sus aplicaciones antes de 1750. Serie Wiley sobre probabilidad y estadística. 1990. doi :10.1002/0471725161. ISBN 9780471725169.
  5. ^ Ore, Oystein (1960). "Ore, Pascal y la invención de la teoría de la probabilidad". The American Mathematical Monthly . 67 (5): 409–419. doi :10.2307/2309286. JSTOR  2309286.
  6. ^ George Mackey (julio de 1980). "EL ANÁLISIS ARMÓNICO COMO EXPLOTACIÓN DE LA SIMETRÍA - UN ESTUDIO HISTÓRICO". Boletín de la American Mathematical Society . Nueva serie. 3 (1): 549.
  7. ^ Huygens, Christian. "El valor de las probabilidades en los juegos de fortuna. Traducción al inglés" (PDF) .
  8. ^ Laplace, Pierre Simon, marqués de, 1749-1827. (1952) [1951]. Un ensayo filosófico sobre probabilidades . Publicaciones de Dover. OCLC  475539.{{cite book}}: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
  9. ^ Whitworth, WA (1901) Elección y azar con mil ejercicios. Quinta edición. Deighton Bell, Cambridge. [Reimpreso por Hafner Publishing Co., Nueva York, 1959.]
  10. ^ "Primeros usos de símbolos en probabilidad y estadística".
  11. ^ Feller 1968, pág. 221.
  12. ^ Billingsley 1995, pág. 76.
  13. ^ Ross 2019, Sección 2.4.1.
  14. ^ desde Feller 1968, Sección IX.2.
  15. ^ Papoulis y Pillai 2002, sección 5-3; Ross 2019, Sección 2.4.2.
  16. ^ Feller 1971, Sección I.2.
  17. ^ Feller 1971, pág. 5.
  18. ^ Billingsley 1995, pág. 273.
  19. ^ ab Billingsley 1995, Sección 15.
  20. ^ Billingsley 1995, Teoremas 31.7 y 31.8 y p. 422.
  21. ^ Billingsley 1995, Teorema 16.13.
  22. ^ Billingsley 1995, Teorema 16.11.
  23. ^ Uhl, Roland (2023). Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion [ Caracterización del valor esperado en la gráfica de la función de distribución acumulativa ] (PDF) . Technische Hochschule Brandeburgo. doi : 10.25933/opus4-2986 .págs. 2–4.
  24. ^ Casella y Berger 2001, pág. 89; Ross 2019, Ejemplo 2.16.
  25. ^ Casella y Berger 2001, Ejemplo 2.2.3; Ross 2019, Ejemplo 2.17.
  26. ^ Billingsley 1995, Ejemplo 21.4; Casella y Berger 2001, pág. 92; Ross 2019, Ejemplo 2.19.
  27. ^ Casella y Berger 2001, pág. 97; Ross 2019, Ejemplo 2.18.
  28. ^ Casella y Berger 2001, pág. 99; Ross 2019, Ejemplo 2.20.
  29. ^ Billingsley 1995, Ejemplo 21.3; Casella y Berger 2001, Ejemplo 2.2.2; Ross 2019, Ejemplo 2.21.
  30. ^ Casella y Berger 2001, pág. 103; Ross 2019, Ejemplo 2.22.
  31. ^ Billingsley 1995, Ejemplo 21.1; Casella y Berger 2001, pág. 103.
  32. ^ Johnson, Kotz y Balakrishnan 1994, Capítulo 20.
  33. ^ Feller 1971, Sección II.4.
  34. ^ abc Weisstein, Eric W. "Valor esperado". mathworld.wolfram.com . Consultado el 11 de septiembre de 2020 .
  35. ^ Feller 1971, Sección V.6.
  36. ^ Papoulis y Pillai 2002, sección 6-4.
  37. ^ ab Feller 1968, Sección IX.6; Feller 1971, Sección V.7; Papoulis y Pillai 2002, Sección 5-4; Ross 2019, Sección 2.8.
  38. ^ Feller 1968, Sección IX.6.
  39. ^ Feller 1968, Sección IX.7.
  40. ^ abcd Feller 1971, Sección V.8.
  41. ^ Billingsley 1995, págs. 81, 277.
  42. ^ Billingsley 1995, Sección 19.

Bibliografía