stringtranslate.com

Valor esperado

En teoría de la probabilidad , el valor esperado (también llamado expectativa , expectativa , operador de expectativa , expectativa matemática , media , valor esperado o primer momento ) es una generalización del promedio ponderado . De manera informal, el valor esperado es la media aritmética de los posibles valores que puede tomar una variable aleatoria , ponderada por la probabilidad de esos resultados. Dado que se obtiene mediante aritmética, es posible que a veces el valor esperado ni siquiera esté incluido en el conjunto de datos de muestra; no es el valor que "esperarías" obtener en la realidad.

El valor esperado de una variable aleatoria con un número finito de resultados es un promedio ponderado de todos los resultados posibles. En el caso de un continuo de resultados posibles, la expectativa se define por la integración . En el fundamento axiomático de la probabilidad proporcionado por la teoría de la medida , la expectativa viene dada por la integración de Lebesgue .

El valor esperado de una variable aleatoria X a menudo se denota por E( X ) , E[ X ] o EX , y E también suele estilizarse como E o [1] [2] [3]

Historia

La idea del valor esperado se originó a mediados del siglo XVII a partir del estudio del llamado problema de los puntos , que busca dividir las apuestas de manera equitativa entre dos jugadores, quienes tienen que terminar su juego antes de que se complete correctamente. finalizado. [4] Este problema había sido debatido durante siglos. A lo largo de los años se habían sugerido muchas propuestas y soluciones contradictorias cuando el escritor y matemático aficionado francés Chevalier de Méré se lo planteó a Blaise Pascal en 1654. Méré afirmó que este problema no podía resolverse y que demostraba cuán defectuosas eran las matemáticas cuando Llegó a su aplicación al mundo real. Pascal, siendo matemático, se sintió provocado y decidido a resolver el problema de una vez por todas.

Comenzó a discutir el problema en la famosa serie de cartas a Pierre de Fermat . Muy pronto, a ambos se les ocurrió una solución de forma independiente. Resolvieron el problema de diferentes formas computacionales, pero sus resultados fueron idénticos porque sus cálculos se basaban en el mismo principio fundamental. El principio es que el valor de una ganancia futura debe ser directamente proporcional a la posibilidad de obtenerla. Este principio parecía haber sido algo natural para ambos. Estaban muy contentos de haber encontrado esencialmente la misma solución y esto a su vez los hizo absolutamente convencidos de que habían resuelto el problema de manera concluyente; sin embargo, no publicaron sus hallazgos. Sólo informaron de ello a un pequeño círculo de amigos científicos mutuos en París. [5]

En el libro del matemático holandés Christiaan Huygens , consideró el problema de los puntos y presentó una solución basada en el mismo principio que las soluciones de Pascal y Fermat. Huygens publicó su tratado en 1657 (ver Huygens (1657)) " De ratiociniis in ludo aleæ " sobre la teoría de la probabilidad justo después de visitar París. El libro amplió el concepto de expectativa agregando reglas sobre cómo calcular las expectativas en situaciones más complicadas que el problema original (por ejemplo, para tres o más jugadores), y puede verse como el primer intento exitoso de sentar las bases de la teoría . de probabilidad .

En el prólogo de su tratado, Huygens escribió:

Hay que decir también que desde hace algún tiempo algunos de los mejores matemáticos de Francia se han ocupado de este tipo de cálculo para que nadie me atribuya el honor del primer invento. Esto no me pertenece. Pero estos sabios, aunque se ponen a prueba proponiéndose muchas cuestiones difíciles de resolver, han ocultado sus métodos. He tenido, pues, que examinar y profundizar por mí mismo en esta materia empezando por los elementos, y por ello me es imposible afirmar que he partido siquiera del mismo principio. Pero finalmente descubrí que mis respuestas en muchos casos no difieren de las de ellos.

-  Edwards (2002)

Durante su visita a Francia en 1655, Huygens conoció el Problema de De Méré . A partir de su correspondencia con Carcavine un año después (en 1656), se dio cuenta de que su método era esencialmente el mismo que el de Pascal. Por lo tanto, conocía la prioridad de Pascal en este tema antes de que su libro saliera a imprenta en 1657. [ cita necesaria ]

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de expectativas de variables aleatorias . [6]

Etimología

Ni Pascal ni Huygens utilizaron el término "expectativa" en su sentido moderno. En particular, Huygens escribe: [7]

Que cualquier oportunidad o expectativa de ganar algo vale exactamente la suma que se obtendría en la misma oportunidad y expectativa en una batalla justa. ... Si espero a o b, y tengo las mismas posibilidades de obtenerlos, mi Expectativa vale (a+b)/2.

Más de cien años después, en 1814, Pierre-Simon Laplace publicó su tratado " Théorie analytique des probabilités ", donde se definía explícitamente el concepto de valor esperado: [8]

… esta ventaja en la teoría del azar es el producto de la suma esperada por la probabilidad de obtenerla; es la suma parcial que debe resultar cuando no queremos correr los riesgos del acontecimiento al suponer que la división se hace proporcional a las probabilidades. Esta división es la única equitativa cuando se eliminan todas las circunstancias extrañas; porque un grado igual de probabilidad da el mismo derecho a la suma esperada. A esta ventaja la llamaremos esperanza matemática.

Notaciones

El uso de la letra E para indicar "valor esperado" se remonta a WA Whitworth en 1901. [9] Desde entonces, el símbolo se ha vuelto popular entre los escritores ingleses. En alemán, E significa Erwartungswert , en español esperanza matemática y en francés esperanza matemática. [10]

Cuando se usa "E" para denotar "valor esperado", los autores usan una variedad de estilizaciones: el operador de expectativa se puede estilizar como E (vertical), E (cursiva) o (en negrita de pizarra ), mientras que una variedad de notaciones entre corchetes (como E( X ) , E[ X ] y E X ) se utilizan todos.

Otra notación popular es μ X , mientras que X , Xav , y se usan comúnmente en física, [11] y M( X ) en la literatura en idioma ruso.

Definición

Como se analizó anteriormente, existen varias formas que dependen del contexto de definir el valor esperado. La definición más simple y original aborda el caso de un número finito de resultados posibles, como en el caso de lanzar una moneda al aire. Con la teoría de las series infinitas, esto se puede extender al caso de un número contable de resultados posibles. También es muy común considerar el caso distinto de variables aleatorias dictadas por funciones de densidad de probabilidad continuas (por partes) , ya que surgen en muchos contextos naturales. Todas estas definiciones específicas pueden verse como casos especiales de la definición general basada en las herramientas matemáticas de la teoría de la medida y la integración de Lebesgue , que proporcionan a estos diferentes contextos una base axiomática y un lenguaje común.

Cualquier definición de valor esperado puede ampliarse para definir un valor esperado de una variable aleatoria multidimensional, es decir, un vector aleatorio X. Se define componente por componente, como E[ X ] i = E[ X i ] . De manera similar, se puede definir el valor esperado de una matriz aleatoria X con componentes X ij por E[ X ] ij = E[ X ij ] .

Variables aleatorias con un número finito de resultados.

Considere una variable aleatoria X con una lista finita x 1 , ..., x k de posibles resultados, cada uno de los cuales (respectivamente) tiene probabilidad p 1 , ..., p k de ocurrir. La expectativa de X se define como [12]

Dado que las probabilidades deben satisfacer p 1 + ⋅⋅⋅ + p k = 1 , es natural interpretar E[ X ] como un promedio ponderado de los valores de x i , con ponderaciones dadas por sus probabilidades p i .

En el caso especial de que todos los resultados posibles sean equiprobables (es decir, p 1 = ⋅⋅⋅ = p k ), el promedio ponderado viene dado por el promedio estándar . En el caso general, el valor esperado tiene en cuenta el hecho de que algunos resultados son más probables que otros.

Ejemplos

Una ilustración de la convergencia de los promedios de secuencia de tiradas de un dado al valor esperado de 3,5 a medida que crece el número de tiradas (ensayos)
Si uno tira el dado varias veces y calcula el promedio ( media aritmética ) de los resultados, entonces, a medida que crece, el promedio casi seguramente convergerá al valor esperado, un hecho conocido como la ley fuerte de los grandes números .
Es decir, el valor esperado que se ganará con una apuesta de $1 es −$1/19. Por lo tanto, en 190 apuestas, la pérdida neta probablemente será de unos 10 dólares.

Variables aleatorias con infinitos resultados contables

De manera informal, la expectativa de una variable aleatoria con un conjunto contablemente infinito de resultados posibles se define de manera análoga como el promedio ponderado de todos los resultados posibles, donde los pesos están dados por las probabilidades de realizar cada valor dado. Esto es para decir que

donde x 1 , x 2 , ... son los posibles resultados de la variable aleatoria X y p 1 , p 2 , ... son sus probabilidades correspondientes. En muchos libros de texto no matemáticos, esto se presenta como la definición completa de los valores esperados en este contexto. [13]

Sin embargo, existen algunas sutilezas con la suma infinita, por lo que la fórmula anterior no es adecuada como definición matemática. En particular, el teorema de análisis matemático de la serie de Riemann ilustra que el valor de ciertas sumas infinitas que involucran sumandos positivos y negativos depende del orden en que se dan los sumandos. Dado que los resultados de una variable aleatoria no tienen un orden natural, esto crea una dificultad para definir con precisión el valor esperado.

Por esta razón, muchos libros de texto de matemáticas sólo consideran el caso de que la suma infinita dada anteriormente converge absolutamente , lo que implica que la suma infinita es un número finito independiente del orden de los sumandos. [14] En el caso alternativo de que la suma infinita no converja absolutamente, se dice que la variable aleatoria no tiene una expectativa finita. [14]

Ejemplos

Variables aleatorias con densidad.

Consideremos ahora una variable aleatoria X que tiene una función de densidad de probabilidad dada por una función f en la recta numérica real . Esto significa que la probabilidad de que X tome un valor en cualquier intervalo abierto dado está dada por la integral de f en ese intervalo. La esperanza de X viene entonces dada por la integral [15]

Una formulación general y matemáticamente precisa de esta definición utiliza la teoría de la medida y la integración de Lebesgue , y la teoría correspondiente de variables aleatorias absolutamente continuas se describe en la siguiente sección. Las funciones de densidad de muchas distribuciones comunes son continuas por partes y, como tal, la teoría a menudo se desarrolla en este entorno restringido. [16] Para tales funciones, es suficiente considerar únicamente la integración estándar de Riemann . En ocasiones, las variables aleatorias continuas se definen como aquellas correspondientes a esta clase especial de densidades, aunque el término es utilizado de manera diferente por diversos autores.

De manera análoga al caso contablemente infinito anterior, hay sutilezas con esta expresión debido a la región infinita de integración. Estas sutilezas se pueden ver concretamente si la distribución de X viene dada por la distribución de Cauchy Cauchy(0, π) , de modo que f ( x ) = ( x 2 + π 2 ) −1 . Es sencillo calcular en este caso que

El límite de esta expresión como a → −∞ y b → ∞ no existe: si los límites se toman de manera que a = − b , entonces el límite es cero, mientras que si se toma la restricción 2 a = − b , entonces el el límite es ln(2) .

Para evitar tales ambigüedades, en los libros de texto de matemáticas es común exigir que la integral dada converja absolutamente , de lo contrario, E[ X ] queda sin definir. [17] Sin embargo, las nociones de teoría de la medida que se dan a continuación se pueden utilizar para dar una definición sistemática de E[ X ] para variables aleatorias X más generales .

Variables aleatorias arbitrarias de valor real

Todas las definiciones del valor esperado pueden expresarse en el lenguaje de la teoría de la medida . En general, si X es una variable aleatoria de valor real definida en un espacio de probabilidad (Ω, Σ, P) , entonces el valor esperado de X , denotado por E[ X ] , se define como la integral de Lebesgue [18]

A pesar de la situación recientemente abstracta, esta definición es de naturaleza extremadamente similar a la definición más simple de valores esperados, dada anteriormente, como ciertos promedios ponderados. Esto se debe a que, en la teoría de la medida, el valor de la integral de Lebesgue de X se define mediante promedios ponderados de aproximaciones de X que toman un número finito de valores. [19] Además, si se da una variable aleatoria con un número finito o contable de valores posibles, la teoría de la expectativa de Lebesgue es idéntica a las fórmulas de suma dadas anteriormente. Sin embargo, la teoría de Lebesgue aclara el alcance de la teoría de las funciones de densidad de probabilidad. Una variable aleatoria X se dice que es absolutamente continua si se cumple alguna de las siguientes condiciones:

para cualquier conjunto de Borel A , en el que la integral es Lebesgue.

Todas estas condiciones son equivalentes, aunque establecerlo no es trivial. [20] En esta definición, f se denomina función de densidad de probabilidad de X (en relación con la medida de Lebesgue). Según la fórmula de cambio de variables para la integración de Lebesgue, [21] combinada con la ley del estadístico inconsciente , [22] se deduce que

para cualquier variable aleatoria absolutamente continua X . La discusión anterior sobre variables aleatorias continuas es, por tanto, un caso especial de la teoría general de Lebesgue, debido al hecho de que toda función continua por partes es mensurable.

El valor esperado de cualquier variable aleatoria de valor real también se puede definir en la gráfica de su función de distribución acumulativa mediante una igualdad cercana de áreas. De hecho, con un número real si y sólo si las dos superficies en el plano - , descrito por

o

respectivamente, tienen la misma área finita, es decir, si

y ambas integrales impropias de Riemann convergen. Finalmente, esto es equivalente a la representación

también con integrales convergentes. [23] [24]

Valores esperados infinitos

Los valores esperados, tal como se definen anteriormente, son automáticamente números finitos. Sin embargo, en muchos casos es fundamental poder considerar valores esperados de ±∞ . Esto es intuitivo, por ejemplo, en el caso de la paradoja de San Petersburgo , en la que se considera una variable aleatoria con posibles resultados x i = 2 i , con probabilidades asociadas p i = 2 i , para i que abarca todos los números enteros positivos. . Según la fórmula de suma, en el caso de variables aleatorias con muchos resultados contables, se tiene

+∞

Existe una teoría matemática rigurosa detrás de tales ideas, que a menudo se toma como parte de la definición de la integral de Lebesgue. [19] La primera observación fundamental es que, cualquiera que sea la definición anterior que se siga, a cualquier variable aleatoria no negativa se le puede dar un valor esperado inequívoco; Siempre que falla la convergencia absoluta, entonces el valor esperado se puede definir como +∞ . La segunda observación fundamental es que cualquier variable aleatoria se puede escribir como la diferencia de dos variables aleatorias no negativas. Dada una variable aleatoria X , se definen las partes positiva y negativa por X + = max( X , 0) y X = −min( X , 0) . Estas son variables aleatorias no negativas y se puede comprobar directamente que X = X +X . Dado que E[ X + ] y E[ X ] se definen como números no negativos o +∞ , es natural definir:

Según esta definición, E[ X ] existe y es finita si y sólo si E[ X + ] y E[ X ] son ​​ambos finitos. Debido a la fórmula | X | = X + + X , este es el caso si y sólo si E| X | es finito, y esto es equivalente a las condiciones de convergencia absoluta en las definiciones anteriores. Como tal, las presentes consideraciones no definen valores esperados finitos en ningún caso no considerado previamente; sólo son útiles para expectativas infinitas.

Valores esperados de distribuciones comunes.

La siguiente tabla proporciona los valores esperados de algunas distribuciones de probabilidad que ocurren comúnmente . La tercera columna proporciona los valores esperados tanto en la forma dada inmediatamente por la definición como en la forma simplificada obtenida mediante el cálculo de la misma. Los detalles de estos cálculos, que no siempre son sencillos, se pueden encontrar en las referencias indicadas.

Propiedades

Las propiedades básicas siguientes (y sus nombres en negrita) replican o se derivan inmediatamente de las de la integral de Lebesgue . Tenga en cuenta que las letras "as" significan " casi seguramente ", una propiedad central de la integral de Lebesgue. Básicamente, se dice que una desigualdad como es casi segura, cuando la medida de probabilidad atribuye masa cero al evento complementario

siempre que el lado derecho esté bien definido. Por inducción , esto significa que el valor esperado de la suma de cualquier número finito de variables aleatorias es la suma de los valores esperados de las variables aleatorias individuales, y el valor esperado aumenta linealmente con una constante multiplicativa. Simbólicamente, para variables aleatorias y constantes tenemos Si pensamos que el conjunto de variables aleatorias con valor esperado finito forma un espacio vectorial, entonces la linealidad de la expectativa implica que el valor esperado es una forma lineal en este espacio vectorial.
donde los valores de ambos lados están bien definidos o no están bien definidos simultáneamente, y la integral se toma en el sentido de Lebesgue-Stieltjes . Como consecuencia de la integración por partes aplicada a esta representación de E[ X ] , se puede demostrar que
con las integrales tomadas en el sentido de Lebesgue. [24] Como caso especial, para cualquier variable aleatoria X valorada en los enteros no negativos {0, 1, 2, 3, ... }, se tiene
donde P denota la medida de probabilidad subyacente.

Desigualdades

Las desigualdades de concentración controlan la probabilidad de que una variable aleatoria tome valores grandes. La desigualdad de Markov se encuentra entre las más conocidas y las más sencillas de demostrar: para una variable aleatoria no negativa X y cualquier número positivo a , establece que [37]

Si X es cualquier variable aleatoria con expectativa finita, entonces la desigualdad de Markov se puede aplicar a la variable aleatoria | X −E[ X ]| 2 para obtener la desigualdad de Chebyshev

Varvarianza[37]desviaciones estándar[38]desigualdad de Kolmogorov[39]

Las siguientes tres desigualdades son de fundamental importancia en el campo del análisis matemático y sus aplicaciones a la teoría de la probabilidad.

Parte de la afirmación es que la parte negativa de f ( X ) tiene una expectativa finita, de modo que el lado derecho está bien definido (posiblemente infinito). La convexidad de f puede expresarse en el sentido de que la salida del promedio ponderado de dos entradas subestima el mismo promedio ponderado de las dos salidas; La desigualdad de Jensen extiende esto al establecimiento de promedios ponderados completamente generales, representados por la expectativa. En el caso especial de que f ( x ) = | x | t / s para números positivos s < t , se obtiene la desigualdad de Lyapunov [41]
Esto también puede demostrarse mediante la desigualdad de Hölder. [40] En teoría de la medida, esto es particularmente notable por demostrar la inclusión L s ⊂ L t de L p espacios , en el caso especial de espacios de probabilidad .
para cualquier variable aleatoria X e Y. [40] El caso especial de p = q = 2 se llama desigualdad de Cauchy-Schwarz y es particularmente conocido. [40]

Las desigualdades de Hölder y Minkowski se pueden extender a espacios de medida generales y, a menudo, se dan en ese contexto. Por el contrario, la desigualdad de Jensen es especial para el caso de espacios de probabilidad.

Expectativas bajo convergencia de variables aleatorias.

En general, no se da el caso, aunque sea puntualmente. Por tanto, no se pueden intercambiar límites y expectativas sin condiciones adicionales sobre las variables aleatorias. Para ver esto, sea una variable aleatoria distribuida uniformemente. Para definir una secuencia de variables aleatorias

siendo la función indicadora del evento Luego, se sigue puntualmente. Pero, para cada Por lo tanto,

De manera análoga, para una secuencia general de variables aleatorias, el operador del valor esperado no es aditivo, es decir

Se obtiene fácilmente un ejemplo estableciendo y para dónde es como en el ejemplo anterior.

Varios resultados de convergencia especifican condiciones exactas que permiten intercambiar límites y expectativas, como se especifica a continuación.

Relación con la función característica

La función de densidad de probabilidad de una variable aleatoria escalar está relacionada con su función característica mediante la fórmula de inversión:

Para el valor esperado de (donde es una función de Borel ), podemos usar esta fórmula de inversión para obtener

Si es finita, cambiando el orden de integración, obtenemos, de acuerdo con el teorema de Fubini-Tonelli ,

dónde

es la transformada de Fourier de La expresión para también se deriva directamente del teorema de Plancherel .

Usos y aplicaciones

La expectativa de una variable aleatoria juega un papel importante en una variedad de contextos.

En estadística , donde se buscan estimaciones de parámetros desconocidos basándose en datos disponibles obtenidos de muestras , la media muestral sirve como estimación de la expectativa y es en sí misma una variable aleatoria. En tales entornos, se considera que la media muestral cumple con el criterio deseable para que un "buen" estimador sea insesgado ; es decir, el valor esperado de la estimación es igual al valor real del parámetro subyacente.

Para poner un ejemplo diferente, en la teoría de la decisión , a menudo se supone que un agente que hace una elección óptima en el contexto de información incompleta maximiza el valor esperado de su función de utilidad .

Es posible construir un valor esperado igual a la probabilidad de un evento tomando la expectativa de una función indicadora que sea uno si el evento ha ocurrido y cero en caso contrario. Esta relación se puede utilizar para traducir propiedades de valores esperados en propiedades de probabilidades, por ejemplo, utilizando la ley de grandes números para justificar la estimación de probabilidades por frecuencias .

Los valores esperados de las potencias de X se denominan momentos de X ; los momentos con respecto a la media de X son valores esperados de potencias de X − E[ X ] . Los momentos de algunas variables aleatorias se pueden utilizar para especificar sus distribuciones, a través de sus funciones generadoras de momentos .

Para estimar empíricamente el valor esperado de una variable aleatoria, se miden repetidamente las observaciones de la variable y se calcula la media aritmética de los resultados. Si el valor esperado existe, este procedimiento estima el verdadero valor esperado de manera insesgada y tiene la propiedad de minimizar la suma de los cuadrados de los residuos (la suma de las diferencias al cuadrado entre las observaciones y la estimación). La ley de los grandes números demuestra (en condiciones bastante moderadas) que, a medida que aumenta el tamaño de la muestra, la varianza de esta estimación se reduce.

Esta propiedad a menudo se explota en una amplia variedad de aplicaciones, incluidos problemas generales de estimación estadística y aprendizaje automático , para estimar cantidades (probabilísticas) de interés mediante métodos de Monte Carlo , ya que la mayoría de las cantidades de interés se pueden escribir en términos de expectativa, por ejemplo, donde es la función indicadora del conjunto

La masa de la distribución de probabilidad está equilibrada en el valor esperado, aquí una distribución Beta(α,β) con valor esperado α/(α+β).

En mecánica clásica , el centro de masa es un concepto análogo al de expectativa. Por ejemplo, supongamos que X es una variable aleatoria discreta con valores x i y probabilidades correspondientes p i . Ahora considere una varilla ingrávida sobre la cual se colocan pesos, en ubicaciones x i a lo largo de la varilla y que tiene masas p i (cuya suma es uno). El punto en el que la varilla se equilibra es E[ X ].

Los valores esperados también se pueden utilizar para calcular la varianza, mediante la fórmula computacional para la varianza.

Una aplicación muy importante del valor esperado se encuentra en el campo de la mecánica cuántica . El valor esperado de un operador de la mecánica cuántica que opera en un vector de estado cuántico se escribe como La incertidumbre se puede calcular mediante la fórmula .

Ver también

Referencias

  1. ^ "Expectativa | Media | Promedio". www.probabilitycourse.com . Consultado el 11 de septiembre de 2020 .
  2. ^ Hansen, Bruce. «PROBABILIDAD Y ESTADÍSTICA PARA ECONOMISTAS» (PDF) . Archivado desde el original (PDF) el 19 de enero de 2022 . Consultado el 20 de julio de 2021 .
  3. ^ Wasserman, Larry (diciembre de 2010). Toda la estadística: un curso conciso de inferencia estadística . Textos de Springer en estadística. pag. 47.ISBN _ 9781441923226.
  4. ^ Historia de la probabilidad y la estadística y sus aplicaciones antes de 1750 . Serie Wiley en probabilidad y estadística. 1990. doi : 10.1002/0471725161. ISBN 9780471725169.
  5. ^ Mineral, Oystein (1960). "Ore, Pascal y la invención de la teoría de la probabilidad". El Mensual Matemático Estadounidense . 67 (5): 409–419. doi :10.2307/2309286. JSTOR  2309286.
  6. ^ George Mackey (julio de 1980). "ANÁLISIS ARMÓNICO COMO EXPLOTACIÓN DE LA SIMETRÍA - UN ESTUDIO HISTÓRICO". Boletín de la Sociedad Matemática Estadounidense . Series nuevas. 3 (1): 549.
  7. ^ Huygens, cristiano. "El valor de las oportunidades en los juegos de fortuna. Traducción al inglés" (PDF) .
  8. ^ Laplace, Pierre Simon, marqués de, 1749-1827. (1952) [1951]. Un ensayo filosófico sobre probabilidades . Publicaciones de Dover. OCLC  475539.{{cite book}}: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
  9. ^ Whitworth, WA (1901) Elección y oportunidad con mil ejercicios. Quinta edición. Deighton Bell, Cambridge. [Reimpreso por Hafner Publishing Co., Nueva York, 1959.]
  10. ^ "Primeros usos de símbolos en probabilidad y estadística".
  11. ^ Feller 1968, pag. 221.
  12. ^ Billingsley 1995, pág. 76.
  13. ^ Ross 2019, Sección 2.4.1.
  14. ^ ab Feller 1968, Sección IX.2.
  15. ^ Papoulis y Pillai 2002, sección 5-3; Ross 2019, Sección 2.4.2.
  16. ^ Feller 1971, sección I.2.
  17. ^ Feller 1971, pag. 5.
  18. ^ Billingsley 1995, pág. 273.
  19. ^ ab Billingsley 1995, Sección 15.
  20. ^ Billingsley 1995, Teoremas 31.7 y 31.8 y p. 422.
  21. ^ Billingsley 1995, teorema 16.13.
  22. ^ Billingsley 1995, teorema 16.11.
  23. ^ Uhl, Roland (2023). Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion . Technische Hochschule Brandeburgo. doi :10.25933/opus4-2986.págs. 2–4.
  24. ^ ab Feller 1971, Sección V.6.
  25. ^ Casella y Berger 2001, pag. 89; Ross 2019, Ejemplo 2.16.
  26. ^ Casella y Berger 2001, ejemplo 2.2.3; Ross 2019, Ejemplo 2.17.
  27. ^ Billingsley 1995, ejemplo 21.4; Casella y Berger 2001, pág. 92; Ross 2019, Ejemplo 2.19.
  28. ^ Casella y Berger 2001, pag. 97; Ross 2019, Ejemplo 2.18.
  29. ^ Casella y Berger 2001, pag. 99; Ross 2019, Ejemplo 2.20.
  30. ^ Billingsley 1995, ejemplo 21.3; Casella y Berger 2001, Ejemplo 2.2.2; Ross 2019, Ejemplo 2.21.
  31. ^ Casella y Berger 2001, pag. 103; Ross 2019, Ejemplo 2.22.
  32. ^ Billingsley 1995, ejemplo 21.1; Casella y Berger 2001, pág. 103.
  33. ^ Johnson, Kotz y Balakrishnan 1994, capítulo 20.
  34. ^ Feller 1971, Sección II.4.
  35. ^ abc Weisstein, Eric W. "Valor esperado". mathworld.wolfram.com . Consultado el 11 de septiembre de 2020 .
  36. ^ Papoulis y Pillai 2002, sección 6-4.
  37. ^ ab Feller 1968, Sección IX.6; Feller 1971, Sección V.7; Papoulis y Pillai 2002, Sección 5-4; Ross 2019, Sección 2.8.
  38. ^ Feller 1968, Sección IX.6.
  39. ^ Feller 1968, Sección IX.7.
  40. ^ abcd Feller 1971, sección V.8.
  41. ^ Billingsley 1995, págs.81, 277.
  42. ^ Billingsley 1995, sección 19.

Bibliografía