stringtranslate.com

Distribución de Bernoulli

En teoría de probabilidad y estadística , la distribución de Bernoulli , llamada así por el matemático suizo Jacob Bernoulli , [1] es la distribución de probabilidad discreta de una variable aleatoria que toma el valor 1 con probabilidad y el valor 0 con probabilidad . De manera menos formal, se puede considerar como un modelo para el conjunto de resultados posibles de cualquier experimento individual que haga una pregunta de sí o no . Tales preguntas conducen a resultados que tienen un valor booleano : un solo bit cuyo valor es éxito/ sí / verdadero / uno con probabilidad p y fracaso/no/ falso / cero con probabilidad q . Se puede utilizar para representar un lanzamiento de moneda (posiblemente sesgado) donde 1 y 0 representarían "cara" y "cruz", respectivamente, y p sería la probabilidad de que la moneda caiga en cara (o viceversa, donde 1 representaría cruz y p sería la probabilidad de cruz). En particular, las monedas injustas tendrían

La distribución de Bernoulli es un caso especial de la distribución binomial en el que se realiza un único ensayo (por lo que n sería 1 para dicha distribución binomial). También es un caso especial de la distribución de dos puntos , para la que los resultados posibles no necesitan ser 0 y 1. [2]

Propiedades

Si es una variable aleatoria con distribución de Bernoulli, entonces:

La función de masa de probabilidad de esta distribución, sobre posibles resultados k , es

[3]

Esto también se puede expresar como

o como

La distribución de Bernoulli es un caso especial de la distribución binomial con [4]

La curtosis tiende al infinito para valores altos y bajos de pero las distribuciones de dos puntos, incluida la distribución de Bernoulli, tienen un exceso de curtosis menor , es decir, −2, que cualquier otra distribución de probabilidad.

Las distribuciones de Bernoulli forman una familia exponencial .

El estimador de máxima verosimilitud de basado en una muestra aleatoria es la media de la muestra .

La función de distribución de masa de probabilidad de un experimento de Bernoulli junto con su función de distribución acumulativa correspondiente.

Significar

El valor esperado de una variable aleatoria de Bernoulli es

Esto se debe al hecho de que para una variable aleatoria distribuida según Bernoulli con y encontramos

[3]

Diferencia

La varianza de una distribución de Bernoulli es

Primero encontramos

De esto se desprende

[3]

Con este resultado es fácil demostrar que, para cualquier distribución de Bernoulli, su varianza tendrá un valor dentro de .

Oblicuidad

La asimetría es . Cuando tomamos la variable aleatoria distribuida Bernoulli estandarizada, encontramos que esta variable aleatoria alcanza con probabilidad y alcanza con probabilidad . Por lo tanto, obtenemos

Momentos superiores y cumulantes

Los momentos crudos son todos iguales debido al hecho de que y .

El momento central del orden viene dado por

Los primeros seis momentos centrales son

Los momentos centrales superiores se pueden expresar de forma más compacta en términos de y

Los primeros seis cumulantes son

Entropía e información de Fisher

Entropía

La entropía es una medida de incertidumbre o aleatoriedad en una distribución de probabilidad. Para una variable aleatoria de Bernoulli con probabilidad de éxito y probabilidad de fracaso , la entropía se define como:

La entropía se maximiza cuando , lo que indica el nivel más alto de incertidumbre cuando ambos resultados son igualmente probables. La entropía es cero cuando o , donde un resultado es seguro.

Información de Fisher

La información de Fisher mide la cantidad de información que una variable aleatoria observable contiene sobre un parámetro desconocido del que depende la probabilidad de que ocurra. Para la distribución de Bernoulli, la información de Fisher con respecto al parámetro viene dada por:

Prueba:

Esto representa la probabilidad de observar dado el parámetro .

Se maximiza cuando , reflejando la máxima incertidumbre y por tanto la máxima información sobre el parámetro .

Distribuciones relacionadas

La distribución de Bernoulli es simplemente , también escrita como

Véase también

Referencias

  1. ^ Uspensky, James Victor (1937). Introducción a la probabilidad matemática . Nueva York: McGraw-Hill. pág. 45. OCLC  996937.
  2. ^ Dekking, Frederik; Kraaikamp, ​​Cornelis; Lopuhaä, Hendrik; Meester, Ludolf (9 de octubre de 2010). Una introducción moderna a la probabilidad y la estadística (1 ed.). Springer Londres. págs. 43–48. ISBN 9781849969529.
  3. ^ abcd Bertsekas, Dimitri P. (2002). Introducción a la probabilidad . Tsitsiklis, John N. , Τσιτσικλής, Γιάννης Ν. Belmont, Massachusetts: Athena Scientific. ISBN 188652940X.OCLC 51441829  .
  4. ^ McCullagh, Peter ; Nelder, John (1989). Modelos lineales generalizados, segunda edición . Boca Raton: Chapman and Hall/CRC. Sección 4.2.2. ISBN 0-412-31760-5.
  5. ^ Orloff, Jeremy; Bloom, Jonathan. "Prioridades conjugadas: beta y normal" (PDF) . math.mit.edu . Consultado el 20 de octubre de 2023 .

Lectura adicional

Enlaces externos