stringtranslate.com

Distribución geométrica

En teoría de probabilidad y estadística , la distribución geométrica es una de dos distribuciones de probabilidad discretas :

Cuál de ellas se denomina distribución geométrica es una cuestión de convención y conveniencia.

Estas dos distribuciones geométricas diferentes no deben confundirse entre sí. A menudo, se adopta el nombre de distribución geométrica desplazada para la primera (distribución de ); sin embargo, para evitar ambigüedades, se considera prudente indicar cuál es el objetivo, mencionando explícitamente el soporte.

La distribución geométrica da la probabilidad de que la primera ocurrencia de éxito requiera pruebas independientes, cada una con probabilidad de éxito . Si la probabilidad de éxito en cada prueba es , entonces la probabilidad de que la enésima prueba sea el primer éxito es

para

La forma anterior de distribución geométrica se utiliza para modelar el número de pruebas hasta el primer éxito inclusive. Por el contrario, se utiliza la siguiente forma de distribución geométrica para modelar el número de fracasos hasta el primer éxito:

para

En cualquier caso, la secuencia de probabilidades es una secuencia geométrica .

Por ejemplo, supongamos que se lanza repetidamente un dado normal hasta que aparece por primera vez un "1". La distribución de probabilidad del número de veces que se lanza se apoya en el conjunto infinito y es una distribución geométrica con .

La distribución geométrica se denota por Geo( p ) donde . [1]

Definiciones

Considere una secuencia de pruebas, donde cada prueba tiene sólo dos resultados posibles (fracaso y éxito designados). Se supone que la probabilidad de éxito es la misma para cada prueba. En tal secuencia de pruebas, la distribución geométrica es útil para modelar el número de fracasos antes del primer éxito, ya que el experimento puede tener un número indefinido de pruebas hasta el éxito, a diferencia de la distribución binomial que tiene un número determinado de pruebas. La distribución da la probabilidad de que haya cero fracasos antes del primer éxito, un fracaso antes del primer éxito, dos fracasos antes del primer éxito, y así sucesivamente. [2]

Supuestos: ¿Cuándo la distribución geométrica es un modelo apropiado?

La distribución geométrica es un modelo apropiado si los siguientes supuestos son verdaderos. [3]

Si estas condiciones son verdaderas, entonces la variable aleatoria geométrica Y es el recuento del número de fracasos antes del primer éxito. El número posible de fracasos antes del primer éxito es 0, 1, 2, 3, etc. En los gráficos anteriores, esta formulación se muestra a la derecha.

Una formulación alternativa es que la variable aleatoria geométrica X es el número total de intentos hasta el primer éxito inclusive, y el número de fracasos es X  − 1. En los gráficos anteriores, esta formulación se muestra a la izquierda.

Ejemplos de resultados de probabilidad

La fórmula general para calcular la probabilidad de k fracasos antes del primer éxito, donde la probabilidad de éxito es p y la probabilidad de fracaso es  q  = 1 −  p , es

para k = 0, 1, 2, 3, ...

E1) Un médico busca un antidepresivo para un paciente recién diagnosticado. Supongamos que, de los fármacos antidepresivos disponibles, la probabilidad de que cualquier fármaco en particular sea eficaz para un paciente en particular es p  = 0,6. ¿Cuál es la probabilidad de que el primer fármaco que se considere eficaz para este paciente sea el primer fármaco probado, el segundo fármaco probado, y así sucesivamente? ¿Cuál es la cantidad esperada de medicamentos que se probarán para encontrar uno que sea efectivo?

La probabilidad de que el primer fármaco funcione. No hay fracasos antes del primer éxito. Y  = 0 fallos. La probabilidad Pr (cero fracasos antes del primer éxito) es simplemente la probabilidad de que el primer fármaco funcione.

La probabilidad de que el primer fármaco falle, pero el segundo funcione. Hay un fracaso antes del primer éxito. Y = 1 fallo. La probabilidad de esta secuencia de eventos es Pr (el primer fármaco falla) p (el segundo fármaco tiene éxito), que viene dada por

La probabilidad de que el primer fármaco falle, el segundo fármaco falle, pero el tercero funcione. Hay dos fracasos antes del primer éxito. Y  = 2 fracasos. La probabilidad de esta secuencia de eventos es Pr(el primer fármaco falla) p(el segundo fármaco falla) Pr(el tercer fármaco tiene éxito)

E2) Una pareja de recién casados ​​planea tener hijos y continuará hasta tener la primera niña. ¿Cuál es la probabilidad de que haya cero niños antes de la primera niña, un niño antes de la primera niña, dos niños antes de la primera niña, etc.?

La probabilidad de tener una niña (éxito) es p = 0,5 y la probabilidad de tener un niño (fracaso) es q  = 1 −  p  = 0,5.

La probabilidad de que no haya niños antes de la primera niña es

La probabilidad de que haya un niño antes que la primera niña es

La probabilidad de que haya dos niños antes que la primera niña es

etcétera.

Propiedades

Momentos y cumulantes

El valor esperado para el número de ensayos independientes para obtener el primer éxito y la varianza de una variable aleatoria X distribuida geométricamente es:

De manera similar, el valor esperado y la varianza de la variable aleatoria distribuida geométricamente Y = X  - 1 (Ver definición de distribución ) es:

Prueba

Valor esperado de X

Considere el valor esperado de X como se indicó anteriormente, es decir, el número promedio de intentos hasta lograr el éxito. En el primer intento, o tenemos éxito con probabilidad o fallamos con probabilidad . Si fallamos la media restante de intentos hasta que un éxito sea idéntico a la media original. Esto se desprende del hecho de que todos los ensayos son independientes. De esto obtenemos la fórmula:

que si se resuelve da :

Valor esperado de Y

Que el valor esperado de Y como se indicó anteriormente es (1 −  p )/ p se puede ver trivialmente o se puede mostrar de la siguiente manera:

El intercambio de suma y diferenciación se justifica por el hecho de que las series de potencias convergentes convergen uniformemente en subconjuntos compactos del conjunto de puntos donde convergen.

Sea μ = (1 −  p )/ p el valor esperado de Y . Entonces los cumulantes de la distribución de probabilidad de Y satisfacen la recursividad

Ejemplos de valor esperado

E3) Un paciente está esperando un donante de riñón compatible adecuado para un trasplante. Si la probabilidad de que un donante seleccionado al azar sea compatible es p  = 0,1, ¿cuál es el número esperado de donantes que se someterán a pruebas antes de encontrar un donante compatible?

Con p = 0,1, el número medio de fracasos antes del primer éxito es E( Y ) = (1 − p )/ p =(1 − 0,1)/0,1 = 9.

Para la formulación alternativa, donde X es el número de intentos hasta el primer éxito inclusive, el valor esperado es E( X ) = 1/ p = 1/0,1 = 10.

Por ejemplo 1 anterior, con p = 0,6, el número medio de fracasos antes del primer éxito es E( Y ) = (1 − p )/ p = (1 − 0,6)/0,6 = 0,67.

Momentos de orden superior

Los momentos para el número de fracasos antes del primer éxito están dados por

¿Dónde está la función polilogaritmo ?

Propiedades generales

La distribución geométrica admitida en {0, 1, 2, 3, ... } es la única distribución discreta sin memoria. Tenga en cuenta que la distribución geométrica admitida en {1, 2, ... } no carece de memoria.
donde q  = 1 −  p , y de manera similar para los otros dígitos y, de manera más general, de manera similar para sistemas numéricos con bases distintas a 10. Cuando la base es 2, esto muestra que una variable aleatoria distribuida geométricamente se puede escribir como una suma de Variables aleatorias independientes cuyas distribuciones de probabilidad son indescomponibles .

Distribuciones relacionadas

sigue una distribución binomial negativa con parámetros r  y  p . [6]
también está distribuida geométricamente, con parámetro [7]
tiene una distribución geométrica que toma valores en el conjunto {0, 1, 2, ...}, con valor esperado r /(1 −  r ). [ cita necesaria ]
donde es la función piso (o entero mayor), es una variable aleatoria distribuida geométricamente con parámetro p  = 1 −  e λ (por lo tanto λ  = −ln(1 −  p ) [8] ) y que toma valores en el conjunto {0, 1, 2, ...}. Esto se puede utilizar para generar números pseudoaleatorios distribuidos geométricamente generando primero números pseudoaleatorios distribuidos exponencialmente a partir de un generador de números pseudoaleatorios uniforme : luego se distribuye geométricamente con el parámetro , si está distribuido uniformemente en [0,1].

De manera más general, si p  =  λ / n , donde λ es un parámetro, entonces cuando n → ∞ la distribución de X / n se aproxima a una distribución exponencial con tasa λ :

por lo tanto la función de distribución de X / n converge a , que es la de una variable aleatoria exponencial.

Inferencia estadística

Estimación de parámetros

Para ambas variantes de la distribución geométrica, el parámetro p se puede estimar igualando el valor esperado con la media muestral . Este es el método de los momentos , que en este caso produce estimaciones de máxima verosimilitud de p . [9] [10]

Específicamente, para la primera variante, sea k  =  k 1 , ...,  k n una muestra donde k i  ≥ 1 para i  = 1, ...,  n . Entonces p puede estimarse como

En la inferencia bayesiana , la distribución Beta es la distribución previa conjugada del parámetro p . Si a este parámetro se le da una Beta ( αβ ) antes , entonces la distribución posterior es

La media posterior E[ p ] se acerca a la estimación de máxima verosimilitud cuando α y β se acercan a cero.

En el caso alternativo, sea k 1 , ...,  k n una muestra donde k i  ≥ 0 para i  = 1, ...,  n . Entonces p puede estimarse como

La distribución posterior de p dada una Beta( αβ ) previa es [11]

Nuevamente la media posterior E[ p ] se acerca a la estimación de máxima verosimilitud cuando α y β se acercan a cero.

Para cualquier estimación del uso de Máxima Verosimilitud, el sesgo es igual a

lo que produce el estimador de máxima verosimilitud corregido por el sesgo

Métodos computacionales

Distribución geométrica usando R

La función R calcula la probabilidad de que haya k fracasos antes del primer éxito, donde el argumento "prob" es la probabilidad de éxito en cada intento.dgeom(k, prob)

Por ejemplo,

dgeom(0,0.6) = 0.6

dgeom(1,0.6) = 0.24

R usa la convención de que k es el número de fracasos, de modo que el número de intentos hasta el primer éxito inclusive es k + 1.

El siguiente código R crea una gráfica de la distribución geométrica de Y = 0 a 10, con p = 0,6.

Y = 0 : 10plot ( Y , dgeom ( Y , 0.6 ), type = "h" , ylim = c ( 0 , 1 ), main = "Distribución geométrica para p=0.6" , ylab = "Pr(Y=Y)" , xlab = "Y=Número de fracasos antes del primer éxito" )      

Distribución geométrica usando Excel.

La distribución geométrica, para el número de fracasos antes del primer éxito, es un caso especial de la distribución binomial negativa , para el número de fracasos antes de s éxitos.

La función de Excel NEGBINOMDIST(number_f, number_s, probability_s)calcula la probabilidad de k = número_f fracasos antes de s = número_s éxitos, donde p = probabilidad_s es la probabilidad de éxito en cada prueba. Para la distribución geométrica, sea número_s = 1 éxito. [12]

Por ejemplo,

=NEGBINOMDIST(0, 1, 0.6)= 0,6
=NEGBINOMDIST(1, 1, 0.6)= 0,24

Al igual que R, Excel utiliza la convención de que k es el número de fracasos, de modo que el número de intentos hasta el primer éxito inclusive es k + 1.

Ver también

Referencias

  1. ^ ab Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Dekking, Michel, 1946-. Londres: Springer. 2005. págs. 48–50, 61–62, 152. ISBN 9781852338961. OCLC  262680588.{{cite book}}: CS1 maint: others (link)
  2. ^ Holmes, Alejandro; Illowsky, Bárbara; Dean, Susan (29 de noviembre de 2017). Estadísticas empresariales introductorias. Houston, Texas: OpenStax.
  3. ^ Raikar, Sanat Pai (31 de agosto de 2023). "Distribución geométrica". Enciclopedia Británica .
  4. ^ Parque, Sung Y.; Bera, Anil K. (junio de 2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía". Revista de Econometría . 150 (2): 219–230. doi :10.1016/j.jeconom.2008.12.014.
  5. ^ Gallager, R.; van Voorhis, D. (marzo de 1975). "Códigos fuente óptimos para alfabetos enteros distribuidos geométricamente (Corresp.)". Transacciones IEEE sobre teoría de la información . 21 (2): 228–230. doi :10.1109/TIT.1975.1055357. ISSN  0018-9448.
  6. ^ Pitman, Jim. Probabilidad (edición de 1993). Editores Springer. págs. 372.
  7. ^ Ciardo, Gianfranco; Leemis, Lawrence M.; Nicol, David (1 de junio de 1995). "Sobre el mínimo de variables aleatorias independientes distribuidas geométricamente". Cartas de estadística y probabilidad . 23 (4): 313–326. doi :10.1016/0167-7152(94)00130-Z. hdl : 2060/19940028569 . S2CID  1505801.
  8. ^ "Wolfram-Alpha: motor de conocimiento computacional". www.wolframalpha.com .
  9. ^ casella, george; Berger, Roger l (2002). inferencia estadística (2ª ed.). págs. 312–315. ISBN 0-534-24312-6.
  10. ^ "Ejemplos de MLE: distribuciones exponenciales y geométricas Old Kiwi - Rhea". www.projectrhea.org . Consultado el 17 de noviembre de 2019 .
  11. ^ "3. Familias conjugadas de distribuciones" (PDF) . Archivado (PDF) desde el original el 8 de abril de 2010.
  12. ^ "3.5 Distribución de probabilidad geométrica utilizando una hoja de cálculo de Excel". Estadística LibreTexts . 2021-07-24 . Consultado el 20 de octubre de 2023 .

enlaces externos