stringtranslate.com

Distribución exponencial

En teoría de probabilidad y estadística , la distribución exponencial o distribución exponencial negativa es la distribución de probabilidad de la distancia entre eventos en un proceso puntual de Poisson , es decir, un proceso en el que los eventos ocurren de manera continua e independiente a una tasa promedio constante; el parámetro de distancia podría ser cualquier medida unidimensional significativa del proceso, como el tiempo entre errores de producción o la longitud a lo largo de un rollo de tela en el proceso de fabricación de tejidos. Es un caso particular de la distribución gamma . Es el análogo continuo de la distribución geométrica y tiene la propiedad clave de no tener memoria . Además de usarse para el análisis de procesos puntuales de Poisson, se encuentra en varios otros contextos.

La distribución exponencial no es lo mismo que la clase de familias exponenciales de distribuciones. Se trata de una gran clase de distribuciones de probabilidad que incluye la distribución exponencial como uno de sus miembros, pero también incluye muchas otras distribuciones, como la distribución normal , la binomial , la gamma y la de Poisson .

Definiciones

Función de densidad de probabilidad

La función de densidad de probabilidad (pdf) de una distribución exponencial es

Aquí λ > 0 es el parámetro de la distribución, a menudo llamado parámetro de tasa . La distribución se sustenta en el intervalo  [0, ∞) . Si una variable aleatoria X tiene esta distribución, escribimos  X ~ Exp( λ ) .

La distribución exponencial exhibe divisibilidad infinita .

Función de distribución acumulativa

La función de distribución acumulativa está dada por

Parametrización alternativa

La distribución exponencial a veces se parametriza en términos del parámetro de escala β = 1/ λ , que también es la media:

Propiedades

Media, varianza, momentos y mediana

La media es el centro de masa de probabilidad, es decir, el primer momento .
La mediana es la preimagen F −1 (1/2).

El valor medio o esperado de una variable aleatoria X distribuida exponencialmente con parámetro de tasa λ viene dado por

A la luz de los ejemplos que se dan a continuación, esto tiene sentido: una persona que recibe un promedio de dos llamadas telefónicas por hora puede esperar que el tiempo entre llamadas consecutivas sea de 0,5 horas o 30 minutos.

La varianza de X está dada por lo que la desviación estándar es igual a la media.

Los momentos de X , para están dados por

Los momentos centrales de X , para están dados por donde ! n es el subfactorial de n

La mediana de X está dada por donde ln se refiere al logaritmo natural . Por lo tanto, la diferencia absoluta entre la media y la mediana es

de acuerdo con la desigualdad mediana-media .

Propiedad de falta de memoria de la variable aleatoria exponencial

Una variable aleatoria T distribuida exponencialmente obedece la relación

Esto se puede ver considerando la función de distribución acumulativa complementaria :

Cuando T se interpreta como el tiempo de espera para que ocurra un evento en relación con un tiempo inicial, esta relación implica que, si T está condicionada a la falta de observación del evento durante un período de tiempo inicial s , la distribución del tiempo de espera restante es la misma que la distribución incondicional original. Por ejemplo, si un evento no ha ocurrido después de 30 segundos, la probabilidad condicional de que ocurra tardará al menos 10 segundos más es igual a la probabilidad incondicional de observar el evento más de 10 segundos después del tiempo inicial.

La distribución exponencial y la distribución geométrica son las únicas distribuciones de probabilidad sin memoria .

La distribución exponencial es, por tanto, necesariamente también la única distribución de probabilidad continua que tiene una tasa de fallo constante .

Cuantiles

Criterios de anomalía de Tukey para la función de distribución de probabilidad exponencial.
Criterios de Tukey para anomalías. [ cita requerida ]

La función cuantil (función de distribución acumulativa inversa) para Exp( λ ) es

Los cuartiles son por tanto:

Y como consecuencia el rango intercuartil es ln(3)/ λ .

Valor condicional en riesgo (déficit esperado)

El valor condicional en riesgo (CVaR), también conocido como déficit esperado o supercuantil para Exp( λ ), se deriva de la siguiente manera: [1]

Probabilidad de excedencia amortiguada (bPOE)

La probabilidad amortiguada de excedencia es igual a uno menos el nivel de probabilidad en el que el CVaR es igual al umbral . Se obtiene de la siguiente manera: [1]

Divergencia de Kullback-Leibler

La divergencia dirigida de Kullback-Leibler en nats de (distribución "aproximada") de (distribución "verdadera") está dada por

Distribución de máxima entropía

Entre todas las distribuciones de probabilidad continuas con soporte [0, ∞) y media μ , la distribución exponencial con λ = 1/ μ tiene la entropía diferencial más grande . En otras palabras, es la distribución de probabilidad de entropía máxima para una variable aleatoria X que es mayor o igual a cero y para la cual E[ X ] es fija. [2]

Distribución del mínimo de variables aleatorias exponenciales

Sean X 1 , …, X n variables aleatorias independientes distribuidas exponencialmente con parámetros de velocidad λ 1 , …, λ n . Entonces también se distribuye exponencialmente, con parámetro

Esto se puede ver considerando la función de distribución acumulativa complementaria :

El índice de la variable que alcanza el mínimo se distribuye según la distribución categórica

Se puede ver una prueba haciendo . Entonces,

Nótese que no se distribuye exponencialmente, si X 1 , …, X n no tienen todos parámetro 0. [3]

Momentos conjuntos de estadísticas de orden exponencial iid

Sean variables aleatorias exponenciales independientes e idénticamente distribuidas con parámetro de velocidad λ . Denotemos las estadísticas de orden correspondientes . Para , el momento conjunto de las estadísticas de orden y está dado por

Esto se puede comprobar invocando la ley de la expectativa total y la propiedad de la falta de memoria:

La primera ecuación se desprende de la ley de la expectativa total . La segunda ecuación aprovecha el hecho de que una vez que condicionamos a , debe seguirse que . La tercera ecuación se basa en la propiedad sin memoria de reemplazar por .

Suma de dos variables aleatorias exponenciales independientes

La función de distribución de probabilidad (PDF) de una suma de dos variables aleatorias independientes es la convolución de sus PDF individuales . Si y son variables aleatorias exponenciales independientes con respectivos parámetros de tasa y entonces la densidad de probabilidad de está dada por La entropía de esta distribución está disponible en forma cerrada: suponiendo (sin pérdida de generalidad), entonces donde es la constante de Euler-Mascheroni , y es la función digamma . [4]

En el caso de parámetros de velocidad iguales, el resultado es una distribución Erlang con forma 2 y parámetro que a su vez es un caso especial de distribución gamma .

La suma de n variables aleatorias exponenciales independientes Exp( λ) tiene una distribución Gamma(n, λ) .

Distribuciones relacionadas

Otras distribuciones relacionadas:

Inferencia estadística

A continuación, supongamos que la variable aleatoria X se distribuye exponencialmente con el parámetro de tasa λ, y son n muestras independientes de X , con media muestral .

Estimación de parámetros

El estimador de máxima verosimilitud para λ se construye de la siguiente manera.

La función de verosimilitud para λ, dada una muestra independiente e idénticamente distribuida x = ( x 1 , …, x n ) extraída de la variable, es:

donde: es la media de la muestra.

La derivada del logaritmo de la función de verosimilitud es:

En consecuencia, la estimación de máxima verosimilitud para el parámetro de tasa es:

Este no es un estimador imparcial de aunque es un estimador independiente [6] MLE [7] de y la media de distribución.

El sesgo de es igual a lo que produce el estimador de máxima verosimilitud corregido por sesgo

Se puede encontrar un minimizador aproximado del error cuadrático medio (ver también: equilibrio entre sesgo y varianza ), asumiendo un tamaño de muestra mayor que dos, con un factor de corrección para el error cuadrático medio: Esto se deriva de la media y la varianza de la distribución gamma inversa , . [8]

Información de Fisher

La información de Fisher , denotada , para un estimador del parámetro de tasa se da como:

Conectando la distribución y resolviendo obtenemos:

Esto determina la cantidad de información que cada muestra independiente de una distribución exponencial lleva sobre el parámetro de tasa desconocido .

Intervalos de confianza

Un intervalo de confianza exacto del 100(1 − α)% para el parámetro de tasa de una distribución exponencial viene dado por: [9] que también es igual a donde χ2
pág. , vág.
es el percentil 100( p ) de la distribución de chi cuadrado con v grados de libertad , n es el número de observaciones y la barra x es el promedio de la muestra. Se puede derivar una aproximación simple a los puntos finales exactos del intervalo utilizando una aproximación normal a χ 2
pág. , vág.
distribución. Esta aproximación da los siguientes valores para un intervalo de confianza del 95%:

Esta aproximación puede ser aceptable para muestras que contengan al menos entre 15 y 20 elementos. [10]

Inferencia bayesiana

La distribución conjugada anterior de la distribución exponencial es la distribución gamma (de la cual la distribución exponencial es un caso especial). La siguiente parametrización de la función de densidad de probabilidad gamma resulta útil:

La distribución posterior p puede entonces expresarse en términos de la función de verosimilitud definida anteriormente y una distribución gamma previa:

Ahora se ha especificado la densidad posterior p hasta una constante normalizadora faltante. Dado que tiene la forma de una función de densidad de probabilidad gamma, esto se puede completar fácilmente y se obtiene:

Aquí el hiperparámetro α puede interpretarse como el número de observaciones previas y β como la suma de las observaciones previas. La media posterior aquí es:

Ocurrencia y aplicaciones

Ocurrencia de eventos

La distribución exponencial ocurre naturalmente cuando se describen las longitudes de los tiempos entre llegadas en un proceso de Poisson homogéneo .

La distribución exponencial puede considerarse como una contraparte continua de la distribución geométrica , que describe el número de ensayos de Bernoulli necesarios para que un proceso discreto cambie de estado. Por el contrario, la distribución exponencial describe el tiempo que tarda un proceso continuo en cambiar de estado.

En situaciones del mundo real, el supuesto de una tasa constante (o probabilidad por unidad de tiempo) rara vez se cumple. Por ejemplo, la tasa de llamadas entrantes varía según la hora del día. Pero si nos centramos en un intervalo de tiempo durante el cual la tasa es aproximadamente constante, como de 14 a 16 horas durante los días laborables, la distribución exponencial se puede utilizar como un buen modelo aproximado para el tiempo hasta que llega la siguiente llamada telefónica. Se aplican advertencias similares a los siguientes ejemplos que arrojan variables distribuidas de manera aproximadamente exponencial:

Las variables exponenciales también se pueden utilizar para modelar situaciones en las que ciertos eventos ocurren con una probabilidad constante por unidad de longitud, como la distancia entre mutaciones en una cadena de ADN o entre animales atropellados en una carretera determinada.

En la teoría de colas , los tiempos de servicio de los agentes en un sistema (por ejemplo, cuánto tarda un cajero de banco, etc., en atender a un cliente) suelen modelarse como variables distribuidas exponencialmente. (La llegada de clientes, por ejemplo, también se modela mediante la distribución de Poisson si las llegadas son independientes y se distribuyen de forma idéntica). La duración de un proceso que puede considerarse como una secuencia de varias tareas independientes sigue la distribución de Erlang (que es la distribución de la suma de varias variables independientes distribuidas exponencialmente). La teoría de la fiabilidad y la ingeniería de la fiabilidad también hacen un uso extensivo de la distribución exponencial. Debido a la propiedad de falta de memoria de esta distribución, es adecuada para modelar la parte de tasa de riesgo constante de la curva de la bañera utilizada en la teoría de la fiabilidad. También es muy conveniente porque es muy fácil añadir tasas de fallos en un modelo de fiabilidad. Sin embargo, la distribución exponencial no es adecuada para modelar la vida útil total de organismos o dispositivos técnicos, porque las "tasas de fallos" aquí no son constantes: se producen más fallos en sistemas muy jóvenes y muy antiguos.

Distribución exponencial acumulativa ajustada a las precipitaciones máximas diarias anuales utilizando CumFreq [11]

En física , si se observa un gas a una temperatura y presión fijas en un campo gravitatorio uniforme , las alturas de las distintas moléculas también siguen una distribución exponencial aproximada, conocida como fórmula barométrica . Esto es una consecuencia de la propiedad de la entropía que se menciona a continuación.

En hidrología , la distribución exponencial se utiliza para analizar valores extremos de variables como los valores máximos mensuales y anuales de las precipitaciones diarias y los volúmenes de descarga de los ríos. [12]

La imagen azul ilustra un ejemplo de ajuste de la distribución exponencial a las precipitaciones máximas diarias anuales clasificadas, mostrando también el rango de confianza del 90 % basado en la distribución binomial . Los datos de precipitaciones se representan mediante el trazado de posiciones como parte del análisis de frecuencia acumulada .

En la gestión de quirófanos, distribución de la duración de las cirugías para una categoría de cirugías sin un contenido de trabajo típico (como en una sala de urgencias, que abarca todo tipo de cirugías).

Predicción

Tras observar una muestra de n puntos de datos de una distribución exponencial desconocida, una tarea habitual consiste en utilizar estas muestras para hacer predicciones sobre datos futuros de la misma fuente. Una distribución predictiva habitual sobre muestras futuras es la denominada distribución de complemento, que se forma introduciendo una estimación adecuada para el parámetro de tasa λ en la función de densidad exponencial. Una opción habitual de estimación es la proporcionada por el principio de máxima verosimilitud, y su utilización da como resultado la densidad predictiva sobre una muestra futura x n +1 , condicionada a las muestras observadas x = ( x 1 , ..., x n ) dada por

El enfoque bayesiano proporciona una distribución predictiva que tiene en cuenta la incertidumbre del parámetro estimado, aunque esto puede depender fundamentalmente de la elección del valor anterior.

Una distribución predictiva libre de los problemas de elección de valores previos que surgen bajo el enfoque bayesiano subjetivo es

que puede considerarse como

  1. una distribución de confianza frecuentista , obtenida a partir de la distribución de la cantidad fundamental ; [13]
  2. una probabilidad predictiva de perfil, obtenida eliminando el parámetro λ de la probabilidad conjunta de x n +1 y λ por maximización; [14]
  3. una distribución posterior predictiva bayesiana objetiva, obtenida utilizando la distribución previa de Jeffreys no informativa 1/ λ ;
  4. la distribución predictiva de máxima verosimilitud normalizada condicional (CNML), a partir de consideraciones de teoría de la información. [15]

La precisión de una distribución predictiva se puede medir utilizando la distancia o divergencia entre la distribución exponencial verdadera con parámetro de tasa, λ 0 , y la distribución predictiva basada en la muestra x . La divergencia de Kullback-Leibler es una medida de uso común, libre de parametrización, de la diferencia entre dos distribuciones. Si Δ( λ 0 || p ) denota la divergencia de Kullback-Leibler entre una distribución exponencial con parámetro de tasa λ 0 y una distribución predictiva p , se puede demostrar que

donde la expectativa se toma con respecto a la distribución exponencial con parámetro de tasa λ 0 ∈ (0, ∞) , y ψ( · ) es la función digamma. Está claro que la distribución predictiva CNML es estrictamente superior a la distribución de complemento de máxima verosimilitud en términos de divergencia promedio de Kullback–Leibler para todos los tamaños de muestra n > 0 .

Generación de variables aleatorias

Un método conceptualmente muy simple para generar variables exponenciales se basa en el muestreo por transformada inversa : dada una variable aleatoria U extraída de la distribución uniforme en el intervalo unitario (0, 1) , la variable

tiene una distribución exponencial, donde F −1 es la función cuantil , definida por

Además, si U es uniforme en (0, 1), entonces también lo es 1 − U . Esto significa que se pueden generar variables exponenciales de la siguiente manera:

Knuth [16] y Devroye [17] analizan otros métodos para generar variables exponenciales .

También está disponible un método rápido para generar un conjunto de variables exponenciales listas para ordenar sin utilizar una rutina de clasificación. [17]

Véase también

Referencias

  1. ^ ab Norton, Matthew; Khokhlov, Valentyn; Uryasev, Stan (2019). "Cálculo de CVaR y bPOE para distribuciones de probabilidad comunes con aplicación a la optimización de carteras y estimación de densidad" (PDF) . Anales de investigación de operaciones . 299 (1–2). Springer: 1281–1315. doi :10.1007/s10479-019-03373-1. Archivado desde el original (PDF) el 2023-03-31 . Consultado el 2023-02-27 .
  2. ^ Park, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Journal of Econometrics . 150 (2). Elsevier: 219–230. doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 2016-03-07 . Consultado el 2011-06-02 .
  3. ^ Michael, Lugo. «La esperanza del máximo de las exponenciales» (PDF) . Archivado desde el original (PDF) el 20 de diciembre de 2016. Consultado el 13 de diciembre de 2016 .
  4. ^ Eckford, Andrew W.; Thomas, Peter J. (2016). "Entropía de la suma de dos variables aleatorias exponenciales independientes y no idénticamente distribuidas". arXiv : 1609.02911 [cs.IT].
  5. ^ Ibe, Oliver C. (2014). Fundamentos de probabilidad aplicada y procesos aleatorios (2.ª ed.). Academic Press. pág. 128. ISBN 9780128010358.
  6. ^ Richard Arnold Johnson; Dean W. Wichern (2007). Análisis estadístico multivariante aplicado. Pearson Prentice Hall. ISBN 978-0-13-187715-3. Recuperado el 10 de agosto de 2012 .
  7. ^ Manual electrónico de métodos estadísticos del NIST/SEMATECH
  8. ^ Elfessi, Abdulaziz; Reineke, David M. (2001). "Una mirada bayesiana a la estimación clásica: la distribución exponencial". Revista de Educación en Estadística . 9 (1). doi : 10.1080/10691898.2001.11910648 .
  9. ^ Ross, Sheldon M. (2009). Introducción a la probabilidad y la estadística para ingenieros y científicos (4.ª ed.). Associated Press. pág. 267. ISBN 978-0-12-370483-2.
  10. ^ Guerriero, V. (2012). "Distribución de la ley de potencia: método de estadística inferencial multiescala". Journal of Modern Mathematics Frontier . 1 : 21–28.
  11. ^ "Cumfreq, un programa informático gratuito para el análisis de frecuencia acumulativa".
  12. ^ Ritzema, HP, ed. (1994). Análisis de frecuencia y regresión. Capítulo 6 en: Principios y aplicaciones del drenaje, Publicación 16, Instituto Internacional para la Recuperación y Mejora de Tierras (ILRI), Wageningen, Países Bajos. Págs. 175–224. ISBN 90-70754-33-9.
  13. ^ Lawless, JF; Fredette, M. (2005). "Intervalos de predicción frecuentistas y distribuciones predictivas". Biometrika . 92 (3): 529–542. doi :10.1093/biomet/92.3.529.
  14. ^ Bjornstad, JF (1990). "Probabilidad predictiva: una revisión". Statist. Sci . 5 (2): 242–254. doi : 10.1214/ss/1177012175 .
  15. ^ DF Schmidt y E. Makalic, "Modelos universales para la distribución exponencial", IEEE Transactions on Information Theory , volumen 55, número 7, págs. 3087-3090, 2009 doi :10.1109/TIT.2009.2018331
  16. ^ Donald E. Knuth (1998). The Art of Computer Programming , volumen 2: Seminumerical Algorithms , 3.ª ed. Boston: Addison–Wesley. ISBN 0-201-89684-2 . Véase la sección 3.4.1, pág. 133. 
  17. ^ ab Luc Devroye (1986). Generación de variables aleatorias no uniformes . Nueva York: Springer-Verlag. ISBN 0-387-96305-7 . Véase el capítulo IX, sección 2, págs. 392–401. 

Enlaces externos