stringtranslate.com

Función de densidad de probabilidad

Diagrama de caja y función de densidad de probabilidad de una distribución normal N (0,  σ 2 ) .
Visualización geométrica de la moda , mediana y media de una función de densidad de probabilidad unimodal arbitraria. [1]

En teoría de la probabilidad , una función de densidad de probabilidad ( FDP ), función de densidad , o densidad de una variable aleatoria absolutamente continua , es una función cuyo valor en cualquier muestra (o punto) dado en el espacio muestral (el conjunto de valores posibles tomados por la variable aleatoria) puede interpretarse como que proporciona una probabilidad relativa de que el valor de la variable aleatoria sea igual al de esa muestra. [2] [3] La densidad de probabilidad es la probabilidad por unidad de longitud, en otras palabras, mientras que la probabilidad absoluta de que una variable aleatoria continua tome cualquier valor particular es 0 (ya que, para empezar, hay un conjunto infinito de valores posibles) , el valor de la PDF en dos muestras diferentes se puede utilizar para inferir, en cualquier extracción particular de la variable aleatoria, cuánto más probable es que la variable aleatoria esté cerca de una muestra en comparación con la otra muestra.

En un sentido más preciso, la PDF se utiliza para especificar la probabilidad de que la variable aleatoria caiga dentro de un rango particular de valores , en lugar de tomar cualquier valor. Esta probabilidad viene dada por la integral de la PDF de esta variable en ese rango, es decir, está dada por el área bajo la función de densidad pero por encima del eje horizontal y entre los valores más bajo y más grande del rango. La función de densidad de probabilidad no es negativa en todas partes y el área bajo toda la curva es igual a 1.

Los términos función de distribución de probabilidad y función de probabilidad también se han utilizado en ocasiones para indicar la función de densidad de probabilidad. Sin embargo, este uso no es estándar entre probabilistas y estadísticos. En otras fuentes, la "función de distribución de probabilidad" puede usarse cuando la distribución de probabilidad se define como una función sobre conjuntos generales de valores o puede referirse a la función de distribución acumulativa , o puede ser una función de masa de probabilidad (PMF) en lugar de la densidad. La propia "función de densidad" también se utiliza para la función de masa de probabilidad, lo que genera mayor confusión. [4] Sin embargo, en general, el PMF se usa en el contexto de variables aleatorias discretas (variables aleatorias que toman valores en un conjunto contable), mientras que el PDF se usa en el contexto de variables aleatorias continuas.

Ejemplo

Ejemplos de cuatro funciones de densidad de probabilidad continuas.

Supongamos que las bacterias de una determinada especie suelen vivir de 4 a 6 horas. La probabilidad de que una bacteria viva exactamente 5 horas es igual a cero. Muchas bacterias viven aproximadamente 5 horas, pero no hay posibilidad de que una determinada bacteria muera exactamente a las 5:00... horas. Sin embargo, la probabilidad de que la bacteria muera entre las 5 horas y las 5,01 horas es cuantificable. Supongamos que la respuesta es 0,02 (es decir, 2%). Entonces, la probabilidad de que la bacteria muera entre las 5 horas y las 5,001 horas debería ser de aproximadamente 0,002, ya que este intervalo de tiempo es una décima parte del anterior. La probabilidad de que la bacteria muera entre 5 horas y 5,0001 horas debería ser de aproximadamente 0,0002, y así sucesivamente.

En este ejemplo, la relación (probabilidad de morir durante un intervalo) / (duración del intervalo) es aproximadamente constante e igual a 2 por hora (o 2 horas −1 ). Por ejemplo, hay 0,02 de probabilidad de morir en el intervalo de 0,01 horas entre 5 y 5,01 horas, y (0,02 de probabilidad / 0,01 horas) = ​​2 horas −1 . Esta cantidad de 2 horas −1 se denomina densidad de probabilidad de morir alrededor de las 5 horas. Por lo tanto, la probabilidad de que la bacteria muera a las 5 horas se puede escribir como (2 horas −1 ) dt . Esta es la probabilidad de que la bacteria muera dentro de una ventana de tiempo infinitesimal de alrededor de 5 horas, donde dt es la duración de esta ventana. Por ejemplo, la probabilidad de que viva más de 5 horas, pero menos de (5 horas + 1 nanosegundo), es (2 horas −1 )×(1 nanosegundo) ≈6 × 10 −13 (usando la conversión de unidades 3,6 × 10 12 nanosegundos = 1 hora).

Existe una función de densidad de probabilidad f con f (5 horas) = ​​2 horas −1 . La integral de f en cualquier ventana de tiempo (no sólo ventanas infinitesimales sino también ventanas grandes) es la probabilidad de que la bacteria muera en esa ventana.

Distribuciones univariadas absolutamente continuas

Una función de densidad de probabilidad se asocia más comúnmente con distribuciones univariadas absolutamente continuas . Una variable aleatoria tiene densidad , donde es una función integrable de Lebesgue no negativa , si:

Por tanto, si es la función de distribución acumulativa de , entonces:

Intuitivamente, se puede considerar la probabilidad de caer dentro del intervalo infinitesimal .

Definicion formal

( Esta definición puede ampliarse a cualquier distribución de probabilidad utilizando la definición de probabilidad teórica de la medida ) .

Una variable aleatoria con valores en un espacio medible (normalmente con los conjuntos de Borel como subconjuntos medibles) tiene como distribución de probabilidad la medida X P on : la densidad de con respecto a una medida de referencia on es la derivada de Radon-Nikodym :

Es decir, f es cualquier función medible con la propiedad de que:

Discusión

En el caso univariado continuo anterior, la medida de referencia es la medida de Lebesgue . La función de masa de probabilidad de una variable aleatoria discreta es la densidad con respecto a la medida de conteo en el espacio muestral (generalmente el conjunto de números enteros , o algún subconjunto de los mismos).

No es posible definir una densidad con referencia a una medida arbitraria (por ejemplo, no se puede elegir la medida de conteo como referencia para una variable aleatoria continua). Además, cuando existe, la densidad es casi única, lo que significa que dos densidades cualesquiera coinciden en casi todas partes .

Más detalles

A diferencia de la probabilidad, una función de densidad de probabilidad puede tomar valores mayores que uno; por ejemplo, la distribución uniforme continua en el intervalo [0, 1/2] tiene densidad de probabilidad f ( x ) = 2 para 0 ≤ x ≤ 1/2 y f ( x ) = 0 en otros lugares.

La distribución normal estándar tiene densidad de probabilidad.

Si se da una variable aleatoria X y su distribución admite una función de densidad de probabilidad f , entonces el valor esperado de X (si el valor esperado existe) se puede calcular como

No todas las distribuciones de probabilidad tienen una función de densidad: las distribuciones de variables aleatorias discretas no la tienen; tampoco la distribución de Cantor , aunque no tiene un componente discreto, es decir, no asigna probabilidad positiva a ningún punto individual.

Una distribución tiene una función de densidad si y sólo si su función de distribución acumulativa F ( x ) es absolutamente continua . En este caso: F es diferenciable en casi todas partes y su derivada se puede utilizar como densidad de probabilidad:

Si una distribución de probabilidad admite una densidad, entonces la probabilidad de cada conjunto de un punto { a } es cero; lo mismo se aplica a conjuntos finitos y contables.

Dos densidades de probabilidad f y g representan la misma distribución de probabilidad precisamente si difieren sólo en un conjunto de medidas de Lebesgue cero .

En el campo de la física estadística , una reformulación no formal de la relación anterior entre la derivada de la función de distribución acumulativa y la función de densidad de probabilidad se utiliza generalmente como definición de la función de densidad de probabilidad. Esta definición alternativa es la siguiente:

Si dt ​​es un número infinitamente pequeño, la probabilidad de que X esté incluido dentro del intervalo ( t , t + dt ) es igual a f ( t ) dt , o:

Enlace entre distribuciones discretas y continuas.

Es posible representar ciertas variables aleatorias discretas, así como variables aleatorias que involucran una parte continua y una discreta con una función de densidad de probabilidad generalizada utilizando la función delta de Dirac . (Esto no es posible con una función de densidad de probabilidad en el sentido definido anteriormente, se puede hacer con una distribución ). Por ejemplo, considere una variable aleatoria discreta binaria que tiene la distribución de Rademacher , es decir, tomando −1 o 1 como valores, con probabilidad 12 cada uno. La densidad de probabilidad asociada a esta variable es:

De manera más general, si una variable discreta puede tomar n valores diferentes entre números reales, entonces la función de densidad de probabilidad asociada es:

Esto unifica sustancialmente el tratamiento de distribuciones de probabilidad discretas y continuas. La expresión anterior permite determinar las características estadísticas de una variable tan discreta (como la media , la varianza y la curtosis ), a partir de las fórmulas dadas para una distribución continua de la probabilidad.

Familias de densidades

Es común que las funciones de densidad de probabilidad (y funciones de masa de probabilidad ) estén parametrizadas, es decir, caracterizadas por parámetros no especificados . Por ejemplo, la distribución normal está parametrizada en términos de la media y la varianza , denotadas por y respectivamente, dando la familia de densidades

variables aleatoriasespacio muestralfactor de normalizaciónalgonúcleo

Dado que los parámetros son constantes, repararmetrizar una densidad en términos de diferentes parámetros para dar una caracterización de una variable aleatoria diferente en la familia, significa simplemente sustituir los nuevos valores de los parámetros en la fórmula en lugar de los antiguos.

Densidades asociadas a múltiples variables.

Para variables aleatorias continuas X 1 , ..., X n , también es posible definir una función de densidad de probabilidad asociada al conjunto en su conjunto, a menudo llamada función de densidad de probabilidad conjunta . Esta función de densidad se define como una función de las n variables, de modo que, para cualquier dominio D en el espacio n -dimensional de los valores de las variables X 1 , ..., X n , la probabilidad de que se realice una realización del conjunto las variables caen dentro del dominio D es

Si F ( x 1 , ..., x n ) = Pr( X 1x 1 , ..., X nx n ) es la función de distribución acumulativa del vector ( X 1 , ..., X n ) , entonces la función de densidad de probabilidad conjunta se puede calcular como una derivada parcial

Densidades marginales

Para i = 1, 2, ..., n , sea f X i ( x i ) la función de densidad de probabilidad asociada solo con la variable X i . Esto se llama función de densidad marginal y se puede deducir de la densidad de probabilidad asociada con las variables aleatorias X 1 , ..., X n integrando todos los valores de las otras n − 1 variables:

Independencia

Las variables aleatorias continuas X 1 , ..., X n que admiten una densidad conjunta son todas independientes entre sí si y sólo si

Corolario

Si la función de densidad de probabilidad conjunta de un vector de n variables aleatorias se puede factorizar en un producto de n funciones de una variable

f inindependientes

Ejemplo

Este ejemplo elemental ilustra la definición anterior de funciones de densidad de probabilidad multidimensionales en el caso simple de una función de un conjunto de dos variables. Llamemos a un vector aleatorio bidimensional de coordenadas ( X , Y ) : la probabilidad de obtener en el cuarto de plano de x e y positivos es

Función de variables aleatorias y cambio de variables en la función de densidad de probabilidad.

Si la función de densidad de probabilidad de una variable aleatoria (o vector) X se da como f X ( x ) , es posible (pero a menudo no necesario; ver más abajo) calcular la función de densidad de probabilidad de alguna variable Y = g ( X ) . Esto también se denomina "cambio de variable" y en la práctica se utiliza para generar una variable aleatoria de forma arbitraria f g ( X ) = f Y utilizando un generador de números aleatorios conocido (por ejemplo, uniforme).

Es tentador pensar que para encontrar el valor esperado E( g ( X ) ) , primero se debe encontrar la densidad de probabilidad f g ( X ) de la nueva variable aleatoria Y = g ( X ) . Sin embargo, en lugar de calcular

Los valores de las dos integrales son los mismos en todos los casos en los que tanto X como g ( X ) realmente tienen funciones de densidad de probabilidad. No es necesario que g sea una función uno a uno . En algunos casos, la última integral se calcula mucho más fácilmente que la primera. Véase Ley del estadístico inconsciente .

Escalar a escalar

Sea una función monótona , entonces la función de densidad resultante es [5]

Aquí g −1 denota la función inversa .

Esto se desprende del hecho de que la probabilidad contenida en un área diferencial debe ser invariante ante cambios de variables. Eso es,

Para funciones que no son monótonas, la función de densidad de probabilidad para y es

n ( y )x

Vector a vector

Supongamos que x es una variable aleatoria de n dimensiones con densidad conjunta f . Si y = G ( x ) , donde G es una función biyectiva diferenciable , entonces y tiene densidad p Y :

jacobianoG (⋅)y[6]

Por ejemplo, en el caso bidimensional x = ( x 1 , x 2 ) , supongamos que la transformada G se da como y 1 = G 1 ( x 1 , x 2 ) , y 2 = G 2 ( x 1 , x 2) . ) con inversas x 1 = G 1 −1 ( y 1 , y 2 ) , x 2 = G 2 −1 ( y 1 , y 2 ) . La distribución conjunta para y  = ( y 1 , y 2 ) tiene densidad [7]

Vector a escalar

Sea una función diferenciable y sea un vector aleatorio que tome valores en , sea la función de densidad de probabilidad de y sea la función delta de Dirac . Es posible utilizar las fórmulas anteriores para determinar la función de densidad de probabilidad de , que estará dada por

Este resultado conduce a la ley del estadístico inconsciente :

Prueba:

Sea una variable aleatoria colapsada con función de densidad de probabilidad (es decir, una constante igual a cero). Definamos el vector aleatorio y la transformada como

Está claro que es un mapeo biyectivo, y el jacobiano de viene dado por:

Sumas de variables aleatorias independientes

La función de densidad de probabilidad de la suma de dos variables aleatorias independientes U y V , cada una de las cuales tiene una función de densidad de probabilidad, es la convolución de sus funciones de densidad separadas:

Es posible generalizar la relación anterior a una suma de N variables aleatorias independientes, con densidades U 1 , ..., U N :

Esto se puede derivar de un cambio bidireccional de variables que involucran Y = U + V y Z = V , de manera similar al siguiente ejemplo para el cociente de variables aleatorias independientes.

Productos y cocientes de variables aleatorias independientes.

Dadas dos variables aleatorias independientes U y V , cada una de las cuales tiene una función de densidad de probabilidad, la densidad del producto Y = UV y el cociente Y = U / V se pueden calcular mediante un cambio de variables.

Ejemplo: distribución de cociente

Para calcular el cociente Y = U / V de dos variables aleatorias independientes U y V , defina la siguiente transformación:

Entonces, la densidad conjunta p ( y , z ) se puede calcular mediante un cambio de variables de U , V a Y , Z , y Y se puede derivar marginando Z de la densidad conjunta.

La transformación inversa es

El valor absoluto del determinante de la matriz jacobiana de esta transformación es:

De este modo:

Y la distribución de Y se puede calcular marginando a Z :

Este método requiere de manera crucial que la transformación de U , V a Y , Z sea biyectiva . La transformación anterior cumple esto porque Z se puede mapear directamente a V , y para un V dado el cociente U / V es monótono . Este es igualmente el caso de la suma U + V , la diferencia UV y el producto UV .

Se puede utilizar exactamente el mismo método para calcular la distribución de otras funciones de múltiples variables aleatorias independientes.

Ejemplo: cociente de dos normales estándar

Dadas dos variables normales estándar U y V , el cociente se puede calcular de la siguiente manera. Primero, las variables tienen las siguientes funciones de densidad:

Transformamos como se describe arriba:

Esto lleva a:

Ésta es la densidad de una distribución de Cauchy estándar .

Ver también

Referencias

  1. ^ "Revisión de estadísticas AP: curvas de densidad y distribuciones normales". Archivado desde el original el 2 de abril de 2015 . Consultado el 16 de marzo de 2015 .
  2. ^ Grinstead, Charles M.; Snell, J. Laurie (2009). "Probabilidad condicional - Condicional discreta" (PDF) . Introducción a la probabilidad de Grinstead y Snell . Textos del Naranjo. ISBN 978-1616100469. Archivado (PDF) desde el original el 25 de abril de 2003 . Consultado el 25 de julio de 2019 .
  3. ^ "probabilidad: ¿es una distribución válida un número uniformemente aleatorio sobre la línea real?". Validación cruzada . Consultado el 6 de octubre de 2021 .
  4. ^ Ord, JK (1972) Familias de distribuciones de frecuencia , Griffin. ISBN 0-85264-137-0 (por ejemplo, Tabla 5.1 y Ejemplo 5.4) 
  5. ^ Siegrist, Kyle. "Transformaciones de variables aleatorias". Estadísticas de LibreTexts . Consultado el 22 de diciembre de 2023 .
  6. ^ Devorar, Jay L.; Berk, Kenneth N. (2007). Estadística matemática moderna con aplicaciones. Cengaje. pag. 263.ISBN _ 978-0-534-40473-4.
  7. ^ David, Stirzaker (1 de enero de 2007). Probabilidad elemental . Prensa de la Universidad de Cambridge. ISBN 978-0521534284. OCLC  851313783.

Otras lecturas

enlaces externos