Variables aleatorias independientes e idénticamente distribuidas

En teoría de probabilidad y estadística, un conjunto de variables aleatorias se consideran independientes e idénticamente distribuidas (i.i.d., iid o IID) si cada variable aleatoria tiene la misma distribución de probabilidad y todas son mutuamente independientes.

[1]​ La suposición (o requisito) de que un conjunto observaciones sean i.i.d.

Aun así, en aplicaciones prácticas de modelación estadística la suposición puede o no puede ser realista.

Para probar qué tan realista es en un conjunto de datos dado, se calcula la autocorrelación, mediante correlogramas y otras pruebas estadísticas.

[2]​ Esta suposición es fundamental en la forma clásica del teorema del límite central, el cual afirma que, si una variable aleatoria es de cuadrado integrable (Existe el momento no centrado de orden dos), entonces la distribución de probabilidad de dicha variable centrada en su esperanza y normalizada en su desviación típica se aproxima a una distribución normal.

En estadística, usualmente tratamos con muestras aleatorias.

Una muestra aleatoria puede ser considerada como un conjunto de objetos que son elegidos aleatoriamente; o, más formalmente, es “una secuencia de variables aleatorias independientes e idénticamente distribuidas (IID)”.

En otras palabras, los términos muestra aleatoria e IID son básicamente lo mismo.

En estadística, comúnmente decimos “muestra aleatoria”, pero en probabilidad es más común decir “IID”.

Las variables aleatorias independientes e idénticamente distribuidas con usadas a menudo como un supuesto, el cual tiende a simplificar las matemáticas subyacentes.

En aplicaciones prácticas del modelamiento estadístico, sin embargo, el supuesto puede ser o no ser realista.

también es usado en el Teorema del límite central, el cual establece que la función de distribución de la suma (o media) de variables i.i.d.

con varianza finita se aproxima a una distribución normal.

[5]​ A menudo, el supuesto de i.i.d.

Por lo que, "independiente e idénticamente distribuida" implica que un elemento en la secuencia es independiente de las variables aleatorias que la precedieron.

no implica que las probabilidades para todos los elementos de un espacio muestral o espacio de eventos deben ser iguales..[6]​ Por ejemplo, tiradas repetidas de un dado cargado (trucado) producirán una secuencia que es i.i.d., a pesar del hecho de que los resultados sean sesgados.

Suponga que las variables aleatorias

son definidas para asumir valores en

, respectivamente, y denótese su función de distribución de probabilidad acumulada conjunta como

son idénticamente distribuídas si y solo si[7]​

(Véase también Independencia (probabilidad) § Dos variables aleatorias.)

si son independientes e idénticamente distribuidas, es decir, si y solo si

(Eq.1)La definición se extiende, naturalmente, para más de dos variables aleatorias.

si son independientes (véase también Independencia (probabilidad) § Más de dos variables aleatorias) e idénticamente distribuidas, es decir, si y solo si

Muchos resultados de la inferencia estadística que se han demostrado bajo la suposición que las variables aleatorias son i.i.d.

han podido ser demostrados también bajo una suposiciones más débiles sobre las distribución de las variables involucradas.

La idea más general qué comparte las propiedades principales de i.i.d.

son las llamadas variables aleatorias intercambiables, introducidos por Bruno de Finetti.

Esto significa que mientras las variables no pueden ser independientes, las posteriores se comportan como las anteriores, formalmente, cualquier valor de una secuencia finita es tan probable como cualquier permutación de aquellos, la distribución conjunta es invariante bajo el grupo simétrico.

Uno puede generalizar esto para incluir procesos de Lévy en tiempo continuo, y muchos procesos de Lévy pueden ser vistos como casos límites, por ejemplo, el proceso Wiener es el límite del proceso de Bernoulli.