Variable aleatoria con múltiples dimensiones de componentes
En probabilidad y estadística , una variable aleatoria multivariable o vector aleatorio es una lista o vector de variables matemáticas , cada una de las cuales tiene un valor desconocido, ya sea porque el valor aún no se ha producido o porque existe un conocimiento imperfecto de su valor. Las variables individuales de un vector aleatorio se agrupan porque todas son parte de un único sistema matemático; a menudo representan diferentes propiedades de una unidad estadística individual . Por ejemplo, mientras que una persona dada tiene una edad, una altura y un peso específicos, la representación de estas características de una persona no especificada dentro de un grupo sería un vector aleatorio. Normalmente, cada elemento de un vector aleatorio es un número real .
Los vectores aleatorios se utilizan a menudo como la implementación subyacente de varios tipos de variables aleatorias agregadas , por ejemplo, una matriz aleatoria , un árbol aleatorio , una secuencia aleatoria , un proceso estocástico , etc.
Formalmente, una variable aleatoria multivariada es un vector columna (o su transpuesta , que es un vector fila ) cuyos componentes son variables aleatorias en el espacio de probabilidad , donde es el espacio muestral , es el álgebra sigma (la colección de todos los eventos) y es la medida de probabilidad (una función que devuelve la probabilidad de cada evento ).
Distribución de probabilidad
Cada vector aleatorio da lugar a una medida de probabilidad cuyo álgebra sigma subyacente es el álgebra de Borel . Esta medida también se conoce como distribución de probabilidad conjunta , distribución conjunta o distribución multivariante del vector aleatorio.
Las distribuciones de cada una de las variables aleatorias componentes se denominan distribuciones marginales . La distribución de probabilidad condicional de un valor dado es la distribución de probabilidad de cuando se sabe que es un valor particular.
La función de distribución acumulativa de un vector aleatorio se define como [1] : p.15
dónde .
Operaciones sobre vectores aleatorios
Los vectores aleatorios pueden estar sujetos a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y obtención de productos internos .
Transformaciones afines
De manera similar, se puede definir un nuevo vector aleatorio aplicando una transformación afín a un vector aleatorio :
- , donde es una matriz y es un vector columna.
Si es una matriz invertible y tiene una función de densidad de probabilidad , entonces la densidad de probabilidad de es
- .
Mapeos invertibles
De manera más general, podemos estudiar aplicaciones invertibles de vectores aleatorios. [2] : p.290–291
Sea una función biunívoca de un subconjunto abierto de sobre un subconjunto de , sea que tenga derivadas parciales continuas en y sea que el determinante jacobiano de sea cero en ningún punto de . Supongamos que el vector aleatorio real tiene una función de densidad de probabilidad y satisface . Entonces el vector aleatorio tiene una densidad de probabilidad
donde denota la función del indicador y el conjunto denota el soporte de .
Valor esperado
El valor esperado o media de un vector aleatorio es un vector fijo cuyos elementos son los valores esperados de las respectivas variables aleatorias. [3] : p.333
Covarianza y covarianza cruzada
Definiciones
La matriz de covarianza (también llamada segundo momento central o matriz de varianza-covarianza) de un vector aleatorio es una matriz cuyo elemento ( i,j ) es la covarianza entre las variables aleatorias i y j . La matriz de covarianza es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [2] : p. 464 [3] : p. 335
Por extensión, la matriz de covarianza cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz [3] : p.336
donde nuevamente la expectativa matricial se toma elemento por elemento en la matriz. Aquí el elemento ( i ,j ) es la covarianza entre el elemento i de y el elemento j de .
Propiedades
La matriz de covarianza es una matriz simétrica , es decir [2] : p. 466
- .
La matriz de covarianza es una matriz semidefinida positiva , es decir [2] : p. 465
- .
La matriz de covarianza cruzada es simplemente la transposición de la matriz , es decir
- .
Falta de correlación
Dos vectores aleatorios y se denominan no correlacionados si
- .
No están correlacionados si y sólo si su matriz de covarianza cruzada es cero. [3] : p.337
Correlación y correlación cruzada
Definiciones
La matriz de correlación (también llamada segundo momento ) de un vector aleatorio es una matriz cuyo elemento ( i,j ) es la correlación entre las variables aleatorias i y j . La matriz de correlación es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [4] : p.190 [3] : p.334
Por extensión, la matriz de correlación cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz
Propiedades
La matriz de correlación está relacionada con la matriz de covarianza por
- .
De manera similar para la matriz de correlación cruzada y la matriz de covarianza cruzada:
Ortogonalidad
Dos vectores aleatorios del mismo tamaño se denominan ortogonales si
- .
Independencia
Dos vectores aleatorios y se llaman independientes si para todos y
donde y denotan las funciones de distribución acumulativa de y y denotan su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Escritos por componentes, y se denominan independientes si para todos
- .
Función característica
La función característica de un vector aleatorio con componentes es una función que asigna a cada vector un número complejo. Se define en [2] : p. 468
- .
Otras propiedades
Expectativa de una forma cuadrática
Se puede tomar la expectativa de una forma cuadrática en el vector aleatorio de la siguiente manera: [5] : p.170–171
donde es la matriz de covarianza de y se refiere a la traza de una matriz, es decir, a la suma de los elementos en su diagonal principal (de arriba a la izquierda a abajo a la derecha). Como la forma cuadrática es un escalar, también lo es su esperanza.
Demostración : Sea un vector aleatorio con y y sea una matriz no estocástica.
Entonces, basándonos en la fórmula de la covarianza, si denotamos y , vemos que:
Por eso
lo que nos lleva a demostrar que
Esto es cierto debido al hecho de que uno puede permutar matrices cíclicamente al tomar un rastro sin cambiar el resultado final (por ejemplo: ).
Vemos que
Y desde entonces
es un escalar , entonces
trivialmente. Usando la permutación obtenemos:
Y al introducir esto en la fórmula original obtenemos:
Expectativa del producto de dos formas cuadráticas diferentes
Se puede tomar la expectativa del producto de dos formas cuadráticas diferentes en un vector aleatorio gaussiano de media cero de la siguiente manera: [5] : pp. 162–176
donde nuevamente es la matriz de covarianza de . Nuevamente, dado que ambas formas cuadráticas son escalares y, por lo tanto, su producto es un escalar, la esperanza de su producto también es un escalar.
Aplicaciones
Teoría de cartera
En la teoría de carteras en finanzas , un objetivo a menudo es elegir una cartera de activos riesgosos de manera que la distribución del rendimiento aleatorio de la cartera tenga propiedades deseables. Por ejemplo, uno podría querer elegir el rendimiento de la cartera que tenga la varianza más baja para un valor esperado dado. Aquí el vector aleatorio es el vector de rendimientos aleatorios de los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de rendimientos aleatorios con un vector w de pesos de la cartera: las fracciones de la cartera colocadas en los respectivos activos. Como p = w T , el valor esperado del rendimiento de la cartera es w T E( ) y la varianza del rendimiento de la cartera puede demostrarse como w T C w , donde C es la matriz de covarianza de .
Teoría de la regresión
En la teoría de la regresión lineal , tenemos datos sobre n observaciones de una variable dependiente y y n observaciones de cada una de las k variables independientes x j . Las observaciones de la variable dependiente se apilan en un vector columna y ; las observaciones de cada variable independiente también se apilan en vectores columna, y estos últimos vectores columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones de las variables independientes. Luego, se postula la siguiente ecuación de regresión como una descripción del proceso que generó los datos:
donde β es un vector fijo pero desconocido postulado de k coeficientes de respuesta, y e es un vector aleatorio desconocido que refleja influencias aleatorias sobre la variable dependiente. Mediante alguna técnica elegida, como los mínimos cuadrados ordinarios , se elige un vector como estimación de β, y la estimación del vector e , denotada , se calcula como
Luego, el estadístico debe analizar las propiedades de y , que se consideran vectores aleatorios ya que una selección aleatoriamente diferente de n casos para observar habría resultado en valores diferentes para ellos.
Series temporales vectoriales
La evolución de un vector aleatorio k ×1 a través del tiempo se puede modelar como una autorregresión vectorial (VAR) de la siguiente manera:
donde la observación del vector i -periodos atrás se denomina i -ésimo rezago de , c es un vector k × 1 de constantes ( intersecciones ), A i es una matriz k × k invariante en el tiempo y es un vector aleatorio k × 1 de términos de error .
Referencias
- ^ Gallager, Robert G. (2013). Teoría de procesos estocásticos para aplicaciones . Cambridge University Press. ISBN 978-1-107-03975-9.
- ^ abcde Lapidoth, Amos (2009). Una base para la comunicación digital . Cambridge University Press. ISBN 978-0-521-19395-5.
- ^ abcde Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN 978-0-521-86470-1.
- ^ Papoulis, Athanasius (1991). Probabilidad, variables aleatorias y procesos estocásticos (tercera edición). McGraw-Hill. ISBN 0-07-048477-5.
- ^ ab Kendrick, David (1981). Control estocástico para modelos económicos . McGraw-Hill. ISBN 0-07-033962-7.
Lectura adicional
- Stark, Henry; Woods, John W. (2012). "Vectores aleatorios". Probabilidad, estadística y procesos aleatorios para ingenieros (cuarta edición). Pearson. págs. 295–339. ISBN 978-0-13-231123-6.