stringtranslate.com

Variable aleatoria multivariada

En probabilidad y estadística , una variable aleatoria multivariante o vector aleatorio es una lista o vector de variables matemáticas cada una de cuyo valor se desconoce, ya sea porque el valor aún no ha ocurrido o porque existe un conocimiento imperfecto de su valor. Las variables individuales en un vector aleatorio se agrupan porque son todas parte de un único sistema matemático; a menudo representan diferentes propiedades de una unidad estadística individual . Por ejemplo, mientras una persona determinada tiene una edad, altura y peso específicos, la representación de estas características de una persona no especificada dentro de un grupo sería un vector aleatorio. Normalmente cada elemento de un vector aleatorio es un número real .

Los vectores aleatorios se utilizan a menudo como implementación subyacente de varios tipos de variables aleatorias agregadas , por ejemplo, una matriz aleatoria , un árbol aleatorio , una secuencia aleatoria , un proceso estocástico , etc.

Más formalmente, una variable aleatoria multivariada es un vector columna (o su transposición , que es un vector fila ) cuyos componentes son variables aleatorias con valores escalares en el mismo espacio de probabilidad entre sí, donde es el espacio muestral , es el sigma- álgebra (la colección de todos los eventos) y es la medida de probabilidad (una función que devuelve la probabilidad de cada evento ).

Distribución de probabilidad

Cada vector aleatorio da lugar a una medida de probabilidad con el álgebra de Borel como álgebra sigma subyacente. Esta medida también se conoce como distribución de probabilidad conjunta , distribución conjunta o distribución multivariada del vector aleatorio.

Las distribuciones de cada una de las variables aleatorias componentes se denominan distribuciones marginales . La distribución de probabilidad condicional de dado es la distribución de probabilidad de cuando se sabe que es un valor particular.

La función de distribución acumulativa de un vector aleatorio se define como [1] : p.15 

dónde .

Operaciones sobre vectores aleatorios

Los vectores aleatorios pueden someterse a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y toma de productos internos .

Transformaciones afines

De manera similar, se puede definir un nuevo vector aleatorio aplicando una transformación afín a un vector aleatorio :

, donde es una matriz y es un vector columna.

Si es una matriz invertible y tiene una función de densidad de probabilidad , entonces la densidad de probabilidad de es

.

Mapeos reversibles

De manera más general, podemos estudiar mapeos invertibles de vectores aleatorios. [2] : páginas 290–291 

Sea un mapeo uno a uno de un subconjunto abierto de sobre un subconjunto de , tengamos derivadas parciales continuas y dejemos que el determinante jacobiano de sea cero en ningún punto de . Supongamos que el vector aleatorio real tiene una función de densidad de probabilidad y satisface . Entonces el vector aleatorio es de densidad de probabilidad.

donde denota la función del indicador y conjunto denota soporte de .

Valor esperado

El valor esperado o media de un vector aleatorio es un vector fijo cuyos elementos son los valores esperados de las respectivas variables aleatorias. [3] : p.333 

Covarianza y covarianza cruzada

Definiciones

La matriz de covarianza (también llamada segundo momento central o matriz de varianza-covarianza) de un vector aleatorio es una matriz cuyo ( i,j ) ésimo elemento es la covarianza entre las i -ésima y j - ésima variables aleatorias. La matriz de covarianza es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [2] : p. 464  [3] : p.335 

Por extensión, la matriz de covarianza cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz [3] : p.336 

donde nuevamente la expectativa de la matriz se toma elemento por elemento en la matriz. Aquí el ( i,j ) ésimo elemento es la covarianza entre el i ésimo elemento de y el j ésimo elemento de .

Propiedades

La matriz de covarianza es una matriz simétrica , es decir [2] : p. 466 

.

La matriz de covarianza es una matriz semidefinida positiva , es decir [2] : p. 465 

.

La matriz de covarianza cruzada es simplemente la transpuesta de la matriz , es decir

.

Descorrelación

Dos vectores aleatorios y se llaman no correlacionados si

.

No están correlacionados si y sólo si su matriz de covarianza cruzada es cero. [3] : p.337 

Correlación y correlación cruzada

Definiciones

La matriz de correlación (también llamada segundo momento ) de un vector aleatorio es una matriz cuyo ( i,j ) ésimo elemento es la correlación entre las i -ésima y j - ésima variables aleatorias. La matriz de correlación es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [4] : p.190  [3] : p.334 

Por extensión, la matriz de correlación cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz

Propiedades

La matriz de correlación está relacionada con la matriz de covarianza por

.

De manera similar para la matriz de correlación cruzada y la matriz de covarianza cruzada:

Ortogonalidad

Dos vectores aleatorios del mismo tamaño y se llaman ortogonales si

.

Independencia

Dos vectores aleatorios y se llaman independientes si para todos y

donde y denota las funciones de distribución acumulativa de y y denota su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Se escriben por componentes y se denominan independientes si para todos

.

Función característica

La función característica de un vector aleatorio con componentes es una función que asigna cada vector a un número complejo. Está definido por [2] : p. 468 

.

Otras propiedades

Expectativa de una forma cuadrática

Se puede tomar la expectativa de una forma cuadrática en el vector aleatorio de la siguiente manera: [5] : p.170–171 

donde es la matriz de covarianza y se refiere a la traza de una matriz, es decir, a la suma de los elementos en su diagonal principal (de arriba a la izquierda a abajo a la derecha). Dado que la forma cuadrática es escalar, también lo es su expectativa.

Prueba : Sea un vector aleatorio con y y sea una matriz no estocástica.

Luego, basándonos en la fórmula de la covarianza, si denotamos y , vemos que:

Por eso

lo que nos deja demostrar que

Esto es cierto basándose en el hecho de que se pueden permutar matrices cíclicamente al realizar un seguimiento sin cambiar el resultado final (por ejemplo :).

Vemos eso

Y desde

es un escalar , entonces

trivialmente. Usando la permutación obtenemos:

y al introducir esto en la fórmula original obtenemos:

Expectativa del producto de dos formas cuadráticas diferentes.

Se puede tomar la expectativa del producto de dos formas cuadráticas diferentes en un vector aleatorio gaussiano de media cero de la siguiente manera: [5] : págs. 

donde nuevamente está la matriz de covarianza de . Nuevamente, dado que ambas formas cuadráticas son escalares y, por tanto, su producto es un escalar, la expectativa de su producto también es un escalar.

Aplicaciones

Teoría de la cartera

En la teoría de carteras en finanzas , un objetivo a menudo es elegir una cartera de activos riesgosos de manera que la distribución del rendimiento aleatorio de la cartera tenga propiedades deseables. Por ejemplo, es posible que deseemos elegir el rendimiento de la cartera que tenga la varianza más baja para un valor esperado determinado. Aquí el vector aleatorio es el vector de rendimientos aleatorios de los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de rendimientos aleatorios con un vector w de ponderaciones de la cartera: las fracciones de la cartera colocadas en los respectivos bienes. Dado que p = w T , el valor esperado del rendimiento de la cartera es w T E( ) y se puede demostrar que la varianza del rendimiento de la cartera es w T C w , donde C es la matriz de covarianza de .

Teoría de la regresión

En la teoría de la regresión lineal , tenemos datos sobre n observaciones de una variable dependiente y y n observaciones de cada una de las k variables independientes x j . Las observaciones de la variable dependiente se apilan en un vector de columna y ; las observaciones de cada variable independiente también se apilan en vectores de columna, y estos últimos vectores de columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones de las variables independientes. Luego se postula la siguiente ecuación de regresión como descripción del proceso que generó los datos:

donde β es un vector postulado fijo pero desconocido de k coeficientes de respuesta, y e es un vector aleatorio desconocido que refleja influencias aleatorias sobre la variable dependiente. Mediante alguna técnica elegida, como los mínimos cuadrados ordinarios , se elige un vector como estimación de β, y la estimación del vector e , denotado , se calcula como

Luego, el estadístico debe analizar las propiedades de y , que se consideran vectores aleatorios, ya que una selección aleatoriamente diferente de n casos para observar habría dado como resultado valores diferentes para ellos.

Serie de tiempo vectorial

La evolución de un vector aleatorio k ×1 a lo largo del tiempo se puede modelar como un vector autorregresivo (VAR) de la siguiente manera:

donde la observación del vector de i períodos atrás se llama i -ésimo retraso de , c es un  vector k × 1 de constantes ( intersecciones ), A i es una matriz k  ×  k invariante en el tiempo y es un  vector aleatorio k × 1 de términos de error .

Referencias

  1. ^ Gallager, Robert G. (2013). Teoría de procesos estocásticos para aplicaciones . Prensa de la Universidad de Cambridge. ISBN 978-1-107-03975-9.
  2. ^ abcde Lapidoth, Amós (2009). Una Fundación en Comunicación Digital . Prensa de la Universidad de Cambridge. ISBN 978-0-521-19395-5.
  3. ^ abcde Gubner, John A. (2006). Probabilidad y Procesos Aleatorios para Ingenieros Eléctricos e Informáticos . Prensa de la Universidad de Cambridge. ISBN 978-0-521-86470-1.
  4. ^ Papoulis, Atanasio (1991). Probabilidad, variables aleatorias y procesos estocásticos (Tercera ed.). McGraw-Hill. ISBN 0-07-048477-5.
  5. ^ ab Kendrick, David (1981). Control estocástico para modelos económicos . McGraw-Hill. ISBN 0-07-033962-7.

Otras lecturas