stringtranslate.com

Variable aleatoria multivariante

En probabilidad y estadística , una variable aleatoria multivariable o vector aleatorio es una lista o vector de variables matemáticas , cada una de las cuales tiene un valor desconocido, ya sea porque el valor aún no se ha producido o porque existe un conocimiento imperfecto de su valor. Las variables individuales de un vector aleatorio se agrupan porque todas son parte de un único sistema matemático; a menudo representan diferentes propiedades de una unidad estadística individual . Por ejemplo, mientras que una persona dada tiene una edad, una altura y un peso específicos, la representación de estas características de una persona no especificada dentro de un grupo sería un vector aleatorio. Normalmente, cada elemento de un vector aleatorio es un número real .

Los vectores aleatorios se utilizan a menudo como la implementación subyacente de varios tipos de variables aleatorias agregadas , por ejemplo, una matriz aleatoria , un árbol aleatorio , una secuencia aleatoria , un proceso estocástico , etc.

Formalmente, una variable aleatoria multivariada es un vector columna (o su transpuesta , que es un vector fila ) cuyos componentes son variables aleatorias en el espacio de probabilidad , donde es el espacio muestral , es el álgebra sigma (la colección de todos los eventos) y es la medida de probabilidad (una función que devuelve la probabilidad de cada evento ).

Distribución de probabilidad

Cada vector aleatorio da lugar a una medida de probabilidad cuyo álgebra sigma subyacente es el álgebra de Borel . Esta medida también se conoce como distribución de probabilidad conjunta , distribución conjunta o distribución multivariante del vector aleatorio.

Las distribuciones de cada una de las variables aleatorias componentes se denominan distribuciones marginales . La distribución de probabilidad condicional de un valor dado es la distribución de probabilidad de cuando se sabe que es un valor particular.

La función de distribución acumulativa de un vector aleatorio se define como [1] : p.15 

dónde .

Operaciones sobre vectores aleatorios

Los vectores aleatorios pueden estar sujetos a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y obtención de productos internos .

Transformaciones afines

De manera similar, se puede definir un nuevo vector aleatorio aplicando una transformación afín a un vector aleatorio :

, donde es una matriz y es un vector columna.

Si es una matriz invertible y tiene una función de densidad de probabilidad , entonces la densidad de probabilidad de es

.

Mapeos invertibles

De manera más general, podemos estudiar aplicaciones invertibles de vectores aleatorios. [2] : p.290–291 

Sea una función biunívoca de un subconjunto abierto de sobre un subconjunto de , sea que tenga derivadas parciales continuas en y sea que el determinante jacobiano de sea cero en ningún punto de . Supongamos que el vector aleatorio real tiene una función de densidad de probabilidad y satisface . Entonces el vector aleatorio tiene una densidad de probabilidad

donde denota la función del indicador y el conjunto denota el soporte de .

Valor esperado

El valor esperado o media de un vector aleatorio es un vector fijo cuyos elementos son los valores esperados de las respectivas variables aleatorias. [3] : p.333 

Covarianza y covarianza cruzada

Definiciones

La matriz de covarianza (también llamada segundo momento central o matriz de varianza-covarianza) de un vector aleatorio es una matriz cuyo elemento ( i,j ) es la covarianza entre las variables aleatorias i y j . La matriz de covarianza es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [2] : p. 464  [3] : p. 335 

Por extensión, la matriz de covarianza cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz [3] : p.336 

donde nuevamente la expectativa matricial se toma elemento por elemento en la matriz. Aquí el elemento ( i ,j ) es la covarianza entre el elemento i de y el elemento j de .

Propiedades

La matriz de covarianza es una matriz simétrica , es decir [2] : p. 466 

.

La matriz de covarianza es una matriz semidefinida positiva , es decir [2] : p. 465 

.

La matriz de covarianza cruzada es simplemente la transposición de la matriz , es decir

.

Falta de correlación

Dos vectores aleatorios y se denominan no correlacionados si

.

No están correlacionados si y sólo si su matriz de covarianza cruzada es cero. [3] : p.337 

Correlación y correlación cruzada

Definiciones

La matriz de correlación (también llamada segundo momento ) de un vector aleatorio es una matriz cuyo elemento ( i,j ) es la correlación entre las variables aleatorias i y j . La matriz de correlación es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transpuesta del vector indicado: [4] : p.190  [3] : p.334 

Por extensión, la matriz de correlación cruzada entre dos vectores aleatorios y ( que tienen elementos y que tienen elementos) es la matriz

Propiedades

La matriz de correlación está relacionada con la matriz de covarianza por

.

De manera similar para la matriz de correlación cruzada y la matriz de covarianza cruzada:

Ortogonalidad

Dos vectores aleatorios del mismo tamaño se denominan ortogonales si

.

Independencia

Dos vectores aleatorios y se llaman independientes si para todos y

donde y denotan las funciones de distribución acumulativa de y y denotan su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Escritos por componentes, y se denominan independientes si para todos

.

Función característica

La función característica de un vector aleatorio con componentes es una función que asigna a cada vector un número complejo. Se define en [2] : p. 468 

.

Otras propiedades

Expectativa de una forma cuadrática

Se puede tomar la expectativa de una forma cuadrática en el vector aleatorio de la siguiente manera: [5] : p.170–171 

donde es la matriz de covarianza de y se refiere a la traza de una matriz, es decir, a la suma de los elementos en su diagonal principal (de arriba a la izquierda a abajo a la derecha). Como la forma cuadrática es un escalar, también lo es su esperanza.

Demostración : Sea un vector aleatorio con y y sea una matriz no estocástica.

Entonces, basándonos en la fórmula de la covarianza, si denotamos y , vemos que:

Por eso

lo que nos lleva a demostrar que

Esto es cierto debido al hecho de que uno puede permutar matrices cíclicamente al tomar un rastro sin cambiar el resultado final (por ejemplo: ).

Vemos que

Y desde entonces

es un escalar , entonces

trivialmente. Usando la permutación obtenemos:

Y al introducir esto en la fórmula original obtenemos:

Expectativa del producto de dos formas cuadráticas diferentes

Se puede tomar la expectativa del producto de dos formas cuadráticas diferentes en un vector aleatorio gaussiano de media cero de la siguiente manera: [5] : pp. 162–176 

donde nuevamente es la matriz de covarianza de . Nuevamente, dado que ambas formas cuadráticas son escalares y, por lo tanto, su producto es un escalar, la esperanza de su producto también es un escalar.

Aplicaciones

Teoría de cartera

En la teoría de carteras en finanzas , un objetivo a menudo es elegir una cartera de activos riesgosos de manera que la distribución del rendimiento aleatorio de la cartera tenga propiedades deseables. Por ejemplo, uno podría querer elegir el rendimiento de la cartera que tenga la varianza más baja para un valor esperado dado. Aquí el vector aleatorio es el vector de rendimientos aleatorios de los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de rendimientos aleatorios con un vector w de pesos de la cartera: las fracciones de la cartera colocadas en los respectivos activos. Como p = w T , el valor esperado del rendimiento de la cartera es w T E( ) y la varianza del rendimiento de la cartera puede demostrarse como w T C w , donde C es la matriz de covarianza de .

Teoría de la regresión

En la teoría de la regresión lineal , tenemos datos sobre n observaciones de una variable dependiente y y n observaciones de cada una de las k variables independientes x j . Las observaciones de la variable dependiente se apilan en un vector columna y ; las observaciones de cada variable independiente también se apilan en vectores columna, y estos últimos vectores columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones de las variables independientes. Luego, se postula la siguiente ecuación de regresión como una descripción del proceso que generó los datos:

donde β es un vector fijo pero desconocido postulado de k coeficientes de respuesta, y e es un vector aleatorio desconocido que refleja influencias aleatorias sobre la variable dependiente. Mediante alguna técnica elegida, como los mínimos cuadrados ordinarios , se elige un vector como estimación de β, y la estimación del vector e , denotada , se calcula como

Luego, el estadístico debe analizar las propiedades de y , que se consideran vectores aleatorios ya que una selección aleatoriamente diferente de n casos para observar habría resultado en valores diferentes para ellos.

Series temporales vectoriales

La evolución de un vector aleatorio k ×1 a través del tiempo se puede modelar como una autorregresión vectorial (VAR) de la siguiente manera:

donde la observación del vector i -periodos atrás se denomina i -ésimo rezago de , c es un vector k  × 1 de constantes ( intersecciones ), A i es una matriz k  ×  k invariante en el tiempo y es un vector aleatorio k  × 1 de términos de error .

Referencias

  1. ^ Gallager, Robert G. (2013). Teoría de procesos estocásticos para aplicaciones . Cambridge University Press. ISBN 978-1-107-03975-9.
  2. ^ abcde Lapidoth, Amos (2009). Una base para la comunicación digital . Cambridge University Press. ISBN 978-0-521-19395-5.
  3. ^ abcde Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN 978-0-521-86470-1.
  4. ^ Papoulis, Athanasius (1991). Probabilidad, variables aleatorias y procesos estocásticos (tercera edición). McGraw-Hill. ISBN 0-07-048477-5.
  5. ^ ab Kendrick, David (1981). Control estocástico para modelos económicos . McGraw-Hill. ISBN 0-07-033962-7.

Lectura adicional