stringtranslate.com

Regresión lineal multivariante bayesiana

En estadística , la regresión lineal multivariante bayesiana es un enfoque bayesiano de la regresión lineal multivariante , es decir, una regresión lineal en la que el resultado previsto es un vector de variables aleatorias correlacionadas en lugar de una única variable aleatoria escalar. Se puede encontrar un tratamiento más general de este enfoque en el artículo Estimador MMSE .

Detalles

Consideremos un problema de regresión donde la variable dependiente que se va a predecir no es un único escalar de valor real sino un vector de longitud m de números reales correlacionados. Como en la configuración de regresión estándar, hay n observaciones, donde cada observación i consta de k −1 variables explicativas , agrupadas en un vector de longitud k (donde se ha añadido una variable ficticia con un valor de 1 para permitir un coeficiente de intersección). Esto puede verse como un conjunto de m problemas de regresión relacionados para cada observación i : donde el conjunto de errores están todos correlacionados. De manera equivalente, puede verse como un único problema de regresión donde el resultado es un vector de fila y los vectores de coeficientes de regresión se apilan uno al lado del otro, de la siguiente manera:

La matriz de coeficientes B es una matriz donde los vectores de coeficientes para cada problema de regresión se apilan horizontalmente:

El vector de ruido para cada observación i es conjuntamente normal, de modo que los resultados para una observación dada están correlacionados:

Podemos escribir todo el problema de regresión en forma matricial como: donde Y y E son matrices. La matriz de diseño X es una matriz con las observaciones apiladas verticalmente, como en la configuración de regresión lineal estándar :

La solución clásica, frecuentista, de mínimos cuadrados lineales consiste simplemente en estimar la matriz de coeficientes de regresión utilizando la pseudoinversa de Moore-Penrose :

Para obtener la solución bayesiana, necesitamos especificar la probabilidad condicional y luego encontrar la probabilidad conjugada previa adecuada. Al igual que con el caso univariante de la regresión bayesiana lineal , descubriremos que podemos especificar una probabilidad conjugada previa condicional natural (que depende de la escala).

Escribamos nuestra probabilidad condicional como [1] escribiendo el error en términos de y obtenemos

Buscamos una conjugación natural previa, es decir, una densidad conjunta que tenga la misma forma funcional que la probabilidad. Como la probabilidad es cuadrática en , reescribimos la probabilidad de modo que sea normal en (la desviación de la estimación de la muestra clásica).

Utilizando la misma técnica que en la regresión lineal bayesiana , descomponemos el término exponencial utilizando una forma matricial de la técnica de suma de cuadrados. Sin embargo, aquí también necesitaremos utilizar el cálculo diferencial de matrices ( producto de Kronecker y transformaciones de vectorización ).

Primero, apliquemos la suma de cuadrados para obtener una nueva expresión para la probabilidad:

Nos gustaría desarrollar una forma condicional para las probabilidades anteriores: donde es una distribución Wishart inversa y es alguna forma de distribución normal en la matriz . Esto se logra utilizando la transformación de vectorización , que convierte la probabilidad de una función de las matrices a una función de los vectores .

Escribir

Sea donde denota el producto de Kronecker de las matrices A y B , una generalización del producto externo que multiplica una matriz por una matriz para generar una matriz, que consiste en cada combinación de productos de elementos de las dos matrices.

Entonces esto conducirá a una probabilidad que es normal en .

Con la probabilidad en una forma más manejable, ahora podemos encontrar un conjugado previo natural (condicional).

Distribución previa conjugada

El conjugado natural anterior que utiliza la variable vectorizada tiene la forma: [1] donde y

Distribución posterior

Utilizando la distribución previa y de probabilidad anteriores, la distribución posterior se puede expresar como: [1] donde . Los términos que involucran se pueden agrupar (con ) utilizando: con

Esto ahora nos permite escribir la posterior en una forma más útil:

Esto toma la forma de una distribución Wishart inversa multiplicada por una distribución normal matricial : y

Los parámetros de esta posterior están dados por:

Véase también

Referencias

  1. ^ abc Peter E. Rossi, Greg M. Allenby, Rob McCulloch. Estadística bayesiana y marketing . John Wiley & Sons, 2012, pág. 32.