stringtranslate.com

Regresión lineal multivariada bayesiana

En estadística , la regresión lineal multivariada bayesiana es un enfoque bayesiano de la regresión lineal multivariada , es decir, la regresión lineal donde el resultado previsto es un vector de variables aleatorias correlacionadas en lugar de una única variable aleatoria escalar. Un tratamiento más general de este enfoque se puede encontrar en el artículo Estimador MMSE .

Detalles

Considere un problema de regresión en el que la variable dependiente que se va a predecir no es un único escalar de valor real sino un vector de longitud m de números reales correlacionados. Como en la configuración de regresión estándar, hay n observaciones, donde cada observación i consta de k −1 variables explicativas , agrupadas en un vector de longitud k (donde se ha agregado una variable ficticia con un valor de 1 para permitir un coeficiente de intersección ). Esto puede verse como un conjunto de m problemas de regresión relacionados para cada observación i :

vector de fila

La matriz de coeficientes B es una matriz donde los vectores de coeficientes para cada problema de regresión se apilan horizontalmente:

El vector de ruido para cada observación i es conjuntamente normal, de modo que los resultados de una observación determinada están correlacionados:

Podemos escribir todo el problema de regresión en forma matricial como:

YEmatriz de diseño Xde regresión lineal estándar:

La solución clásica de mínimos cuadrados lineales frecuentistas es simplemente estimar la matriz de coeficientes de regresión utilizando la pseudoinversa de Moore-Penrose :

Para obtener la solución bayesiana, necesitamos especificar la probabilidad condicional y luego encontrar el conjugado previo apropiado. Al igual que con el caso univariante de regresión bayesiana lineal , encontraremos que podemos especificar un conjugado condicional natural previo (que depende de la escala).

Escribamos nuestra probabilidad condicional como [1]

Buscamos un prior conjugado natural: una densidad conjunta que tenga la misma forma funcional que la verosimilitud. Dado que la probabilidad es cuadrática en , reescribimos la probabilidad para que sea normal en (la desviación de la estimación muestral clásica).

Usando la misma técnica que con la regresión lineal bayesiana , descomponemos el término exponencial usando una forma matricial de la técnica de suma de cuadrados. Aquí, sin embargo, también necesitaremos utilizar el cálculo diferencial matricial ( producto de Kronecker y transformaciones de vectorización ).

Primero, apliquemos la suma de cuadrados para obtener una nueva expresión para la probabilidad:

Nos gustaría desarrollar una forma condicional para los anteriores:

distribución de Wishart inversadistribución normalde vectorización

Escribir

Dejar

producto de KroneckerABproducto externo

Entonces

Con la probabilidad en una forma más manejable, ahora podemos encontrar un conjugado previo natural (condicional).

Distribución previa conjugada

El conjugado natural previo usando la variable vectorizada tiene la forma: [1]

Distribución posterior

Usando lo anterior y la probabilidad, la distribución posterior se puede expresar como: [1]

Esto ahora nos permite escribir la parte posterior de una forma más útil:

Esto toma la forma de una distribución de Wishart inversa multiplicada por una distribución normal Matrix :

Los parámetros de este posterior vienen dados por:

Ver también

Referencias

  1. ^ a b C Peter E. Rossi, Greg M. Allenby, Rob McCulloch. Estadística y Marketing Bayesianos . John Wiley e hijos, 2012, pág. 32.