stringtranslate.com

Regresión lineal bayesiana

La regresión lineal bayesiana es un tipo de modelado condicional en el que la media de una variable se describe mediante una combinación lineal de otras variables, con el objetivo de obtener la probabilidad posterior de los coeficientes de regresión (así como otros parámetros que describen la distribución del regresado) y, en última instancia, permitir la predicción fuera de la muestra del regresado (a menudo etiquetado como ) condicional a los valores observados de los regresores (generalmente ). La versión más simple y más utilizada de este modelo es el modelo lineal normal , en el que dado se distribuye gaussiana . En este modelo, y bajo una elección particular de probabilidades previas para los parámetros (los llamados anteriores conjugados ), la posterior se puede encontrar analíticamente. Con anteriores elegidos de manera más arbitraria, los posteriores generalmente tienen que ser aproximados.

Configuración del modelo

Consideremos un problema de regresión lineal estándar , en el que especificamos la media de la distribución condicional de un vector predictor dado :

donde es un vector, y son variables aleatorias independientes y distribuidas de manera idéntica normalmente :

Esto corresponde a la siguiente función de probabilidad :

La solución de mínimos cuadrados ordinarios se utiliza para estimar el vector de coeficientes utilizando la pseudoinversa de Moore-Penrose :

donde es la matriz de diseño , cada fila de la cual es un vector predictor ; y es el vector columna .

Este es un enfoque frecuentista y supone que hay suficientes mediciones para decir algo significativo sobre . En el enfoque bayesiano , los datos se complementan con información adicional en forma de una distribución de probabilidad previa . La creencia previa sobre los parámetros se combina con la función de verosimilitud de los datos según el teorema de Bayes para producir la creencia posterior sobre los parámetros y . La previa puede adoptar diferentes formas funcionales según el dominio y la información que esté disponible a priori .

Dado que los datos comprenden tanto y , el enfoque solo en la distribución de condicional a las necesidades justifica. De hecho, un análisis bayesiano "completo" requeriría una verosimilitud conjunta junto con una previa , donde simboliza los parámetros de la distribución para . Solo bajo el supuesto de exogeneidad (débil) se puede factorizar la verosimilitud conjunta en . [1] La última parte generalmente se ignora bajo el supuesto de conjuntos de parámetros disjuntos. Más aún, bajo supuestos clásicos se consideran elegidos (por ejemplo, en un experimento diseñado) y, por lo tanto, tienen una probabilidad conocida sin parámetros. [2]

Con priores conjugados

Distribución previa conjugada

Para una distribución a priori arbitraria, puede que no exista una solución analítica para la distribución a posteriori . En esta sección, consideraremos una distribución a priori conjugada para la cual se puede derivar analíticamente la distribución a posteriori.

Una función anterior es conjugada a esta función de verosimilitud si tiene la misma forma funcional con respecto a y . Dado que la verosimilitud logarítmica es cuadrática en , la verosimilitud logarítmica se reescribe de modo que la verosimilitud se vuelva normal en . Escribe

La probabilidad ahora se reescribe como donde es el número de coeficientes de regresión.

Esto sugiere una forma para lo anterior: donde es una distribución gamma inversa

En la notación introducida en el artículo sobre la distribución gamma inversa , esta es la densidad de una distribución con y con y como valores anteriores de y , respectivamente. De manera equivalente, también se puede describir como una distribución chi-cuadrado inversa escalada .

Además, la densidad previa condicional es una distribución normal ,

En la notación de la distribución normal , la distribución previa condicional es

Distribución posterior

Con la distribución anterior ahora especificada, la distribución posterior se puede expresar como

Con cierta reestructuración, [3] la posterior se puede reescribir de modo que la media posterior del vector de parámetros se pueda expresar en términos del estimador de mínimos cuadrados y la media anterior , con la fuerza de la anterior indicada por la matriz de precisión anterior.

Para justificar que efectivamente es la media posterior, los términos cuadráticos en la exponencial se pueden reorganizar como una forma cuadrática en . [4]

Ahora la distribución posterior se puede expresar como una distribución normal multiplicada por una distribución gamma inversa :

Por lo tanto, la distribución posterior se puede parametrizar de la siguiente manera. donde los dos factores corresponden a las densidades de las distribuciones y , con los parámetros de estas dados por

lo que ilustra que la inferencia bayesiana es un compromiso entre la información contenida en la anterior y la información contenida en la muestra.

Evidencia modelo

La evidencia del modelo es la probabilidad de los datos dado el modelo . También se conoce como la verosimilitud marginal y como la densidad predictiva previa . Aquí, el modelo se define por la función de verosimilitud y la distribución previa de los parámetros, es decir . La evidencia del modelo captura en un solo número qué tan bien dicho modelo explica las observaciones. La evidencia del modelo del modelo de regresión lineal bayesiano presentado en esta sección se puede utilizar para comparar modelos lineales en competencia mediante la comparación de modelos bayesianos . Estos modelos pueden diferir en el número y los valores de las variables predictoras, así como en sus valores previos sobre los parámetros del modelo. La complejidad del modelo ya se tiene en cuenta por la evidencia del modelo, porque marginaliza los parámetros al integrar sobre todos los valores posibles de y . Esta integral se puede calcular analíticamente y la solución se da en la siguiente ecuación. [5]

Aquí se denota la función gamma . Debido a que hemos elegido una función anterior conjugada, la verosimilitud marginal también se puede calcular fácilmente evaluando la siguiente igualdad para valores arbitrarios de y . Nótese que esta ecuación no es más que una reorganización del teorema de Bayes . Insertar las fórmulas para la función anterior, la verosimilitud y la función posterior y simplificar la expresión resultante conduce a la expresión analítica dada anteriormente.

Otros casos

En general, puede resultar imposible o poco práctico derivar la distribución posterior analíticamente. Sin embargo, es posible aproximarla mediante un método de inferencia bayesiana aproximada, como el muestreo de Monte Carlo , [6] INLA o Bayes variacional .

El caso especial se llama regresión de cresta .

Se puede realizar un análisis similar para el caso general de la regresión multivariada y parte de éste prevé la estimación bayesiana de matrices de covarianza : véase regresión lineal multivariada bayesiana .

Véase también

Notas

  1. ^ Véase Jackman (2009), pág. 101.
  2. ^ Véase Gelman et al. (2013), pág. 354.
  3. ^ Los pasos intermedios de este cálculo se pueden encontrar en O'Hagan (1994) al comienzo del capítulo sobre modelos lineales.
  4. ^ Los pasos intermedios se encuentran en Fahrmeir et al. (2009) en la página 188.
  5. ^ Los pasos intermedios de este cálculo se pueden encontrar en O'Hagan (1994) en la página 257.
  6. ^ Carlin y Louis (2008) y Gelman, et al. (2003) explican cómo utilizar métodos de muestreo para la regresión lineal bayesiana.

Referencias

Enlaces externos