stringtranslate.com

Criterio de información de Watanabe-Akaike

En estadística , el criterio de información ampliamente aplicable ( WAIC ), también conocido como criterio de información de Watanabe-Akaike , es la versión generalizada del criterio de información de Akaike (AIC) sobre modelos estadísticos singulares . [1] Se utiliza como medida de qué tan bien predecirá el modelo datos con los que no fue entrenado. Es asintóticamente equivalente a la pérdida de validación cruzada . [2]

Si tomamos la densidad predictiva puntual logarítmica:

Entonces:

Donde y es la salida predicha en los datos de entrenamiento. Θ es la distribución posterior del modelo, s son muestras de la distribución posterior e i itera sobre los datos de entrenamiento. En otras palabras, en las estadísticas bayesianas, la distribución posterior se representa mediante una lista de muestras de ella. La penalización WAIC es entonces la varianza de las predicciones entre estas muestras, calculada y agregada para cada punto de datos del conjunto de datos. [3]

El término de penalización se suele denominar "número efectivo de parámetros". Esta terminología proviene de convenciones históricas, ya que se utiliza un término similar en el Criterio de información de Akaike . [3]

Watanabe recomienda en la práctica calcular tanto el WAIC como el PSIS (muestreo de importancia suavizado de Pareto). Ambos son aproximaciones de la validación cruzada dejando uno fuera. Si no coinciden, al menos uno de ellos no es confiable. De manera similar, el PSIS a veces puede detectar si su estimación no es confiable (si es > 0,7). [3] [4]

Algunos libros de texto de estadística bayesiana recomiendan WAIC por sobre otros criterios de información, especialmente para modelos multinivel y mixtos . [3] [5]

El criterio de información bayesiano de amplia aplicación ( WBIC ) es la versión generalizada del criterio de información bayesiano (BIC) en modelos estadísticos singulares. [6]

WBIC es la función de verosimilitud logarítmica promedio sobre la distribución posterior con temperatura inversa > 1/log  n donde n es el tamaño de la muestra . [6]

Tanto WAIC como WBIC se pueden calcular numéricamente sin ninguna información sobre una distribución real .

Véase también

Referencias

  1. ^ Watanabe, Sumio (2010). "Equivalencia asintótica de la validación cruzada de Bayes y criterio de información ampliamente aplicable en la teoría del aprendizaje singular". Revista de investigación en aprendizaje automático . 11 : 3571–3594.
  2. ^ Watanabe, Sumio (2018), Ay, Nihat; Gibilisco, Paolo; Matúš, František (eds.), "Equivalencia de orden superior de la validación cruzada de Bayes y WAIC", Geometría de la información y sus aplicaciones , vol. 252, Cham: Springer International Publishing, págs. 47–73, doi :10.1007/978-3-319-97798-0_3, ISBN 978-3-319-97797-3, consultado el 14 de noviembre de 2024
  3. ^ abcd McElreath, Richard (2020). Replanteamiento estadístico: un curso bayesiano con ejemplos en R y Stan (2.ª ed.). Chapman y Hall/CRC. ISBN 978-0-367-13991-9.
  4. ^ Watanabe, Sumio (2020). Teoría matemática de las estadísticas bayesianas (publicada por primera vez en edición de bolsillo). Boca Raton Londres Nueva York: CRC Press, Taylor & Francis Group. ISBN 978-1-4822-3806-8.
  5. ^ Gelman, Andrew ; Carlin, John B .; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (2013). Análisis de datos bayesianos (tercera edición). Chapman y Hall/CRC. ISBN 978-1-4398-4095-5.
  6. ^ ab Watanabe, Sumio (2013). "Un criterio de información bayesiano ampliamente aplicable" (PDF) . Revista de investigación en aprendizaje automático . 14 : 867–897.