stringtranslate.com

Criterio de información de Hannan-Quinn

En estadística , el criterio de información de Hannan-Quinn (HQC) es un criterio para la selección de modelos . Es una alternativa al criterio de información de Akaike (AIC) y al criterio de información bayesiano (BIC). Se da como

donde es la probabilidad logarítmica, k es el número de parámetros y n es el número de observaciones .

Burnham y Anderson (2002, p. 287) dicen que el HQC, "aunque se cita con frecuencia, parece haber tenido poca utilidad en la práctica". También señalan que HQC, como BIC, pero a diferencia de AIC, no es un estimador de la divergencia Kullback-Leibler . Claeskens y Hjort (2008, cap. 4) señalan que HQC, como BIC, pero a diferencia de AIC, no es asintóticamente eficiente ; sin embargo, no alcanza la tasa de estimación óptima por un factor muy pequeño. Señalan además que cualquier método que se utilice para ajustar el criterio será más importante en la práctica que el término , ya que este último número es pequeño incluso para casos muy grandes ; sin embargo, el término garantiza que, a diferencia de AIC, HQC sea fuertemente consistente. De la ley del logaritmo iterado se deduce que cualquier método fuertemente consistente debe perder la eficiencia por al menos un factor, por lo que en este sentido HQC se comporta asintóticamente muy bien. Van der Pas y Grünwald demuestran que la selección de modelos basada en un estimador bayesiano modificado, la llamada distribución de cambio, en muchos casos se comporta asintóticamente como HQC, conservando al mismo tiempo las ventajas de los métodos bayesianos, como el uso de antecedentes, etc.

Ver también

Referencias