stringtranslate.com

Longitud mínima del mensaje

La longitud mínima del mensaje (MML) es un método bayesiano de teoría de la información para la comparación y selección de modelos estadísticos. [1] Proporciona una reformulación formal de la teoría de la información de la Navaja de Occam : incluso cuando los modelos son iguales en su medida de precisión de ajuste a los datos observados, el que genera la explicación más concisa de los datos tiene más probabilidades de ser correcto (donde la explicación consiste en la declaración del modelo, seguida de la codificación sin pérdidas de los datos utilizando el modelo indicado). MML fue inventado por Chris Wallace y apareció por primera vez en el artículo fundamental "Una medida de información para la clasificación". [2] MML no pretende ser sólo una construcción teórica, sino también una técnica que puede implementarse en la práctica. [3] Se diferencia del concepto relacionado de complejidad de Kolmogorov en que no requiere el uso de un lenguaje completo de Turing para modelar datos. [4]

Definición

Una teoría matemática de la comunicación de Shannon (1948) establece que en un código óptimo, la longitud del mensaje (en binario) de un evento , donde tiene probabilidad , está dada por .

El teorema de Bayes establece que la probabilidad de una hipótesis (variable) dada evidencia fija es proporcional a , que, según la definición de probabilidad condicional , es igual a . Queremos el modelo (hipótesis) con la mayor probabilidad posterior . Supongamos que codificamos un mensaje que representa (describe) tanto el modelo como los datos de forma conjunta. Desde , el modelo más probable tendrá el mensaje más corto. El mensaje se divide en dos partes: . La primera parte codifica el modelo en sí. La segunda parte contiene información (por ejemplo, valores de parámetros o condiciones iniciales, etc.) que, cuando la procesa el modelo, genera los datos observados.

MML cambia de forma natural y precisa la complejidad del modelo por la bondad de ajuste. Un modelo más complicado tarda más en formularse (primera parte más larga) pero probablemente se ajuste mejor a los datos (segunda parte más corta). Por lo tanto, una métrica MML no elegirá un modelo complicado a menos que ese modelo se pague por sí solo.

Parámetros de valores continuos

Una razón por la cual un modelo podría ser más largo sería simplemente porque sus diversos parámetros se expresan con mayor precisión, lo que requiere la transmisión de más dígitos. Gran parte del poder de MML se deriva de su manejo de la precisión con la que se establecen los parámetros en un modelo y de una variedad de aproximaciones que lo hacen factible en la práctica. Esto hace posible comparar de manera útil, por ejemplo, un modelo con muchos parámetros expresados ​​de manera imprecisa con un modelo con menos parámetros expresados ​​con mayor precisión.

Características clave de MML

Ver también

Referencias

  1. ^ Wallace, CS (Christopher S.), -2004. (2005). Inferencia estadística e inductiva por longitud mínima de mensaje . Nueva York: Springer. ISBN 9780387237954. OCLC  62889003.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace ) Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  2. ^ Wallace, CS; Boulton, DM (1 de agosto de 1968). "Una medida de información para la clasificación". La revista informática . 11 (2): 185-194. doi : 10.1093/comjnl/11.2.185 . ISSN  0010-4620.
  3. ^ Allison, Lloyd. (2019). Codificando la navaja de Ockham . Saltador. ISBN 978-3030094881. OCLC  1083131091.
  4. ^ ab Wallace, CS; Dowe, DL (1 de enero de 1999). "Longitud mínima del mensaje y complejidad de Kolmogorov". La revista informática . 42 (4): 270–283. doi : 10.1093/comjnl/42.4.270. ISSN  0010-4620.

enlaces externos

Publicación original:

Libros:

Enlaces relacionados: