stringtranslate.com

Info-métricas

La infometría es un enfoque interdisciplinario del modelado científico , la inferencia y el procesamiento eficiente de la información . Es la ciencia del modelado, el razonamiento y la extracción de inferencias en condiciones de información ruidosa y limitada. Desde el punto de vista de las ciencias, este marco se encuentra en la intersección de la teoría de la información , los métodos estadísticos de inferencia, las matemáticas aplicadas , la informática , la econometría , la teoría de la complejidad , el análisis de decisiones , el modelado y la filosofía de la ciencia .

La infometría proporciona un marco de optimización restringido para abordar problemas mal determinados o mal planteados, es decir, problemas en los que no hay suficiente información para encontrar una solución única. Estos problemas son muy comunes en todas las ciencias: la información disponible es incompleta , limitada, ruidosa e incierta . La infometría es útil para la modelización , el procesamiento de la información, la construcción de teorías y los problemas de inferencia en todo el espectro científico. El marco de la infometría también se puede utilizar para probar hipótesis sobre teorías en competencia o mecanismos causales .

Historia

La infometría evolucionó a partir del formalismo clásico de máxima entropía , que se basa en el trabajo de Shannon . Las primeras contribuciones se dieron principalmente en las ciencias naturales y matemáticas/estadísticas. Desde mediados de los años 1980 y especialmente a mediados de los años 1990, el enfoque de máxima entropía se generalizó y amplió para abordar una clase más amplia de problemas en las ciencias sociales y del comportamiento, especialmente para problemas y datos complejos. La palabra "infometría" fue acuñada en 2009 por Amos Golan, justo antes de que se inaugurara el Instituto de Infometría interdisciplinario.

Definiciones preliminares

Considere una variable aleatoria que puede dar como resultado uno de K resultados distintos. La probabilidad de cada resultado es para . Por lo tanto, es una distribución de probabilidad K -dimensional definida para tal que y . Defina el contenido informativo de un único resultado como (p. ej., Shannon). Observar un resultado en las colas de la distribución (un evento raro) proporciona mucha más información que observar otro resultado más probable. La entropía [1] es el contenido de información esperado de un resultado de la variable aleatoria X cuya distribución de probabilidad es P :

Aquí si , y es el operador de expectativa .

El problema básico de la infométrica

Consideremos el problema de modelar e inferir la distribución de probabilidad no observada de alguna variable aleatoria discreta de dimensión K dada sólo la media (valor esperado) de esa variable. También sabemos que las probabilidades son no negativas y normalizadas (es decir, suman exactamente 1). Para todo K  > 2 el problema está subdeterminado. Dentro del marco de la info-métrica, la solución es maximizar la entropía de la variable aleatoria sujeta a las dos restricciones: media y normalización. Esto produce la solución de máxima entropía habitual. Las soluciones a ese problema pueden extenderse y generalizarse de varias maneras. Primero, uno puede usar otra entropía en lugar de la entropía de Shannon. Segundo, el mismo enfoque puede usarse para variables aleatorias continuas, para todos los tipos de modelos condicionales (por ejemplo, regresión, desigualdad y modelos no lineales), y para muchas restricciones. Tercero, se pueden incorporar valores previos dentro de ese marco. Cuarto, el mismo marco puede extenderse para dar cabida a una mayor incertidumbre: incertidumbre sobre los valores observados y/o incertidumbre sobre el modelo mismo. Por último, el mismo marco básico se puede utilizar para desarrollar nuevos modelos/teorías, validar estos modelos utilizando toda la información disponible y probar hipótesis estadísticas sobre el modelo.

Ejemplos

Dados de seis caras

Inferencia basada en información resultante de experimentos independientes repetidos.

El siguiente ejemplo se atribuye a Boltzmann y fue popularizado por Jaynes . Considere un dado de seis caras , donde el lanzamiento del dado es el evento y los resultados distintos son los números del 1 al 6 en la cara superior del dado . El experimento son las repeticiones independientes de lanzar el mismo dado . Suponga que solo observa el valor medio empírico, y, de N lanzamientos de un dado de seis caras . Dada esa información, desea inferir las probabilidades de que un valor específico de la cara aparezca en el próximo lanzamiento del dado . También sabe que la suma de las probabilidades debe ser 1. Maximizar la entropía (y usar el logaritmo en base 2) sujeto a estas dos restricciones (media y normalización) produce la solución más desinformada.

para y . La solución es

donde es la probabilidad inferida del evento , son los multiplicadores de Lagrange inferidos asociados con la restricción de media y es la función de partición (normalización). Si es un dado justo con una media de 3,5, se esperaría que todas las caras sean igualmente probables y que las probabilidades sean iguales. Esto es lo que da la solución de máxima entropía. Si el dado no es justo (o está cargado) con una media de 4, la solución de máxima entropía resultante será . A modo de comparación, minimizar el criterio de mínimos cuadrados en lugar de maximizar la entropía da como resultado .

Algunos ejemplos interdisciplinarios

Predicción de precipitaciones : utilizando la precipitación diaria esperada (media aritmética), el marco de máxima entropía se puede utilizar para inferir y pronosticar la distribución diaria de precipitaciones. [2]

Gestión de carteras : supongamos que hay un gestor de carteras que necesita asignar algunos activos o ponderaciones de cartera a diferentes activos, teniendo en cuenta las restricciones y preferencias del inversor. Utilizando estas preferencias y restricciones, así como la información observada, como el rendimiento medio del mercado y las covarianzas de cada activo durante un período de tiempo, se puede utilizar el marco de maximización de la entropía para encontrar las ponderaciones óptimas de la cartera. En este caso, la entropía de la cartera representa su diversidad. Este marco se puede modificar para incluir otras restricciones, como la varianza mínima, la diversidad máxima, etc. Ese modelo implica desigualdades y se puede generalizar aún más para incluir las ventas en corto. Se pueden encontrar más ejemplos de este tipo y el código relacionado en [3] [4]

Se puede encontrar una lista extensa de trabajos relacionados con la infométrica aquí: http://info-metrics.org/bibliography.html

Véase también

Referencias

  1. ^ Shannon, Claude (1948). "Una teoría matemática de la comunicación". Bell System Technical Journal . 27 : 379–423.
  2. ^ Golan, Amos (2018). Fundamentos de la infometría: modelado, inferencia e información imperfecta . Oxford University Press.
  3. ^ Bera, Anil K.; Park, Sung Y. (2008). "Diversificación óptima de carteras utilizando el principio de máxima entropía". Econometric Reviews . 27 (4–6): 484–512.
  4. ^ "Asignación de cartera: fundamentos de la infométrica". info-metrics.org .

Lectura adicional

Clásicos

Libros básicos y monografías de investigación

Otras aplicaciones representativas

Marco Frittelli. "La medida martingala de entropía mínima y el problema de valoración en mercados incompletos". Finanzas matemáticas , 10(1):39–52, 2000.

Amos Golan y Volker Dose. "Un enfoque teórico de información generalizada para la reconstrucción tomográfica". Journal of Physics A: Mathematical and General , 34(7):1271, 2001.

Enlaces externos