Método de Monte Carlo para muestreo de importancia y optimización
El método de entropía cruzada ( CE ) es un método de Monte Carlo para el muestreo y optimización de importancia . Es aplicable tanto a problemas combinatorios como continuos , con un objetivo estático o ruidoso.
El método aproxima el estimador de muestreo de importancia óptima repitiendo dos fases: [1]
- Extraer una muestra de una distribución de probabilidad .
- Minimizar la entropía cruzada entre esta distribución y una distribución objetivo para producir una mejor muestra en la próxima iteración.
Reuven Rubinstein desarrolló el método en el contexto de la simulación de eventos poco frecuentes , donde se deben estimar probabilidades minúsculas, por ejemplo, en el análisis de confiabilidad de redes, modelos de colas o análisis de rendimiento de sistemas de telecomunicaciones. El método también se ha aplicado a problemas de vendedor ambulante , asignación cuadrática , alineamiento de secuencias de ADN , corte máximo y asignación de búfer.
Estimación mediante muestreo de importancia
Consideremos el problema general de estimar la cantidad
,
donde es una función de rendimiento y es un miembro de una familia paramétrica de distribuciones. Mediante el muestreo de importancia, esta cantidad se puede estimar como
,
donde es una muestra aleatoria de . Para valores positivos , la densidad de muestreo de importancia (PDF) teóricamente óptima está dada por
.
Sin embargo, esto depende de la incógnita . El método CE tiene como objetivo aproximar la PDF óptima seleccionando de manera adaptativa los miembros de la familia paramétrica que sean más cercanos (en el sentido de Kullback-Leibler ) a la PDF óptima .
Algoritmo CE genérico
- Elija el vector de parámetros inicial ; establezca t = 1.
- Generar una muestra aleatoria de
- Resolver para , donde
- Si se alcanza la convergencia, deténgase ; de lo contrario, aumente t en 1 y repita desde el paso 2.
En varios casos, la solución del paso 3 se puede encontrar analíticamente . Las situaciones en las que esto ocurre son:
- Cuando pertenece a la familia exponencial natural
- ¿Cuándo es discreto con soporte finito?
- Cuando y , entonces corresponde al estimador de máxima verosimilitud basado en aquellos .
Optimización continua: ejemplo
El mismo algoritmo CE se puede utilizar para la optimización, en lugar de la estimación. Supongamos que el problema es maximizar alguna función , por ejemplo, . Para aplicar CE, se considera primero el problema estocástico asociado de estimación
para un nivel dado , y familia paramétrica , por ejemplo la distribución gaussiana unidimensional , parametrizada por su media y varianza (así aquí). Por lo tanto, para un dado , el objetivo es encontrar de modo que
se minimice. Esto se hace resolviendo la versión de muestra (contraparte estocástica) del problema de minimización de divergencia KL, como en el paso 3 anterior. Resulta que los parámetros que minimizan la contraparte estocástica para esta elección de distribución objetivo y familia paramétrica son la media de la muestra y la varianza de la muestra correspondientes a las muestras de élite , que son aquellas muestras que tienen un valor de función objetivo . La peor de las muestras de élite se utiliza entonces como parámetro de nivel para la siguiente iteración. Esto produce el siguiente algoritmo aleatorio que coincide con el llamado Algoritmo de Estimación Normal Multivariante (EMNA), un algoritmo de estimación de distribución .
Pseudocódigo
// Inicializar parámetrosμ := −6σ2 := 100t:= 0maximos := 100Número := 100No := 10// Mientras que maxits no se excedan y no converjan mientras t < maxits y σ2 > ε sí // Obtener N muestras de la distribución de muestreo actual X := MuestraGaussiana(μ, σ2, N) // Evaluar la función objetivo en los puntos muestreados S := exp(−(X − 2) ^ 2) + 0,8 exp(−(X + 2) ^ 2) // Ordenar X por valores de la función objetivo en orden descendente X := ordenar(X, S) // Actualizar los parámetros de distribución de muestreo a través de muestras de élite μ := media(X(1:Ne)) σ2 := var(X(1:Ne)) t := t + 1// Devuelve la media de la distribución de muestreo final como solución de retorno μ
Métodos relacionados
Véase también
Artículos de revistas
- De Boer, P.-T., Kroese, DP, Mannor, S. y Rubinstein, RY (2005). Un tutorial sobre el método de entropía cruzada. Annals of Operations Research , 134 (1), 19–67.[1]
- Rubinstein, RY (1997). Optimización de modelos de simulación por computadora con eventos raros, European Journal of Operational Research , 99 , 89–112.
Implementaciones de software
- Paquete CEoptim R
- Biblioteca .NET de Novacta.Analytics
Referencias
- ^ Rubinstein, RY y Kroese, DP (2004), El método de entropía cruzada: un enfoque unificado para la optimización combinatoria, la simulación de Montecarlo y el aprendizaje automático, Springer-Verlag, Nueva York ISBN 978-0-387-21240-1 .