stringtranslate.com

Optimización extrema

La optimización extrema (EO) es una heurística de optimización inspirada en el modelo de Bak-Sneppen de criticidad autoorganizada del campo de la física estadística. Esta heurística fue diseñada inicialmente para abordar problemas de optimización combinatoria como el problema del viajante y los vidrios de espín , aunque se ha demostrado que la técnica funciona en dominios de optimización.

Relación con la criticidad autoorganizada

La criticidad autoorganizada (SOC) es un concepto de física estadística que describe una clase de sistemas dinámicos que tienen un punto crítico como atractor. En concreto, se trata de sistemas que no están en equilibrio y que evolucionan mediante avalanchas de cambios y disipaciones que alcanzan las escalas más altas del sistema. Se dice que la SOC rige la dinámica de algunos sistemas naturales que presentan estos fenómenos de tipo estallido, como la formación del paisaje, los terremotos, la evolución y la dinámica granular de los montículos de arroz y arena. En este caso, resulta de especial interés el modelo de Bak-Sneppen de SOC, que es capaz de describir la evolución mediante el equilibrio puntuado (eventos de extinción), modelando así la evolución como un proceso crítico autoorganizado.

Relación con la complejidad computacional

Otra pieza del rompecabezas es el trabajo sobre la complejidad computacional, en particular, que se ha demostrado que existen puntos críticos en problemas NP-completos , donde las soluciones casi óptimas están ampliamente dispersas y separadas por barreras en el espacio de búsqueda, lo que hace que los algoritmos de búsqueda locales se queden atascados o se vean gravemente obstaculizados. Fue el modelo de criticidad autoorganizada evolutiva de Bak y Sneppen y la observación de puntos críticos en problemas de optimización combinatoria lo que condujo al desarrollo de la Optimización Extrema por Stefan Boettcher y Allon Percus.

La técnica

EO fue diseñado como un algoritmo de búsqueda local para problemas de optimización combinatoria . A diferencia de los algoritmos genéticos , que trabajan con una población de soluciones candidatas, EO desarrolla una única solución y realiza modificaciones locales a los peores componentes. Esto requiere que se seleccione una representación adecuada que permita asignar a los componentes individuales de la solución una medida de calidad ("aptitud"). Esto difiere de los enfoques holísticos como la optimización de colonias de hormigas y el cálculo evolutivo que asignan la misma aptitud a todos los componentes de una solución en función de su evaluación colectiva frente a una función objetivo. El algoritmo se inicializa con una solución inicial, que puede construirse aleatoriamente o derivarse de otro proceso de búsqueda.

La técnica es una búsqueda de grano fino y superficialmente se parece a una técnica de escalada de colinas (búsqueda local). Un examen más detallado revela algunos principios interesantes, que pueden tener aplicabilidad e incluso cierta similitud con enfoques más amplios basados ​​en la población ( computación evolutiva y sistema inmunológico artificial ). El principio rector detrás de este algoritmo es el de la mejora mediante la eliminación selectiva de componentes de baja calidad y su reemplazo con un componente seleccionado al azar. Esto obviamente está en desacuerdo con los algoritmos genéticos , el algoritmo de computación evolutiva por excelencia que selecciona buenas soluciones en un intento de crear mejores soluciones.

La dinámica resultante de este principio simple es, en primer lugar, un comportamiento de búsqueda robusto de escalada de pendientes y, en segundo lugar, un mecanismo de diversidad que se asemeja al de la búsqueda de reinicios múltiples. La representación gráfica de la calidad de la solución holística a lo largo del tiempo (iteraciones del algoritmo) muestra períodos de mejora seguidos de caídas de calidad (avalanchas) de forma muy similar a la descrita por el equilibrio puntuado . Son estas caídas o saltos dramáticos en el espacio de búsqueda los que permiten al algoritmo escapar de los óptimos locales y diferenciar este enfoque de otros procedimientos de búsqueda local. Aunque este comportamiento de equilibrio puntuado puede "diseñarse" o "codificarse", debe destacarse que se trata de un efecto emergente del principio de selección de componentes negativos fundamental para el algoritmo.

La EO se ha aplicado principalmente a problemas combinatorios como la partición de gráficos y el problema del viajante , así como a problemas de física estadística como los vidrios de espín .

Variaciones sobre el tema y aplicaciones.

La optimización extrema generalizada (GEO) se desarrolló para operar en cadenas de bits donde la calidad de los componentes está determinada por la tasa absoluta de cambio del bit o la contribución de los bits a la calidad de la solución holística. Este trabajo incluye la aplicación a problemas de optimización de funciones estándar, así como a dominios de problemas de ingeniería. Otra extensión similar a la EO es la Optimización Extrema Continua (CEO).

La EO se ha aplicado a la rasterización de imágenes y también se ha utilizado como una búsqueda local después de utilizar la optimización de colonias de hormigas . La EO se ha utilizado para identificar estructuras en redes complejas. La EO se ha utilizado en un problema de seguimiento de múltiples objetivos. Por último, se ha trabajado en la investigación de la distribución de probabilidad utilizada para controlar la selección.

Véase también

Referencias

Enlaces externos