Metaoptimización

La metaoptimización se conoce también en la literatura como: meta-evolución, super-optimización, calibración automática de parámetros, etc.

Estos parámetros deben ser escogidos por el investigador en pos de alcanzar resultados satisfactorios.

Por ende, se necesita un método eficiente para explorar dicho espacio de búsqueda.

Cuando alcanza un óptimo local, refina el espacio de búsqueda y reinicia el proceso.

Dicho proceso iterativo puede verse como una "carrera" donde las peores configuraciones abandonan la competencia a medida que esta avanza, favoreciendo a las configuraciones más prometedoras que tendrán más evaluaciones y por ende un mejor estimado de su comportamiento real.

A continuación se efectúa la prueba de Friedman para comprobar si existen diferencias significativas entre las configuraciones.

Esta prueba de hipótesis, cumple la función de un "árbitro" que, determina cuáles corredores(configuraciones) no reúnen las condiciones necesarias para alcanzar buenos resultados, esto es, mejorar el rendimiento ofrecido por las configuraciones restantes.

Si la hipótesis nula es rechazada, se realizan comparaciones dos a dos entre todas las configuraciones y la de mejor rendimiento, eliminando aquellas que son significativamente peor.

Este proceso continua hasta que queda una sola configuración en memoria o se alcanza determinado tiempo límite.

Este enfoque, de fijar un N a priori, resulta efectivo cuando las instancias utilizadas son muy hetereógeneas o es posible identificar un "pequeño" subconjunto de instancias que sea representativo pues permite obtener buenas configuraciones con poco esfuerzo computacional.

Entre los cuatro escenarios estudiados, FocusedILS superó ostensiblemente a CALIBRA en dos de ellos y lo mejoró en promedio en un tercero.

Esta propuesta, diferencia el tratamiento de los parámetros continuos y discretos, o sea, los parámetros continuos no son discretizados lo cual representa una ventaja respecto a F-Race y ParamILS.

El algoritmo termina al alcanzar un número predeterminado de iteraciones y devuelve la mejor configuración encontrada.

La metaoptimización en optimización por enjambre de partículas (PSO) ha sido realizada por Meissner et al.

[14]​ así como por Pedersen y Chipperfield,[15]​ quien además ha trabajado en la meta-optimización de evolución diferencial.

Topología de rendimiento para Evolución diferencial .
Meta-optimización en Evolución diferencial .