stringtranslate.com

Optimización de Enjambre de partículas

Un enjambre de partículas en busca del mínimo global de una función

En ciencia computacional , la optimización por enjambre de partículas ( PSO ) [1] es un método computacional que optimiza un problema tratando iterativamente de mejorar una solución candidata con respecto a una medida de calidad determinada. Resuelve un problema al tener una población de soluciones candidatas, aquí denominadas partículas , y mover estas partículas en el espacio de búsqueda de acuerdo con una fórmula matemática simple sobre la posición y velocidad de la partícula . El movimiento de cada partícula está influenciado por su posición local más conocida, pero también se guía hacia las posiciones mejor conocidas en el espacio de búsqueda, que se actualizan a medida que otras partículas encuentran mejores posiciones. Se espera que esto impulse al enjambre hacia las mejores soluciones.

PSO se atribuye originalmente a Kennedy , Eberhart y Shi [2] [3] y inicialmente estaba destinado a simular el comportamiento social , [4] como una representación estilizada del movimiento de organismos en una bandada de pájaros o un banco de peces . Se simplificó el algoritmo y se observó que estaba realizando optimización. El libro de Kennedy y Eberhart [5] describe muchos aspectos filosóficos de PSO y la inteligencia de enjambre . Poli realiza un estudio exhaustivo de las solicitudes de PSO . [6] [7] En 2017, Bonyadi y Michalewicz publicaron una revisión exhaustiva de trabajos teóricos y experimentales sobre PSO. [1]

PSO es una metaheurística ya que hace pocas o ninguna suposición sobre el problema que se está optimizando y puede buscar espacios muy grandes de soluciones candidatas. Además, PSO no utiliza el gradiente del problema que se está optimizando, lo que significa que PSO no requiere que el problema de optimización sea diferenciable como lo requieren los métodos de optimización clásicos, como el descenso de gradiente y los métodos cuasi-newton . Sin embargo, metaheurísticas como PSO no garantizan que alguna vez se encuentre una solución óptima.

Algoritmo

Una variante básica del algoritmo PSO funciona teniendo una población (llamada enjambre) de soluciones candidatas (llamadas partículas). Estas partículas se mueven en el espacio de búsqueda según unas pocas fórmulas sencillas. [8] Los movimientos de las partículas están guiados por su propia posición más conocida en el espacio de búsqueda, así como por la posición más conocida de todo el enjambre. Cuando se descubran posiciones mejoradas, éstas guiarán los movimientos del enjambre. El proceso se repite y al hacerlo se espera, aunque no se garantiza, que finalmente se descubra una solución satisfactoria.

Formalmente, sea f : ℝ n  → ℝ la función de costos que debe minimizarse. La función toma una solución candidata como argumento en forma de un vector de números reales y produce un número real como salida que indica el valor de la función objetivo de la solución candidata dada. Se desconoce el gradiente de f . El objetivo es encontrar una solución a para la cual f ( a ) ≤  f ( b ) para todo b en el espacio de búsqueda, lo que significaría que a es el mínimo global.

Sea S el número de partículas en el enjambre, cada una de las cuales tiene una posición x i  ∈ ℝ n en el espacio de búsqueda y una velocidad v i  ∈ ℝ n . Sea p i la posición mejor conocida de la partícula i y sea g la posición mejor conocida de todo el enjambre. Un algoritmo PSO básico para minimizar la función de costos es entonces: [9]

para cada partícula i  = 1, ...,  S  inicialice la posición de la partícula con un vector aleatorio distribuido uniformemente : x i  ~  U ( b lob up ) Inicialice la posición más conocida de la partícula a su posición inicial: p i  ←  x i  si  f ( p i ) < f ( g ) luego actualice la posición más conocida del enjambre: g  ←  p i Inicialice la velocidad de la partícula: v i  ~  U (- | b arriba - b lo |, | b arriba - b lo |) mientras no se cumpla un criterio de terminación hacer : para cada partícula i  = 1, ...,  S  hacer  para cada dimensión d  = 1, ...,  n  Elija números aleatorios: r p , r g ~ U (0,1) Actualiza la velocidad de la partícula: v i,d  ← w v i,d + φ p  r p ( p i,d - x i,d ) + φ g  r g ( g d - x i,d ) Actualiza la posición de la partícula: x i  ←  x i + v i  si  f ( x i ) < f ( p i ) entonces Actualiza la posición más conocida de la partícula: p i  ←  x i  si  f ( p i ) < f ( g ) entonces Actualiza la posición más conocida del enjambre: g  ←  p i

Los valores b lo y b up representan los límites inferior y superior del espacio de búsqueda respectivamente. El parámetro w es el peso de inercia. Los parámetros φ p y φ g a menudo se denominan coeficiente cognitivo y coeficiente social.

El criterio de terminación puede ser el número de iteraciones realizadas o una solución donde se encuentre el valor adecuado de la función objetivo. [10] Los parámetros w, φ p y φ g son seleccionados por el profesional y controlan el comportamiento y la eficacia del método PSO (a continuación).

Selección de parámetros

Panorama de rendimiento que muestra cómo se desempeña una variante de PSO simple en conjunto en varios problemas de referencia al variar dos parámetros de PSO.

La elección de los parámetros de PSO puede tener un gran impacto en el rendimiento de la optimización. Por lo tanto, la selección de parámetros de PSO que produzcan un buen rendimiento ha sido objeto de mucha investigación. [11] [12] [13] [14] [15] [16] [17] [18] [19]

Para evitar la divergencia ("explosión"), el peso de inercia debe ser menor que 1. Los otros dos parámetros pueden luego derivarse gracias al enfoque de constricción, [16] o seleccionarse libremente, pero los análisis sugieren dominios de convergencia para restringirlos. Los valores típicos están en .

Los parámetros de PSO también se pueden ajustar utilizando otro optimizador superpuesto, un concepto conocido como metaoptimización , [20] [21] [22] [23] o incluso ajustarse durante la optimización, por ejemplo, mediante lógica difusa. [24] [25]

También se han ajustado los parámetros para varios escenarios de optimización. [26] [27]

Barrios y topologías

La topología del enjambre define el subconjunto de partículas con las que cada partícula puede intercambiar información. [28] La versión básica del algoritmo utiliza la topología global como estructura de comunicación de enjambre. [10] Esta topología permite que todas las partículas se comuniquen con todas las demás partículas, por lo que todo el enjambre comparte la misma mejor posición g de una sola partícula. Sin embargo, este enfoque podría llevar al enjambre a quedar atrapado en un mínimo local, [29] por lo que se han utilizado diferentes topologías para controlar el flujo de información entre las partículas. Por ejemplo, en topologías locales, las partículas sólo comparten información con un subconjunto de partículas. [10] Este subconjunto puede ser geométrico [30] – por ejemplo "las m partículas más cercanas" – o, más a menudo, social, es decir, un conjunto de partículas que no depende de ninguna distancia. En tales casos, se dice que la variante PSO es la mejor a nivel local (frente a la mejor opción global para la PSO básica).

Una topología de enjambre comúnmente utilizada es la de anillo, en la que cada partícula tiene sólo dos vecinas, pero hay muchas otras. [10] La topología no es necesariamente estática. De hecho, dado que la topología está relacionada con la diversidad de comunicación de las partículas, [31] se han hecho algunos esfuerzos para crear topologías adaptativas (SPSO, [32] APSO, [33] estrella estocástica, [34] TRIBES, [35] ] Cyber ​​Swarm, [36] y C-PSO [37] )

Al utilizar la topología en anillo, PSO puede lograr un paralelismo a nivel de generación, mejorando significativamente la velocidad evolutiva. [38]

funcionamiento interno

Existen varias escuelas de pensamiento sobre por qué y cómo el algoritmo PSO puede realizar la optimización.

Una creencia común entre los investigadores es que el comportamiento del enjambre varía entre un comportamiento exploratorio, es decir, buscar en una región más amplia del espacio de búsqueda, y un comportamiento explotador, es decir, una búsqueda orientada localmente para acercarse a un (posiblemente local) óptimo. Esta escuela de pensamiento ha prevalecido desde los inicios de PSO. [3] [4] [12] [16] Esta escuela de pensamiento sostiene que el algoritmo PSO y sus parámetros deben elegirse de manera que se equilibre adecuadamente entre exploración y explotación para evitar una convergencia prematura a un óptimo local y aún así garantizar una buena tasa. de convergencia al óptimo. Esta creencia es la precursora de muchas variantes de PSO, ver más abajo.

Otra escuela de pensamiento es que el comportamiento de un enjambre de PSO no se comprende bien en términos de cómo afecta el rendimiento de optimización real, especialmente para espacios de búsqueda de dimensiones superiores y problemas de optimización que pueden ser discontinuos, ruidosos y variables en el tiempo. Esta escuela de pensamiento simplemente intenta encontrar algoritmos y parámetros PSO que causen un buen desempeño independientemente de cómo se pueda interpretar el comportamiento del enjambre en relación, por ejemplo, con la exploración y la explotación. Estos estudios han llevado a la simplificación del algoritmo PSO, ver más abajo.

Convergencia

En relación con PSO, la palabra convergencia suele referirse a dos definiciones diferentes:

Se ha investigado la convergencia de la secuencia de soluciones para PSO. [15] [16] [17] Estos análisis han dado como resultado pautas para seleccionar parámetros de PSO que se cree que causan convergencia a un punto y evitan la divergencia de las partículas del enjambre (las partículas no se mueven ilimitadamente y convergerán en algún lugar). Sin embargo, Pedersen [22] criticó los análisis por ser demasiado simplificados, ya que suponen que el enjambre tiene una sola partícula, que no utiliza variables estocásticas y que los puntos de atracción, es decir, la posición p mejor conocida de la partícula y la posición del enjambre. La posición más conocida g permanece constante durante todo el proceso de optimización. Sin embargo, se demostró [39] que estas simplificaciones no afectan los límites encontrados por estos estudios para el parámetro donde el enjambre es convergente. En los últimos años se ha hecho un esfuerzo considerable para debilitar el supuesto de modelado utilizado durante el análisis de estabilidad de PSO, [40] y el resultado generalizado más reciente se aplicó a numerosas variantes de PSO y utilizó lo que se demostró que eran los supuestos de modelado mínimos necesarios. [41]

La convergencia a un óptimo local se ha analizado para PSO en [42] y. [43] Se ha demostrado que PSO necesita alguna modificación para garantizar la búsqueda de un óptimo local.

Esto significa que determinar las capacidades de convergencia de diferentes algoritmos y parámetros de PSO todavía depende de resultados empíricos . Un intento de abordar esta cuestión es el desarrollo de una estrategia de "aprendizaje ortogonal" para un uso mejorado de la información ya existente en la relación entre p y g , a fin de formar un ejemplo convergente líder y ser efectivo con cualquier topología PSO. Los objetivos son mejorar el rendimiento de PSO en general, incluida una convergencia global más rápida, una mayor calidad de la solución y una mayor solidez. [44] Sin embargo, estos estudios no proporcionan evidencia teórica para probar realmente sus afirmaciones.

Mecanismos adaptativos

Sin necesidad de un equilibrio entre convergencia ('explotación') y divergencia ('exploración'), se puede introducir un mecanismo de adaptación. La optimización adaptativa del enjambre de partículas (APSO) [45] presenta una mejor eficiencia de búsqueda que la PSO estándar. APSO puede realizar una búsqueda global en todo el espacio de búsqueda con una mayor velocidad de convergencia. Permite el control automático del peso de inercia, los coeficientes de aceleración y otros parámetros algorítmicos en el tiempo de ejecución, mejorando así la efectividad y eficiencia de la búsqueda al mismo tiempo. Además, APSO puede actuar sobre la mejor partícula a nivel mundial para saltar del probable óptimo local. Sin embargo, APSO introducirá nuevos parámetros de algoritmo, aunque no introduce complejidad adicional de diseño o implementación.

Además, mediante la utilización de un mecanismo de evaluación de aptitud adaptativo a escala, PSO puede abordar de manera eficiente problemas de optimización computacionalmente costosos. [46]

Variantes

Son posibles numerosas variantes incluso de un algoritmo PSO básico. Por ejemplo, hay diferentes maneras de inicializar las partículas y las velocidades (por ejemplo, comenzar con velocidades cero), cómo amortiguar la velocidad, actualizar p i y g solo después de que se haya actualizado todo el enjambre, etc. Algunas de estas opciones y sus El posible impacto en el rendimiento se ha discutido en la literatura. [14]

Investigadores destacados han creado una serie de implementaciones estándar, "destinadas a usarse como base para las pruebas de rendimiento de las mejoras de la técnica, así como para representar PSO ante la comunidad de optimización más amplia. El algoritmo estándar proporciona un valioso punto de comparación que se puede utilizar en todo el campo de la investigación para probar mejor nuevos avances". [10] La última es la Norma PSO 2011 (SPSO-2011). [47]

Hibridación

También se introducen continuamente variantes de PSO nuevas y más sofisticadas en un intento de mejorar el rendimiento de la optimización. Hay ciertas tendencias en esa investigación; Una es crear un método de optimización híbrido utilizando PSO combinado con otros optimizadores, [48] [49] [50] , por ejemplo, PSO combinado con optimización basada en biogeografía, [51] y la incorporación de un método de aprendizaje eficaz. [44]

Aliviar la convergencia prematura

Otra tendencia de investigación es tratar de aliviar la convergencia prematura (es decir, el estancamiento de la optimización), por ejemplo, invirtiendo o perturbando el movimiento de las partículas PSO, [19] [52] [53] [54] otro enfoque para lidiar con la convergencia prematura es el uso de múltiples enjambres [55] ( optimización de múltiples enjambres ). El enfoque de enjambre múltiple también se puede utilizar para implementar una optimización de objetivos múltiples. [56] Finalmente, hay avances en la adaptación de los parámetros de comportamiento de PSO durante la optimización. [45] [24]

Simplificaciones

Otra escuela de pensamiento es que PSO debería simplificarse tanto como sea posible sin perjudicar su desempeño; un concepto general al que a menudo se hace referencia como la navaja de Occam . Kennedy [4] sugirió originalmente la simplificación de PSO y se ha estudiado más extensamente, [18] [21] [22] [57] donde parecía que el rendimiento de la optimización mejoraba y los parámetros eran más fáciles de ajustar y funcionaban de manera más consistente. en diferentes problemas de optimización.

Otro argumento a favor de simplificar PSO es que la eficacia de las metaheurísticas sólo puede demostrarse empíricamente mediante experimentos computacionales en un número finito de problemas de optimización. Esto significa que no se puede demostrar que una metaheurística como PSO sea correcta y esto aumenta el riesgo de cometer errores en su descripción e implementación. Un buen ejemplo de esto [58] presentó una variante prometedora de un algoritmo genético (otra metaheurística popular), pero más tarde se descubrió que era defectuoso ya que estaba fuertemente sesgado en su búsqueda de optimización hacia valores similares para diferentes dimensiones en el espacio de búsqueda, lo que resultó ser el óptimo de los problemas de referencia considerados. Este sesgo se debió a un error de programación y ahora se ha solucionado. [59]

PSO básico

La inicialización de velocidades puede requerir entradas adicionales. La variante Bare Bones PSO [60] fue propuesta en 2003 por James Kennedy y no necesita utilizar velocidad en absoluto.

En esta variante de PSO se prescinde de la velocidad de las partículas y en su lugar se actualizan las posiciones de las partículas utilizando la siguiente regla simple:

donde , son la posición y la mejor posición de la partícula ; es la mejor posición global; es la distribución normal con la media y la desviación estándar ; y donde significa la norma de un vector.

Optimización acelerada del enjambre de partículas

Otra variante más simple es la optimización acelerada del enjambre de partículas (APSO), [61] que tampoco necesita utilizar velocidad y puede acelerar la convergencia en muchas aplicaciones. Está disponible un código de demostración simple de APSO. [62]

En esta variante de PSO se prescinde tanto de la velocidad de la partícula como de su mejor posición. La posición de la partícula se actualiza de acuerdo con la siguiente regla,

donde es un vector aleatorio distribuido uniformemente, es la longitud típica del problema en cuestión y son los parámetros del método. Como refinamiento del método, se puede disminuir con cada iteración, donde es el número de iteración y es el parámetro de control de disminución.

Optimización multiobjetivo

PSO también se ha aplicado a problemas multiobjetivo , [63] [64] [65] en los que la comparación de la función objetivo tiene en cuenta la dominancia de Pareto cuando se mueven las partículas de PSO y las soluciones no dominadas se almacenan para aproximarse al frente de Pareto. .

Binario, discreto y combinatorio.

Como las ecuaciones PSO dadas anteriormente funcionan con números reales, un método comúnmente utilizado para resolver problemas discretos es mapear el espacio de búsqueda discreto a un dominio continuo, aplicar un PSO clásico y luego desmapear el resultado. Esta asignación puede ser muy sencilla (por ejemplo, utilizando simplemente valores redondeados) o más sofisticada. [66]

Sin embargo, se puede observar que las ecuaciones de movimiento hacen uso de operadores que realizan cuatro acciones:

Generalmente una posición y una velocidad están representadas por n números reales, y estos operadores son simplemente -, *, + y nuevamente +. Pero todos estos objetos matemáticos se pueden definir de una manera completamente diferente, para hacer frente a problemas binarios (o más generalmente discretos), o incluso combinatorios. [67] [68] [69] [70] Un enfoque es redefinir los operadores basados ​​en conjuntos. [71]

Ver también

Referencias

  1. ^ ab Bonyadi, SEÑOR; Michalewicz, Z. (2017). "Optimización de enjambres de partículas para problemas de espacio continuo de un solo objetivo: una revisión". Computación Evolutiva . 25 (1): 1–54. doi :10.1162/EVCO_r_00180. PMID  26953883. S2CID  8783143.
  2. ^ Kennedy, J.; Eberhart, R. (1995). "Optimización de Enjambre de partículas". Actas de la Conferencia Internacional IEEE sobre Redes Neuronales . vol. IV. págs. 1942-1948. doi :10.1109/ICNN.1995.488968.
  3. ^ ab Shi, Y.; Eberhart, RC (1998). "Un optimizador de enjambre de partículas modificado". Actas de la Conferencia Internacional IEEE sobre Computación Evolutiva . págs. 69–73. doi :10.1109/ICEC.1998.699146.
  4. ^ abc Kennedy, J. (1997). "El enjambre de partículas: adaptación social del conocimiento". Actas de la Conferencia Internacional IEEE sobre Computación Evolutiva . págs. 303–308. doi :10.1109/ICEC.1997.592326.
  5. ^ Kennedy, J.; Eberhart, RC (2001). Inteligencia de enjambre . Morgan Kaufman. ISBN 978-1-55860-595-4.
  6. ^ Poli, R. (2007). "Un análisis de publicaciones sobre aplicaciones de optimización de enjambres de partículas" (PDF) . Informe Técnico CSM-469 . Archivado desde el original (PDF) el 16 de julio de 2011 . Consultado el 3 de mayo de 2010 .
  7. ^ Poli, R. (2008). "Análisis de las publicaciones sobre las aplicaciones de la optimización de enjambres de partículas" (PDF) . Revista de Evolución y Aplicaciones Artificiales . 2008 : 1–10. doi : 10.1155/2008/685175 .
  8. ^ Zhang, Y. (2015). "Un estudio completo sobre el algoritmo de optimización del enjambre de partículas y sus aplicaciones". Problemas Matemáticos en Ingeniería . 2015 : 931256.
  9. ^ Clerc, M. (2012). "Optimización de enjambre de partículas estándar" (PDF) . Archivo de acceso abierto HAL .
  10. ^ abcde Bratton, Daniel; Kennedy, James (2007). "Definición de un estándar para la optimización del enjambre de partículas". Simposio de inteligencia de enjambre IEEE 2007 (PDF) . págs. 120-127. doi :10.1109/SIS.2007.368035. ISBN 978-1-4244-0708-8. S2CID  6217309.
  11. ^ Taherkhani, M.; Safabakhsh, R. (2016). "Un nuevo peso de inercia adaptativo basado en la estabilidad para la optimización del enjambre de partículas". Computación blanda aplicada . 38 : 281–295. doi :10.1016/j.asoc.2015.10.004.
  12. ^ ab Shi, Y.; Eberhart, RC (1998). "Selección de parámetros en la optimización del enjambre de partículas". Actas de Programación Evolutiva VII (EP98) . págs. 591–600.
  13. ^ Eberhart, RC; Shi, Y. (2000). "Comparación de pesos de inercia y factores de constricción en la optimización del enjambre de partículas". Actas del Congreso sobre Computación Evolutiva . vol. 1. págs. 84–88.
  14. ^ ab Carlisle, A.; Dozier, G. (2001). "Una PSO lista para usar" (PDF) . Actas del taller de optimización de enjambres de partículas . págs. 1–6. Archivado desde el original (PDF) el 3 de mayo de 2003.
  15. ^ ab van den Bergh, F. (2001). Un análisis de optimizadores de enjambres de partículas (PDF) (tesis doctoral). Universidad de Pretoria, Facultad de Ciencias Naturales y Agrícolas.
  16. ^ abcd Clerc, M.; Kennedy, J. (2002). "El enjambre de partículas: explosión, estabilidad y convergencia en un espacio complejo multidimensional". Transacciones IEEE sobre computación evolutiva . 6 (1): 58–73. CiteSeerX 10.1.1.460.6608 . doi :10.1109/4235.985692. 
  17. ^ ab Trelea, IC (2003). "El algoritmo de optimización del enjambre de partículas: análisis de convergencia y selección de parámetros". Cartas de procesamiento de información . 85 (6): 317–325. doi :10.1016/S0020-0190(02)00447-7.
  18. ^ ab Bratton, D.; Blackwell, T. (2008). "Un PSO recombinante simplificado" (PDF) . Revista de Evolución y Aplicaciones Artificiales . 2008 : 1–10. doi : 10.1155/2008/654184 .
  19. ^ ab Evers, G. (2009). Un mecanismo de reagrupación automática para abordar el estancamiento en la optimización del enjambre de partículas. La Universidad de Texas - Panamericana, Departamento de Ingeniería Eléctrica. Archivado desde el original (tesis de maestría) el 18 de mayo de 2011 . Consultado el 5 de mayo de 2010 .
  20. ^ Meissner, M.; Schmuker, M.; Schneider, G. (2006). "Optimización optimizada del enjambre de partículas (OPSO) y su aplicación al entrenamiento de redes neuronales artificiales". Bioinformática BMC . 7 (1): 125. doi : 10.1186/1471-2105-7-125 . PMC 1464136 . PMID  16529661. 
  21. ^ ab Pedersen, MEH (2010). Ajuste y simplificación de la optimización heurística (PDF) . Universidad de Southampton, Facultad de Ciencias de la Ingeniería, Grupo de Diseño e Ingeniería Computacional. S2CID  107805461. Archivado desde el original (tesis doctoral) el 13 de febrero de 2020.
  22. ^ abc Pedersen, MEH; Chipperfield, AJ (2010). "Simplificación de la optimización del enjambre de partículas". Computación blanda aplicada . 10 (2): 618–628. CiteSeerX 10.1.1.149.8300 . doi :10.1016/j.asoc.2009.08.029. 
  23. ^ Masón, Karl; Duggan, Jim; Howley, Enda (2018). "Un análisis de metaoptimización de ecuaciones de actualización de velocidad de optimización de enjambre de partículas para el aprendizaje de la gestión de cuencas hidrográficas". Computación blanda aplicada . 62 : 148-161. doi :10.1016/j.asoc.2017.10.018.
  24. ^ ab Nobile, MS; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G.; Pasi, G. (2018). "Fuzzy Self-Tuning PSO: un algoritmo sin configuración para la optimización global". Enjambre y computación evolutiva . 39 : 70–85. doi :10.1016/j.swevo.2017.09.001. hdl : 10446/106467 .
  25. ^ Nobile, EM; Pasí, G.; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G. (2015). "Partículas proactivas en la optimización de enjambre: un algoritmo de autoajuste basado en lógica difusa". Actas de la Conferencia Internacional IEEE 2015 sobre Sistemas Difusos (FUZZ-IEEE 2015), Estambul (Turquía) . págs. 1–8. doi :10.1109/FUZZ-IEEE.2015.7337957.
  26. ^ Cazzaniga, P.; Nobile, MS; Besozzi, D. (2015). "El impacto de la inicialización de partículas en PSO: estimación de parámetros como ejemplo, (Canadá)". Actas de la Conferencia IEEE sobre inteligencia computacional en bioinformática y biología computacional . doi :10.1109/CIBCB.2015.7300288.
  27. ^ Pedersen, MEH (2010). "Buenos parámetros para la optimización del enjambre de partículas". Informe Técnico HL1001 . CiteSeerX 10.1.1.298.4359 . 
  28. ^ Kennedy, J.; Mendes, R. (2002). "Estructura de la población y rendimiento del enjambre de partículas". Actas del Congreso de 2002 sobre Computación Evolutiva. CEC'02 (Nº de catálogo 02TH8600) . vol. 2. págs. 1671–1676 vol.2. CiteSeerX 10.1.1.114.7988 . doi :10.1109/CEC.2002.1004493. ISBN  978-0-7803-7282-5. S2CID  14364974.{{cite book}}: Mantenimiento CS1: fecha y año ( enlace )
  29. ^ Mendes, R. (2004). Topologías de población y su influencia en el rendimiento del enjambre de partículas (tesis doctoral). Universidade do Minho.
  30. ^ Suganthan, Ponnuthurai N. "Optimizador de enjambre de partículas con operador local". Computación evolutiva, 1999. CEC 99. Actas del Congreso de 1999 sobre. vol. 3.IEEE, 1999.
  31. ^ Oliveira, M.; Pinheiro, D.; Andrade, B.; Bastos-Filho, C.; Menezes, R. (2016). "Diversidad de comunicaciones en optimizadores de enjambre de partículas". Inteligencia de enjambre . Apuntes de conferencias sobre informática. vol. 9882, págs. 77–88. doi :10.1007/978-3-319-44427-7_7. ISBN 978-3-319-44426-0. S2CID  37588745.
  32. ^ Central de enjambre de partículas SPSO
  33. ^ Almasi, ON y Khooban, MH (2017). Un criterio de selección de modelo SVM parsimonioso para la clasificación de conjuntos de datos del mundo real mediante un algoritmo adaptativo basado en la población. Computación neuronal y aplicaciones, 1-9. https://doi.org/10.1007/s00521-017-2930-y
  34. ^ Miranda, V., Keko, H. y Duque, Á. J. (2008). Topología estocástica de comunicación de estrellas en enjambres de partículas evolutivas (EPSO). Revista Internacional de Investigación en Inteligencia Computacional (IJCIR), Volumen 4, Número 2, págs. 105-116
  35. ^ Clerc, M. (2006). Optimización de Enjambre de partículas. ISTE (Enciclopedia Científica y Técnica Internacional), 2006
  36. ^ Yin, P., Glover, F., Laguna, M. y Zhu, J. (2011). Un algoritmo complementario de Cyber ​​Swarm. Revista Internacional de Investigación de Inteligencia de Enjambre (IJSIR), 2(2), 22-41
  37. ^ Elshamy, W.; Rashad, H.; Bahgat, A. (2007). "Optimización del enjambre de partículas basada en clubes" (PDF) . Simposio IEEE Swarm Intelligence 2007 (SIS2007) . Honolulú, Hola. págs. 289–296. Archivado desde el original (PDF) el 23 de octubre de 2013 . Consultado el 27 de abril de 2012 .
  38. ^ Jian-Yu, Li (2021). "Paralelismo a nivel de generación para la computación evolutiva: una optimización del enjambre de partículas paralelas basada en tuberías". Transacciones IEEE sobre cibernética . 51 (10): 4848-4859. doi :10.1109/TCYB.2020.3028070.
  39. ^ Cleghorn, Christopher W (2014). "Convergencia de enjambre de partículas: análisis estandarizado e influencia topológica". Inteligencia de enjambre . Apuntes de conferencias sobre informática. vol. 8667, págs. 134-145. doi :10.1007/978-3-319-09952-1_12. ISBN 978-3-319-09951-4.
  40. ^ Liu, Q (2015). "Análisis de estabilidad de orden 2 de optimización de enjambre de partículas". Computación Evolutiva . 23 (2): 187–216. doi :10.1162/EVCO_a_00129. PMID  24738856. S2CID  25471827.
  41. ^ Cleghorn, Christopher W.; Engelbrecht, Andries. (2018). "Estabilidad del enjambre de partículas: una extensión teórica utilizando el supuesto de distribución no estancada". Inteligencia de enjambre . 12 (1): 1–22. doi :10.1007/s11721-017-0141-x. hdl : 2263/62934 . S2CID  9778346.
  42. ^ Van den Bergh, F. "Una prueba de convergencia para el optimizador de enjambre de partículas" (PDF) . Fundamentos de la informática .
  43. ^ Bonyadi, Mohammad reza.; Michalewicz, Z. (2014). "Un algoritmo de optimización de enjambre de partículas rotacionalmente invariante localmente convergente" (PDF) . Inteligencia de enjambre . 8 (3): 159–198. doi :10.1007/s11721-014-0095-1. S2CID  2261683.
  44. ^ abZhan , ZH.; Zhang, J.; Li, Y; Shi, YH. (2011). "Optimización del enjambre de partículas de aprendizaje ortogonal" (PDF) . Transacciones IEEE sobre computación evolutiva . 15 (6): 832–847. doi :10.1109/TEVC.2010.2052054.
  45. ^ abZhan , ZH.; Zhang, J.; Li, Y; Chung, HS-H. (2009). "Optimización adaptativa del enjambre de partículas" (PDF) . Transacciones IEEE sobre sistemas, hombre y cibernética . 39 (6): 1362-1381. doi :10.1109/TSMCB.2009.2015956. PMID  19362911. S2CID  11191625.
  46. ^ Wang, Ye-Qun; Li, Jian-Yu; Chen, Chun-Hua; Zhang, junio; Zhan, Zhi-Hui (septiembre de 2023). "Optimización de enjambre de partículas basada en evaluación de aptitud adaptativa a escala para optimización de hiperparámetros y arquitectura en redes neuronales y aprendizaje profundo". Transacciones CAAI sobre Tecnología de Inteligencia . 8 (3): 849-862. doi : 10.1049/cit2.12106 .
  47. ^ Zambrano-Bigiarini, M.; Clerc, M.; Rojas, R. (2013). "Optimización del enjambre de partículas estándar 2011 en CEC-2013: una base para futuras mejoras de PSO". Congreso IEEE 2013 sobre Computación Evolutiva . Computación Evolutiva (CEC), Congreso IEEE 2013 en. págs. 2337–2344. doi :10.1109/CEC.2013.6557848. ISBN 978-1-4799-0454-9. S2CID  206553432.
  48. ^ Lovbjerg, M.; Krink, T. (2002). "El modelo de ciclo de vida: combinando optimización de enjambres de partículas, algoritmos genéticos y escaladores" (PDF) . Actas de resolución de problemas paralelos de la naturaleza VII (PPSN) . págs. 621–630.
  49. ^ Niknam, T.; Amiri, B. (2010). "Un enfoque híbrido eficiente basado en PSO, ACO y k-means para análisis de conglomerados". Computación blanda aplicada . 10 (1): 183–197. doi :10.1016/j.asoc.2009.07.001.
  50. ^ Zhang, Wen-Jun; Xie, Xiao-Feng (2003). DEPSO: enjambre de partículas híbridas con operador de evolución diferencial. Conferencia internacional IEEE sobre sistemas, hombre y cibernética (SMCC), Washington, DC, EE. UU.: 3816-3821.
  51. ^ Zhang, Y.; Wang, S. (2015). "Detección patológica del cerebro en escaneo de imágenes por resonancia magnética mediante entropía de ondas e hibridación de optimización basada en biogeografía y optimización de enjambre de partículas". Avances en la Investigación Electromagnética . 152 : 41–58. doi : 10.2528/pier15040602 .
  52. ^ Lovbjerg, M.; Krink, T. (2002). "Ampliación de los optimizadores de enjambre de partículas con criticidad autoorganizada" (PDF) . Actas del Cuarto Congreso sobre Computación Evolutiva (CEC) . vol. 2. págs. 1588-1593.
  53. ^ Xinchao, Z. (2010). "Un algoritmo de enjambre de partículas perturbadas para la optimización numérica". Computación blanda aplicada . 10 (1): 119–124. doi :10.1016/j.asoc.2009.06.010.
  54. ^ Xie, Xiao-Feng; Zhang, Wen-Jun; Yang, Zhi-Lian (2002). Una optimización del enjambre de partículas disipativas. Congreso sobre Computación Evolutiva (CEC), Honolulu, HI, EE. UU.: 1456-1461.
  55. ^ Cheung, Nueva Jersey; Ding, X.-M.; Shen, H.-B. (2013). "OptiFel: un algoritmo de optimización Sarm de partículas heterogéneas convergentes para el modelado difuso Takagi-Sugeno". Transacciones IEEE en sistemas difusos . 22 (4): 919–933. doi :10.1109/TFUZZ.2013.2278972. S2CID  27974467.
  56. ^ Nobile, M.; Besozzi, D.; Cazzaniga, P.; Mauri, G.; Pescini, D. (2012). "Un método PSO de enjambre múltiple basado en GPU para la estimación de parámetros en sistemas biológicos estocásticos que explotan series de objetivos de tiempo discreto". Computación evolutiva, aprendizaje automático y minería de datos en bioinformática. Apuntes de conferencias sobre informática . vol. 7264, págs. 74–85. doi :10.1007/978-3-642-29066-4_7.
  57. ^ Yang, XS (2008). Algoritmos metaheurísticos inspirados en la naturaleza . Prensa Luniver. ISBN 978-1-905986-10-1.
  58. ^ Tu, Z.; Lu, Y. (2004). "Un algoritmo genético estocástico robusto (StGA) para la optimización numérica global". Transacciones IEEE sobre computación evolutiva . 8 (5): 456–470. doi :10.1109/TEVC.2004.831258. S2CID  22382958.
  59. ^ Tu, Z.; Lu, Y. (2008). "Correcciones a" Un algoritmo genético estocástico robusto (StGA) para la optimización numérica global ". Transacciones IEEE sobre computación evolutiva . 12 (6): 781. doi :10.1109/TEVC.2008.926734. S2CID  2864886.
  60. ^ Kennedy, James (2003). "Enjambres de partículas básicas". Actas del Simposio IEEE Swarm Intelligence de 2003. SIS'03 (Nº de catálogo 03EX706) . págs. 80–87. doi :10.1109/SIS.2003.1202251. ISBN 0-7803-7914-4. S2CID  37185749.
  61. ^ XS Yang, S. Deb y S. Fong, Optimización acelerada de enjambre de partículas y máquina de vectores de soporte para aplicaciones y optimización empresarial, NDT 2011, Springer CCIS 136, págs. 53-66 (2011).
  62. ^ "Resultados de la búsqueda: APSO - Intercambio de archivos - MATLAB Central".
  63. ^ Parsopoulos, K.; Vrahatis, M. (2002). "Método de optimización de enjambre de partículas en problemas multiobjetivo". Actas del Simposio ACM sobre Computación Aplicada (SAC) . págs. 603–607. doi :10.1145/508791.508907.
  64. ^ Coello Coello, C.; Salazar Lechuga, M. (2002). "MOPSO: una propuesta para la optimización del enjambre de partículas con múltiples objetivos". Congreso de Computación Evolutiva (CEC'2002) . págs. 1051-1056.
  65. ^ Masón, Karl; Duggan, Jim; Howley, Enda (2017). "Despacho de emisiones económicas dinámicas multiobjetivo utilizando variantes de optimización de enjambre de partículas". Neurocomputación . 270 : 188-197. doi :10.1016/j.neucom.2017.03.086.
  66. ^ Roy, R., Dehuri, S. y Cho, SB (2012). Un nuevo algoritmo de optimización de enjambre de partículas para un problema de optimización combinatoria multiobjetivo. 'Revista Internacional de Computación Metaheurística Aplicada (IJAMC)', 2(4), 41-57
  67. ^ Kennedy, J. y Eberhart, RC (1997). Una versión binaria discreta del algoritmo de enjambre de partículas, Conferencia sobre sistemas, hombre y cibernética, Piscataway, Nueva Jersey: IEEE Service Center, págs. 4104-4109
  68. ^ Clerc, M. (2004). Optimización de enjambre de partículas discretas, ilustrada por el problema del viajante, Nuevas técnicas de optimización en ingeniería, Springer, págs. 219-239
  69. ^ Clerc, M. (2005). Optimizadores de enjambres de partículas binarias: caja de herramientas, derivaciones y conocimientos matemáticos, Open Archive HAL
  70. ^ Jarboui, B.; Damak, N.; Siarry, P.; Rebai, A. (2008). "Una optimización combinatoria de enjambre de partículas para resolver problemas de programación de proyectos multimodo con recursos limitados". Matemáticas Aplicadas y Computación . 195 : 299–308. doi :10.1016/j.amc.2007.04.096.
  71. ^ Chen, Wei-neng; Zhang, junio (2010). "Un novedoso método de optimización de enjambre de partículas basado en conjuntos para problemas de optimización discreta". Transacciones IEEE sobre computación evolutiva . 14 (2): 278–300. CiteSeerX 10.1.1.224.5378 . doi :10.1109/tevc.2009.2030331. S2CID  17984726. 

enlaces externos