A partir de la década de 1990, los investigadores han empleado programas de aprendizaje automático para construir potenciales interatómicos , asignando estructuras atómicas a sus energías potenciales. Estos potenciales generalmente se denominan "potenciales interatómicos aprendidos por máquina" (MLIP) o simplemente "potenciales de aprendizaje automático" (MLP). Estos potenciales de aprendizaje automático prometían llenar el vacío entre la teoría funcional de la densidad , un programa de simulación altamente preciso pero computacionalmente intensivo, y los potenciales derivados empíricamente o aproximados intuitivamente, que eran mucho más ligeros computacionalmente pero sustancialmente menos precisos. Las mejoras en la tecnología de inteligencia artificial han servido para aumentar la precisión de los MLP al tiempo que reducen su costo computacional, aumentando el papel del aprendizaje automático en el ajuste de potenciales. [1] [2]
Las posibilidades del aprendizaje automático comenzaron con el uso de redes neuronales para abordar sistemas de baja dimensión. Si bien eran prometedores, estos modelos no podían dar cuenta sistemáticamente de las interacciones de energía interatómica; podían aplicarse a moléculas pequeñas en el vacío y a moléculas que interactuaban con superficies congeladas, pero no a mucho más, e incluso en estas aplicaciones a menudo dependían de campos de fuerza o potenciales derivados empíricamente o con simulaciones. [1] Por lo tanto, estos modelos permanecieron confinados al ámbito académico.
Las redes neuronales modernas construyen potenciales de alta precisión y de bajo costo computacional porque la comprensión teórica de la ciencia de los materiales se incorporó cada vez más a sus arquitecturas y preprocesamiento. Casi todas son locales y tienen en cuenta todas las interacciones entre un átomo y su vecino hasta un radio de corte. Existen algunos modelos no locales, pero estos han sido experimentales durante casi una década. Para la mayoría de los sistemas, los radios de corte razonables permiten obtener resultados de alta precisión. [1] [3]
Casi todas las redes neuronales toman coordenadas atómicas y emiten energías potenciales. En el caso de algunas, estas coordenadas atómicas se convierten en funciones de simetría centradas en los átomos. A partir de estos datos, se entrena una red neuronal atómica independiente para cada elemento; cada red neuronal atómica se evalúa siempre que ese elemento aparece en la estructura dada y luego los resultados se agrupan al final. Este proceso (en particular, las funciones de simetría centradas en los átomos, que transmiten invariancias traslacionales, rotacionales y permutacionales) ha mejorado enormemente el potencial del aprendizaje automático al restringir significativamente el espacio de búsqueda de las redes neuronales. Otros modelos utilizan un proceso similar pero enfatizan los enlaces sobre los átomos, utilizando funciones de simetría de pares y entrenando una red neuronal por par de átomos. [1] [4]
Otros modelos, en lugar de utilizar funciones predeterminadas que dictan la simetría, prefieren aprender sus propios descriptores. Estos modelos, llamados redes neuronales de paso de mensajes (MPNN), son redes neuronales de grafos. Al tratar las moléculas como grafos tridimensionales (donde los átomos son nodos y los enlaces son aristas), el modelo toma vectores de características que describen los átomos y actualiza iterativamente estos vectores de características a medida que se procesa la información sobre los átomos vecinos a través de funciones de mensajes y convoluciones. Estos vectores de características se utilizan luego para predecir los potenciales finales. Este método proporciona más flexibilidad a las inteligencias artificiales, lo que a menudo da como resultado modelos más sólidos y generalizables. En 2017, se utilizó el primer modelo MPNN, una red neuronal tensorial profunda, para calcular las propiedades de pequeñas moléculas orgánicas. Dicha tecnología se comercializó, lo que llevó al desarrollo de Matlantis en 2022, que extrae propiedades a través de pases hacia adelante y hacia atrás. Matlantis, que puede simular 72 elementos, manejar hasta 20.000 átomos a la vez y ejecutar cálculos hasta 20.000.000 de veces más rápido que la teoría funcional de la densidad con una precisión casi indistinguible, muestra el poder de los potenciales del aprendizaje automático en la era de la inteligencia artificial. [5] [1] [6] [7]
Potencial de aproximación gaussiana (GAP)
Una clase popular de potencial interatómico aprendido por máquina es el Potencial de Aproximación Gaussiana (GAP), [8] [9] [10] que combina descriptores compactos de entornos atómicos locales [11] con regresión de proceso Gaussiana [12] para aprender por máquina la superficie de energía potencial de un sistema dado. Hasta la fecha, el marco GAP se ha utilizado para desarrollar con éxito una serie de MLIP para varios sistemas, incluidos sistemas elementales como Carbono , [13] Silicio , [ 14 ] Fósforo , [ 15 ] y Tungsteno , [16] así como para sistemas multicomponentes como Ge2Sb2Te5 [ 17 ] y acero inoxidable austenítico , Fe7Cr2Ni . [ 18]
Referencias
- ^ abcde Kocer, Emir; Ko, Tsz Wai; Behler, Jorg (2022). "Potenciales de redes neuronales: una descripción general concisa de los métodos". Revisión anual de química física . 73 : 163–86. arXiv : 2107.03727 . Bibcode :2022ARPC...73..163K. doi : 10.1146/annurev-physchem-082720-034254 . PMID 34982580.
- ^ Blank, TB; Brown, SD; Calhoun, AW; Doren, DJ (1995). "Modelos de redes neuronales de superficies de energía potencial". Journal of Chemical Physics . 103 (10): 4129–37. Código Bibliográfico :1995JChPh.103.4129B. doi :10.1063/1.469597.
- ^ Ghasemi, SA; Hofstetter, A; Saha, S; Goedecker, S (2015). "Potenciales interatómicos para sistemas iónicos con precisión funcional de densidad basados en densidades de carga obtenidas por una red neuronal". Physical Review B . 92 (4): 045131. arXiv : 1501.07344 . Código Bibliográfico :2015PhRvB..92d5131G. doi :10.1103/PhysRevB.92.045131.
- ^ Behler, J; Parrinello, M (2007). "Representación generalizada de superficies de energía potencial de alta dimensión mediante redes neuronales". Physical Review Letters . 148 (14). Código Bibliográfico :2007PhRvL..98n6401B. doi :10.1103/PhysRevLett.98.146401. PMID 17501293.
- ^ Schutt, KT; Arbabzadah, F; Chmiela, S; Muller, KR; Tkatchenko, A (2017). "Perspectivas cuántico-químicas a partir de redes neuronales tensoriales profundas". Nature Communications . 8 : 13890. arXiv : 1609.08259 . Bibcode :2017NatCo...813890S. doi :10.1038/ncomms13890. PMC 5228054 . PMID 28067221.
- ^ Takamoto, So; Shinagawa, Chikashi; Motoki, Daisuke; Nakago, Kosuke (30 de mayo de 2022). "Hacia el potencial de una red neuronal universal para el descubrimiento de materiales aplicables a combinaciones arbitrarias de 45 elementos". Nature Communications . 13 (1): 2991. arXiv : 2106.14583 . Bibcode :2022NatCo..13.2991T. doi :10.1038/s41467-022-30687-9. PMC 9151783 . PMID 35637178.
- ^ "Malantis".
- ^ Bartók, Albert P.; Payne, Mike C.; Kondor, Risi; Csányi, Gábor (1 de abril de 2010). "Potenciales de aproximación gaussiana: la precisión de la mecánica cuántica, sin los electrones". Physical Review Letters . 104 (13): 136403. arXiv : 0910.1019 . Código Bibliográfico :2010PhRvL.104m6403B. doi :10.1103/PhysRevLett.104.136403. PMID 20481899.
- ^ Bartók, Albert P.; De, Sandip; Poelking, Carl; Bernstein, Noam; Kermode, James R.; Csányi, Gábor; Ceriotti, Michele (diciembre de 2017). "El aprendizaje automático unifica el modelado de materiales y moléculas". Science Advances . 3 (12): e1701816. arXiv : 1706.00179 . Bibcode :2017SciA....3E1816B. doi :10.1126/sciadv.1701816. ISSN 2375-2548. PMC 5729016 . PMID 29242828.
- ^ "Potencial de aproximación gaussiana: simulación atomística de materiales y moléculas mediante aprendizaje automático" . Consultado el 4 de abril de 2024 .
- ^ Bartók, Albert P.; Kondor, Risi; Csányi, Gábor (28 de mayo de 2013). "Sobre la representación de entornos químicos". Revisión física B. 87 (18): 184115. arXiv : 1209.3140 . Código Bib : 2013PhRvB..87r4115B. doi : 10.1103/PhysRevB.87.184115.
- ^ Rasmussen, Carl Edward; Williams, Christopher KI (2008). Procesos gaussianos para el aprendizaje automático . Computación adaptativa y aprendizaje automático (3.ª edición impresa). Cambridge, Mass.: MIT Press. ISBN 978-0-262-18253-9.
- ^ Deringer, Volker L.; Csányi, Gábor (3 de marzo de 2017). "Potencial interatómico basado en aprendizaje automático para carbono amorfo". Physical Review B . 95 (9): 094203. arXiv : 1611.03277 . Código Bibliográfico :2017PhRvB..95i4203D. doi :10.1103/PhysRevB.95.094203.
- ^ Bartók, Albert P.; Kermode, James; Bernstein, Noam; Csányi, Gábor (14 de diciembre de 2018). "Aprendizaje automático de un potencial interatómico de propósito general para el silicio". Physical Review X . 8 (4): 041048. arXiv : 1805.01568 . Código Bibliográfico :2018PhRvX...8d1048B. doi :10.1103/PhysRevX.8.041048.
- ^ Deringer, Volker L.; Caro, Miguel A.; Csányi, Gábor (29 de octubre de 2020). "Un campo de fuerza de aprendizaje automático de propósito general para fósforo en masa y nanoestructurado". Nature Communications . 11 (1): 5461. Bibcode :2020NatCo..11.5461D. doi :10.1038/s41467-020-19168-z. ISSN 2041-1723. PMC 7596484 . PMID 33122630.
- ^ Szlachta, Wojciech J.; Bartók, Albert P.; Csányi, Gábor (24 de septiembre de 2014). "Exactitud y transferibilidad de los modelos de potencial de aproximación gaussiana para tungsteno". Physical Review B . 90 (10): 104108. Bibcode :2014PhRvB..90j4108S. doi :10.1103/PhysRevB.90.104108.
- ^ Mocanu, Felix C.; Konstantinou, Konstantinos; Lee, Tae Hoon; Bernstein, Noam; Deringer, Volker L.; Csányi, Gábor; Elliott, Stephen R. (27 de septiembre de 2018). "Modelado del material con memoria de cambio de fase, Ge 2 Sb 2 Te 5 , con un potencial interatómico aprendido por máquina". The Journal of Physical Chemistry B . 122 (38): 8998–9006. doi :10.1021/acs.jpcb.8b06476. ISSN 1520-6106. PMID 30173522.
- ^ Shenoy, Lakshmi; Woodgate, Christopher D.; Staunton, Julie B.; Bartók, Albert P.; Becquart, Charlotte S.; Domain, Christophe; Kermode, James R. (22 de marzo de 2024). "Potencial interatómico aprendido por máquina de espín colineal para la aleación ${\mathrm{Fe}}_{7}{\mathrm{Cr}}_{2}\mathrm{Ni}$". Physical Review Materials . 8 (3): 033804. arXiv : 2309.08689 . doi :10.1103/PhysRevMaterials.8.033804.