stringtranslate.com

Método de Monte Carlo

Aproximación de una distribución normal con el método de Monte Carlo

Los métodos de Monte Carlo , o experimentos de Monte Carlo , son una amplia clase de algoritmos computacionales que se basan en muestreos aleatorios repetidos para obtener resultados numéricos. El concepto subyacente es utilizar la aleatoriedad para resolver problemas que podrían ser deterministas en principio. El nombre proviene del Casino de Monte Carlo en Mónaco, donde el principal desarrollador del método, el matemático Stanislaw Ulam , se inspiró en los hábitos de juego de su tío.

Los métodos de Monte Carlo se utilizan principalmente en tres clases de problemas distintos: optimización, integración numérica y generación de valores a partir de una distribución de probabilidad. También se pueden utilizar para modelar fenómenos con una incertidumbre significativa en las entradas, como el cálculo del riesgo de fallo de una central nuclear. Los métodos de Monte Carlo se suelen implementar mediante simulaciones por ordenador y pueden proporcionar soluciones aproximadas a problemas que de otro modo serían insolubles o demasiado complejos para analizarlos matemáticamente.

Los métodos de Monte Carlo se utilizan ampliamente en diversos campos de la ciencia, la ingeniería y las matemáticas, como la física, la química, la biología, la estadística, la inteligencia artificial, las finanzas y la criptografía. También se han aplicado a las ciencias sociales, como la sociología, la psicología y la ciencia política. Los métodos de Monte Carlo han sido reconocidos como una de las ideas más importantes e influyentes del siglo XX y han permitido muchos avances científicos y tecnológicos.

Los métodos de Monte Carlo también tienen algunas limitaciones y desafíos, como el equilibrio entre precisión y costo computacional, la maldición de la dimensionalidad, la confiabilidad de los generadores de números aleatorios y la verificación y validación de los resultados.

Descripción general

Los métodos de Monte Carlo varían, pero tienden a seguir un patrón particular:

  1. Definir un dominio de posibles entradas
  2. Generar entradas aleatoriamente a partir de una distribución de probabilidad sobre el dominio
  3. Realizar un cálculo determinista de las salidas.
  4. Agregar los resultados
Método de Monte Carlo aplicado para aproximar el valor de π

Por ejemplo, considere un cuadrante (sector circular) inscrito en un cuadrado unitario . Dado que la relación de sus áreas es π/4 , el valor de π se puede aproximar utilizando un método de Monte Carlo: [1]

  1. Dibuja un cuadrado y luego inscribe un cuadrante dentro de él.
  2. Dispersar uniformemente un número dado de puntos sobre el cuadrado
  3. Cuente el número de puntos dentro del cuadrante, es decir que tienen una distancia desde el origen menor a 1
  4. La relación entre el recuento interno y el recuento total de la muestra es una estimación de la relación de las dos áreas .π/4 . Multiplica el resultado por 4 para estimar π .

En este procedimiento, el dominio de las entradas es el cuadrado que circunscribe el cuadrante. Se pueden generar entradas aleatorias dispersando granos sobre el cuadrado y luego realizar un cálculo sobre cada entrada (para comprobar si se encuentra dentro del cuadrante). La agregación de los resultados produce nuestro resultado final, la aproximación de π .

Hay dos consideraciones importantes:

  1. Si los puntos no están distribuidos uniformemente, entonces la aproximación será pobre.
  2. La aproximación suele ser deficiente si solo se colocan unos pocos puntos al azar en todo el cuadrado. En promedio, la aproximación mejora a medida que se colocan más puntos.

Los usos de los métodos de Monte Carlo requieren grandes cantidades de números aleatorios, y su uso se benefició enormemente de los generadores de números pseudoaleatorios , que son mucho más rápidos de usar que las tablas de números aleatorios que se habían utilizado anteriormente para el muestreo estadístico.

Solicitud

Los métodos de Monte Carlo se utilizan a menudo en problemas físicos y matemáticos y son más útiles cuando resulta difícil o imposible utilizar otros enfoques. Los métodos de Monte Carlo se utilizan principalmente en tres clases de problemas: [2] optimización , integración numérica y generación de valores extraídos de una distribución de probabilidad .

En problemas relacionados con la física, los métodos de Monte Carlo son útiles para simular sistemas con muchos grados de libertad acoplados , como fluidos, materiales desordenados, sólidos fuertemente acoplados y estructuras celulares (véase el modelo celular de Potts , sistemas de partículas interactuantes , procesos McKean-Vlasov , modelos cinéticos de gases ).

Otros ejemplos incluyen la modelización de fenómenos con una incertidumbre significativa en los datos de entrada, como el cálculo del riesgo en los negocios y, en matemáticas, la evaluación de integrales definidas multidimensionales con condiciones de contorno complicadas . En la aplicación a problemas de ingeniería de sistemas (espacio, exploración petrolera , diseño de aeronaves, etc.), las predicciones basadas en Monte Carlo de fallas, sobrecostos y retrasos en los plazos son rutinariamente mejores que la intuición humana o los métodos alternativos "blandos". [3]

En principio, los métodos de Monte Carlo se pueden utilizar para resolver cualquier problema que tenga una interpretación probabilística. Por la ley de los grandes números , las integrales descritas por el valor esperado de alguna variable aleatoria se pueden aproximar tomando la media empírica ( también conocida como la "media de la muestra") de muestras independientes de la variable. Cuando se parametriza la distribución de probabilidad de la variable, los matemáticos a menudo utilizan un muestreador de Monte Carlo de cadena de Markov (MCMC). [4] [5] [6] La idea central es diseñar un modelo de cadena de Markov juicioso con una distribución de probabilidad estacionaria prescrita . Es decir, en el límite, las muestras generadas por el método MCMC serán muestras de la distribución deseada (objetivo). [7] [8] Por el teorema ergódico , la distribución estacionaria se aproxima mediante las medidas empíricas de los estados aleatorios del muestreador MCMC.

En otros problemas, el objetivo es generar extracciones a partir de una secuencia de distribuciones de probabilidad que satisfacen una ecuación de evolución no lineal. Estos flujos de distribuciones de probabilidad siempre se pueden interpretar como las distribuciones de los estados aleatorios de un proceso de Markov cuyas probabilidades de transición dependen de las distribuciones de los estados aleatorios actuales (ver procesos McKean-Vlasov , ecuación de filtrado no lineal ). [9] [10] En otros casos, surge un flujo de distribuciones de probabilidad con un nivel creciente de complejidad de muestreo (modelos de espacios de ruta con un horizonte de tiempo creciente, medidas de Boltzmann-Gibbs asociadas con parámetros de temperatura decrecientes y muchos otros). Estos modelos también se pueden ver como la evolución de la ley de los estados aleatorios de una cadena de Markov no lineal. [10] [11] Una forma natural de simular estos sofisticados procesos de Markov no lineales es muestrear múltiples copias del proceso, reemplazando en la ecuación de evolución las distribuciones desconocidas de los estados aleatorios por las medidas empíricas muestreadas . A diferencia de las metodologías tradicionales de Monte Carlo y MCMC, estas técnicas de partículas de campo medio se basan en muestras interactuantes secuenciales. La terminología campo medio refleja el hecho de que cada una de las muestras ( es decir , partículas, individuos, caminantes, agentes, criaturas o fenotipos) interactúa con las medidas empíricas del proceso. Cuando el tamaño del sistema tiende al infinito, estas medidas empíricas aleatorias convergen a la distribución determinista de los estados aleatorios de la cadena de Markov no lineal, de modo que la interacción estadística entre partículas se desvanece.

Montecarlo sencillo

Supongamos que se desea conocer el valor esperado μ de una población (y se sabe que μ existe), pero no se dispone de una fórmula para calcularlo. El método de Monte Carlo simple proporciona una estimación de μ ejecutando n simulaciones y promediando los resultados de las simulaciones. No tiene restricciones sobre la distribución de probabilidad de las entradas a las simulaciones, requiriendo únicamente que las entradas se generen aleatoriamente y sean independientes entre sí y que μ exista. Un n suficientemente grande producirá un valor para m que es arbitrariamente cercano a μ ; más formalmente, será el caso que, para cualquier ε > 0, | μm | ≤ ε . [12]

Normalmente, el algoritmo para obtener m es

s = 0; para  i = 1 a n  ejecutamos la simulación por i- ésima vez, obteniendo como resultado r i ;  s = s + r i ; repetimos m = s / n ;

Un ejemplo

Supongamos que queremos saber cuántas veces deberíamos esperar lanzar tres dados de ocho caras para que el total de lanzamientos de dados sea al menos T. Sabemos que existe el valor esperado. Los lanzamientos de dados se distribuyen aleatoriamente y son independientes entre sí. Por lo tanto, se puede aplicar el sencillo método de Monte Carlo:

s = 0; para  i = 1 a n,  lanza los tres dados hasta que se alcance o se exceda primero T ; r i = el número de lanzamientos ;  s = s + r i ; repite m = s / n ;

Si n es suficientemente grande, m estará dentro de ε de μ para cualquier ε > 0.

Determinar un tamaño suficientemente grandenorte

Fórmula general

Sea ε = | μm | > 0. Elija el nivel de confianza deseado : la probabilidad porcentual de que, cuando se complete el algoritmo de Monte Carlo, m esté efectivamente dentro de ε de μ . Sea z el puntaje z correspondiente a ese nivel de confianza.

Sea s 2 la varianza estimada, a veces llamada varianza de la “muestra”; es la varianza de los resultados obtenidos a partir de un número relativamente pequeño k de simulaciones de “muestra”. Elija un k ; Driels y Shin observan que “incluso para tamaños de muestra de un orden de magnitud inferior al número requerido, el cálculo de ese número es bastante estable”. [13]

El siguiente algoritmo calcula s 2 en una sola pasada, minimizando la posibilidad de que el error numérico acumulado produzca resultados erróneos: [12]

s1 = 0 ;ejecutar la simulación por primera vez, produciendo el resultado r 1 ; m 1 = r 1 ; // m i es la media de las primeras i simulaciones para i = 2 a k  ejecutar  la simulación por i -ésima vez , produciendo el resultado r i ;  δ i = r i - m i -1 ;  m i = m i-1  + (1/ i ) δ i ;  s i = s i-1  + (( i - 1)/ i )( δ i ) 2 ; repetir s 2 = s k /( k - 1);

Tenga en cuenta que, cuando se completa el algoritmo, m k es la media de los k resultados.

n es suficientemente grande cuando

[12] [13]

Si nk , entonces m k = m ; se realizaron suficientes simulaciones de muestra para garantizar que m k esté dentro de ε de μ . Si n > k , entonces se pueden ejecutar n simulaciones "desde cero" o, dado que ya se han realizado k simulaciones, se pueden ejecutar nk simulaciones más y agregar sus resultados a los de las simulaciones de muestra:

s = m k * k ;para i = k + 1 a n ejecutamos  la simulación por i- ésima vez, obteniendo como resultado r i ; s = s + r i ; m = s / n ;

Una fórmula cuando los resultados de las simulaciones están acotados

Se puede utilizar una fórmula alternativa en el caso especial donde todos los resultados de la simulación están acotados superior e inferiormente.

Elija un valor para ε que sea el doble de la diferencia máxima permitida entre μ y m. Sea 0 < δ < 100 el nivel de confianza deseado, expresado como porcentaje. Sea cada resultado de simulación r 1 , r 2 , … r i , … r n tal que ar ib para a y b finitos . Para tener una confianza de al menos δ de que | μm | < ε /2, use un valor para n tal que

Por ejemplo, si δ = 99%, entonces n ≥ 2( ba ) 2 ln(2/0,01)/ ε 2 ≈ 10,6( ba ) 2 / ε 2 . [12]

Costos computacionales

A pesar de su simplicidad conceptual y algorítmica, el costo computacional asociado con una simulación de Monte Carlo puede ser asombrosamente alto. En general, el método requiere muchas muestras para obtener una buena aproximación, lo que puede generar un tiempo de ejecución total arbitrariamente grande si el tiempo de procesamiento de una sola muestra es alto. [14] Aunque esta es una limitación severa en problemas muy complejos, la naturaleza vergonzosamente paralela del algoritmo permite reducir este gran costo (quizás a un nivel factible) a través de estrategias de computación paralela en procesadores locales, clústeres, computación en la nube, GPU, FPGA, etc. [15] [16] [17] [18]

Historia

Antes de que se desarrollara el método de Monte Carlo, las simulaciones probaban un problema determinista previamente comprendido y se utilizaba un muestreo estadístico para estimar las incertidumbres en las simulaciones. Las simulaciones de Monte Carlo invierten este enfoque y resuelven problemas deterministas mediante metaheurísticas probabilísticas (consulte recocido simulado ).

Una variante temprana del método de Monte Carlo fue ideada para resolver el problema de la aguja de Buffon , en el que π puede estimarse dejando caer agujas sobre un piso hecho de tiras paralelas equidistantes. En la década de 1930, Enrico Fermi experimentó por primera vez con el método de Monte Carlo mientras estudiaba la difusión de neutrones, pero no publicó este trabajo. [19]

A finales de la década de 1940, Stanislaw Ulam inventó la versión moderna del método de Monte Carlo de la cadena de Markov mientras trabajaba en proyectos de armas nucleares en el Laboratorio Nacional de Los Álamos . En 1946, los físicos de armas nucleares de Los Álamos estaban investigando la difusión de neutrones en el núcleo de un arma nuclear. [19] A pesar de tener la mayoría de los datos necesarios, como la distancia media que viajaría un neutrón en una sustancia antes de colisionar con un núcleo atómico y la cantidad de energía que probablemente emitiría el neutrón después de una colisión, los físicos de Los Álamos no pudieron resolver el problema utilizando métodos matemáticos deterministas convencionales. Ulam propuso utilizar experimentos aleatorios. Relata su inspiración de la siguiente manera:

Los primeros pensamientos e intentos que hice para poner en práctica [el método de Montecarlo] surgieron a partir de una pregunta que se me ocurrió en 1946, cuando me encontraba convaleciente de una enfermedad y jugaba al solitario. La pregunta era: ¿cuáles son las probabilidades de que un solitario Canfield dispuesto con 52 cartas salga bien? Después de pasar mucho tiempo tratando de estimarlas mediante cálculos combinatorios puros, me pregunté si un método más práctico que el "pensamiento abstracto" no sería disponerlo, digamos, cien veces y simplemente observar y contar el número de jugadas exitosas. Esto ya era posible de prever con el comienzo de la nueva era de las computadoras rápidas, e inmediatamente pensé en problemas de difusión de neutrones y otras cuestiones de física matemática, y más en general en cómo cambiar los procesos descritos por ciertas ecuaciones diferenciales en una forma equivalente interpretable como una sucesión de operaciones aleatorias. Más tarde [en 1946], le describí la idea a John von Neumann y comenzamos a planificar los cálculos reales. [20]

Al ser secreto, el trabajo de von Neumann y Ulam requería un nombre clave. [21] Un colega de von Neumann y Ulam, Nicholas Metropolis , sugirió usar el nombre Monte Carlo , que hace referencia al Casino de Monte Carlo en Mónaco donde el tío de Ulam pedía dinero prestado a sus familiares para apostar. [19] Los métodos de Monte Carlo fueron fundamentales para las simulaciones necesarias para un mayor desarrollo de las armas nucleares en la posguerra, incluido el diseño de la bomba H, aunque severamente limitados por las herramientas computacionales de la época. Von Neumann, Nicholas Metropolis y otros programaron la computadora ENIAC para realizar los primeros cálculos de Monte Carlo completamente automatizados, de un núcleo de arma de fisión , en la primavera de 1948. [22] En la década de 1950, los métodos de Monte Carlo se utilizaron en Los Álamos para el desarrollo de la bomba de hidrógeno y se popularizaron en los campos de la física , la química física y la investigación de operaciones . La Corporación Rand y la Fuerza Aérea de Estados Unidos fueron dos de las principales organizaciones responsables de financiar y difundir información sobre los métodos de Monte Carlo durante esta época, y comenzaron a encontrar una amplia aplicación en muchos campos diferentes.

La teoría de métodos de Monte Carlo de partículas de tipo campo medio más sofisticados ciertamente había comenzado a mediados de la década de 1960, con el trabajo de Henry P. McKean Jr. sobre las interpretaciones de Markov de una clase de ecuaciones diferenciales parciales parabólicas no lineales que surgieron en la mecánica de fluidos. [23] [24] Un artículo pionero anterior de Theodore E. Harris y Herman Kahn, publicado en 1951, utilizó métodos de Monte Carlo de tipo genético de campo medio para estimar las energías de transmisión de partículas. [25] Las metodologías de Monte Carlo de tipo genético de campo medio también se utilizan como algoritmos de búsqueda natural heurísticos (también conocidos como metaheurísticos ) en la computación evolutiva. Los orígenes de estas técnicas computacionales de campo medio se pueden rastrear hasta 1950 y 1954 con el trabajo de Alan Turing sobre máquinas de aprendizaje de selección por mutación de tipo genético [26] y los artículos de Nils Aall Barricelli en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey . [27] [28]

Los métodos de Monte Carlo cuántico , y más específicamente los métodos de Monte Carlo de difusión, también pueden interpretarse como una aproximación de Monte Carlo de partículas de campo medio de las integrales de trayectoria de Feynman - Kac . [29] [30] [31] [32] [33] [34] [35] Los orígenes de los métodos de Monte Carlo cuántico se atribuyen a menudo a Enrico Fermi y Robert Richtmyer, quienes desarrollaron en 1948 una interpretación de partículas de campo medio de las reacciones en cadena de neutrones, [36] pero el primer algoritmo de partículas de tipo heurístico y genético (también conocido como métodos de Monte Carlo remuestreados o de reconfiguración) para estimar las energías del estado fundamental de los sistemas cuánticos (en modelos de matriz reducida) se debe a Jack H. Hetherington en 1984. [35] En química molecular, el uso de metodologías de partículas de tipo heurístico genético (también conocidas como estrategias de poda y enriquecimiento) se remonta a 1955 con el trabajo seminal de Marshall N. Rosenbluth y Arianna W. Rosenbluth . [37]

El uso del algoritmo Monte Carlo secuencial en el procesamiento avanzado de señales y en la inferencia bayesiana es más reciente. En 1993, Gordon et al. publicaron en su obra seminal [38] la primera aplicación de un algoritmo de remuestreo de Monte Carlo en la inferencia estadística bayesiana. Los autores llamaron a su algoritmo "filtro bootstrap" y demostraron que, en comparación con otros métodos de filtrado, su algoritmo bootstrap no requiere ninguna suposición sobre ese espacio de estados o el ruido del sistema. Otro artículo pionero en este campo fue el de Genshiro Kitagawa sobre un "filtro Monte Carlo" relacionado, [39] y los de Pierre Del Moral [40] e Himilcon Carvalho, Pierre Del Moral, André Monin y Gérard Salut [41] sobre filtros de partículas publicados a mediados de los años 1990. Los filtros de partículas también fueron desarrollados en el procesamiento de señales en 1989-1992 por P. Del Moral, JC Noyer, G. Rigal y G. Salut en el LAAS-CNRS en una serie de informes de investigación restringidos y clasificados con STCAN (Service Technique des Constructions et Armes Navales), la empresa de TI DIGILOG y el LAAS-CNRS (Laboratorio de Análisis y Arquitectura de Sistemas) sobre problemas de procesamiento de señales de radar/sonar y GPS. [42] [43] [44] [45] [46] [47] Estas metodologías de Monte Carlo secuencial pueden interpretarse como un muestreador de aceptación-rechazo equipado con un mecanismo de reciclaje interactivo.

Desde 1950 hasta 1996, todas las publicaciones sobre metodologías de Monte Carlo secuencial, incluidos los métodos de Monte Carlo de poda y remuestreo introducidos en la física computacional y la química molecular, presentan algoritmos naturales y de tipo heurístico aplicados a diferentes situaciones sin una sola prueba de su consistencia, ni una discusión sobre el sesgo de las estimaciones y sobre algoritmos basados ​​en árboles genealógicos y ancestrales. Los fundamentos matemáticos y el primer análisis riguroso de estos algoritmos de partículas fueron escritos por Pierre Del Moral en 1996. [40] [48]

A finales de los años 1990, Dan Crisan, Jessica Gaines y Terry Lyons [49] [50] [51] y Dan Crisan, Pierre Del Moral y Terry Lyons [52] también desarrollaron metodologías de partículas de tipo ramificado con tamaños de población variables . Otros desarrollos en este campo fueron descritos entre 1999 y 2001 por P. Del Moral, A. Guionnet y L. Miclo [30] [53] [54]

Definiciones

No hay consenso sobre cómo se debe definir Monte Carlo . Por ejemplo, Ripley [55] define la mayoría de los modelos probabilísticos como simulación estocástica , y reserva Monte Carlo para la integración de Monte Carlo y las pruebas estadísticas de Monte Carlo. Sawilowsky [56] distingue entre una simulación , un método de Monte Carlo y una simulación de Monte Carlo: una simulación es una representación ficticia de la realidad, un método de Monte Carlo es una técnica que se puede utilizar para resolver un problema matemático o estadístico, y una simulación de Monte Carlo utiliza un muestreo repetido para obtener las propiedades estadísticas de algún fenómeno (o comportamiento).

A continuación se muestran los ejemplos:

Kalos y Whitlock [57] señalan que no siempre es fácil mantener estas distinciones. Por ejemplo, la emisión de radiación de los átomos es un proceso estocástico natural. Puede simularse directamente, o su comportamiento promedio puede describirse mediante ecuaciones estocásticas que pueden resolverse mediante métodos de Monte Carlo. "De hecho, el mismo código informático puede considerarse simultáneamente como una 'simulación natural' o como una solución de las ecuaciones mediante muestreo natural".

La convergencia de la simulación de Monte Carlo se puede comprobar con la estadística Gelman-Rubin .

Monte Carlo y números aleatorios

La idea principal detrás de este método es que los resultados se calculan en base a un muestreo aleatorio repetido y un análisis estadístico. La simulación de Monte Carlo es, de hecho, experimentación aleatoria, en el caso de que los resultados de estos experimentos no sean bien conocidos. Las simulaciones de Monte Carlo se caracterizan típicamente por muchos parámetros desconocidos, muchos de los cuales son difíciles de obtener experimentalmente. [58] Los métodos de simulación de Monte Carlo no siempre requieren números verdaderamente aleatorios para ser útiles (aunque, para algunas aplicaciones como las pruebas de primalidad , la imprevisibilidad es vital). [59] Muchas de las técnicas más útiles utilizan secuencias pseudoaleatorias deterministas , lo que facilita la prueba y la re-ejecución de simulaciones. La única cualidad generalmente necesaria para hacer buenas simulaciones es que la secuencia pseudoaleatoria parezca "suficientemente aleatoria" en cierto sentido.

Lo que esto significa depende de la aplicación, pero por lo general deben pasar una serie de pruebas estadísticas. Probar que los números se distribuyen de manera uniforme o siguen otra distribución deseada cuando se considera una cantidad suficientemente grande de elementos de la secuencia es una de las más simples y comunes. Las correlaciones débiles entre muestras sucesivas también suelen ser deseables/necesarias.

Sawilowsky enumera las características de una simulación de Monte Carlo de alta calidad: [56]

Los algoritmos de muestreo de números pseudoaleatorios se utilizan para transformar números pseudoaleatorios distribuidos uniformemente en números que se distribuyen de acuerdo con una distribución de probabilidad determinada .

Las secuencias de baja discrepancia se utilizan a menudo en lugar de un muestreo aleatorio de un espacio, ya que garantizan una cobertura uniforme y normalmente tienen un orden de convergencia más rápido que las simulaciones de Monte Carlo que utilizan secuencias aleatorias o pseudoaleatorias. Los métodos basados ​​en su uso se denominan métodos cuasi-Monte Carlo .

En un esfuerzo por evaluar el impacto de la calidad de los números aleatorios en los resultados de las simulaciones de Monte Carlo, los investigadores astrofísicos probaron números pseudoaleatorios criptográficamente seguros generados a través del conjunto de instrucciones RDRAND de Intel , en comparación con los derivados de algoritmos, como el Mersenne Twister , en simulaciones de Monte Carlo de llamaradas de radio de enanas marrones . No se encontró ninguna diferencia estadísticamente significativa entre los modelos generados con generadores de números pseudoaleatorios típicos y RDRAND para ensayos que consistían en la generación de 10 7 números aleatorios. [60]

Simulación de Monte Carlo versus escenarios hipotéticos

Existen formas de utilizar probabilidades que no son en absoluto simulaciones de Monte Carlo; por ejemplo, el modelado determinista que utiliza estimaciones puntuales. A cada variable incierta dentro de un modelo se le asigna una estimación de "mejor estimación". Se eligen escenarios (como el mejor, el peor o el caso más probable) para cada variable de entrada y se registran los resultados. [61]

Por el contrario, las simulaciones de Monte Carlo toman muestras de una distribución de probabilidad para cada variable para producir cientos o miles de resultados posibles. Los resultados se analizan para obtener probabilidades de que ocurran diferentes resultados. [62] Por ejemplo, una comparación de un modelo de construcción de costos de hoja de cálculo ejecutado utilizando escenarios tradicionales de "qué pasaría si", y luego ejecutando la comparación nuevamente con la simulación de Monte Carlo y distribuciones de probabilidad triangulares muestra que el análisis de Monte Carlo tiene un rango más estrecho que el análisis de "qué pasaría si". [ ejemplo necesario ] Esto se debe a que el análisis de "qué pasaría si" otorga el mismo peso a todos los escenarios (ver cuantificación de la incertidumbre en finanzas corporativas ), mientras que el método de Monte Carlo rara vez toma muestras en las regiones de probabilidad muy baja. Las muestras en dichas regiones se denominan "eventos raros".

Aplicaciones

Los métodos de Monte Carlo son especialmente útiles para simular fenómenos con incertidumbre significativa en las entradas y sistemas con muchos grados de libertad acoplados . Las áreas de aplicación incluyen:

Ciencias físicas

Los métodos de Monte Carlo son muy importantes en física computacional , química física y campos aplicados relacionados, y tienen diversas aplicaciones desde cálculos complicados de cromodinámica cuántica hasta el diseño de escudos térmicos y formas aerodinámicas , así como en el modelado del transporte de radiación para cálculos de dosimetría de radiación. [63] [64] [65] En física estadística , el modelado molecular de Monte Carlo es una alternativa a la dinámica molecular computacional , y los métodos de Monte Carlo se utilizan para calcular teorías de campo estadísticas de sistemas simples de partículas y polímeros. [37] [66] Los métodos cuánticos de Monte Carlo resuelven el problema de muchos cuerpos para sistemas cuánticos. [9] [10] [29] En la ciencia de los materiales de radiación , la aproximación de colisión binaria para simular la implantación de iones generalmente se basa en un enfoque de Monte Carlo para seleccionar el siguiente átomo en colisión. [67] En física de partículas experimental , los métodos de Monte Carlo se utilizan para diseñar detectores , comprender su comportamiento y comparar datos experimentales con la teoría. En astrofísica , se utilizan de maneras tan diversas como para modelar tanto la evolución de las galaxias [68] como la transmisión de radiación de microondas a través de una superficie planetaria rugosa. [69] Los métodos de Monte Carlo también se utilizan en los modelos de conjunto que forman la base de la predicción meteorológica moderna .

Ingeniería

Los métodos de Monte Carlo se utilizan ampliamente en ingeniería para el análisis de sensibilidad y el análisis probabilístico cuantitativo en el diseño de procesos . La necesidad surge del comportamiento interactivo, colineal y no lineal de las simulaciones de procesos típicas. Por ejemplo,

Cambio climático y forzamiento radiativo

El Grupo Intergubernamental de Expertos sobre el Cambio Climático se basa en los métodos de Monte Carlo para el análisis de la función de densidad de probabilidad del forzamiento radiativo . [73]

Biología computacional

Los métodos de Monte Carlo se utilizan en varios campos de la biología computacional , por ejemplo, para la inferencia bayesiana en filogenia , o para estudiar sistemas biológicos como genomas, proteínas [74] o membranas. [75] Los sistemas se pueden estudiar en los marcos de grano grueso o ab initio dependiendo de la precisión deseada. Las simulaciones por computadora permiten monitorear el entorno local de una molécula particular para ver si está sucediendo alguna reacción química , por ejemplo. En los casos en que no es factible realizar un experimento físico, se pueden realizar experimentos mentales (por ejemplo: romper enlaces, introducir impurezas en sitios específicos, cambiar la estructura local/global o introducir campos externos).

Gráficos de computadora

El trazado de trayectorias , a veces denominado trazado de rayos de Monte Carlo, renderiza una escena 3D mediante el trazado aleatorio de muestras de posibles trayectorias de luz. El muestreo repetido de cualquier píxel determinado acabará provocando que el promedio de las muestras converja en la solución correcta de la ecuación de renderizado , lo que lo convierte en uno de los métodos de renderizado de gráficos 3D físicamente más precisos que existen.

Estadística aplicada

Los estándares para los experimentos de Monte Carlo en estadística fueron establecidos por Sawilowsky. [76] En estadística aplicada, los métodos de Monte Carlo pueden utilizarse para al menos cuatro propósitos:

  1. Comparar estadísticas competitivas para muestras pequeñas en condiciones de datos realistas. Aunque el error de tipo I y las propiedades de potencia de las estadísticas se pueden calcular para datos extraídos de distribuciones teóricas clásicas ( por ejemplo , curva normal , distribución de Cauchy ) para condiciones asintóticas ( es decir , tamaño de muestra infinito y efecto de tratamiento infinitesimalmente pequeño), los datos reales a menudo no tienen tales distribuciones. [77]
  2. Proporcionar implementaciones de pruebas de hipótesis que sean más eficientes que las pruebas exactas, como las pruebas de permutación (que a menudo son imposibles de calcular), pero que sean más precisas que los valores críticos para distribuciones asintóticas .
  3. Proporcionar una muestra aleatoria de la distribución posterior en la inferencia bayesiana . Esta muestra aproxima y resume todas las características esenciales de la distribución posterior.
  4. Proporcionar estimaciones aleatorias eficientes de la matriz hessiana de la función de log-verosimilitud negativa que se pueda promediar para formar una estimación de la matriz de información de Fisher . [78] [79]

Los métodos de Monte Carlo también son un compromiso entre la aleatorización aproximada y las pruebas de permutación. Una prueba de aleatorización aproximada se basa en un subconjunto específico de todas las permutaciones (lo que implica un enorme trabajo de mantenimiento de las permutaciones que se han considerado). El enfoque de Monte Carlo se basa en un número específico de permutaciones extraídas aleatoriamente (intercambiando una pequeña pérdida de precisión si una permutación se extrae dos veces, o con mayor frecuencia, por la eficiencia de no tener que rastrear qué permutaciones ya se han seleccionado).

Inteligencia artificial para juegos

Los métodos de Monte Carlo se han desarrollado en una técnica llamada búsqueda de árbol de Monte Carlo que resulta útil para buscar la mejor jugada en un juego. Las posibles jugadas se organizan en un árbol de búsqueda y se utilizan muchas simulaciones aleatorias para estimar el potencial a largo plazo de cada jugada. Un simulador de caja negra representa las jugadas del oponente. [80]

El método de búsqueda de árbol de Monte Carlo (MCTS) tiene cuatro pasos: [81]

  1. Comenzando en el nodo raíz del árbol, seleccione los nodos secundarios óptimos hasta llegar a un nodo hoja.
  2. Expande el nodo hoja y elige uno de sus hijos.
  3. Juega un juego simulado comenzando con ese nodo.
  4. Utilice los resultados de ese juego simulado para actualizar el nodo y sus ancestros.

El efecto neto, a lo largo de muchos juegos simulados, es que el valor de un nodo que representa un movimiento aumentará o disminuirá, con suerte en función de si ese nodo representa o no un buen movimiento.

La búsqueda de árboles de Monte Carlo se ha utilizado con éxito para jugar juegos como Go , [82] Tantrix , [83] Battleship , [84] Havannah , [85] y Arimaa . [86]

Diseño y elementos visuales

Los métodos de Monte Carlo también son eficientes para resolver ecuaciones diferenciales integrales acopladas de campos de radiación y transporte de energía, y por lo tanto estos métodos se han utilizado en cálculos de iluminación global que producen imágenes fotorrealistas de modelos virtuales 3D, con aplicaciones en videojuegos , arquitectura , diseño , películas generadas por computadora y efectos especiales cinematográficos. [87]

Búsqueda y rescate

La Guardia Costera de los Estados Unidos utiliza métodos de Monte Carlo en su software de modelado informático SAROPS para calcular las posibles ubicaciones de los buques durante las operaciones de búsqueda y rescate . Cada simulación puede generar hasta diez mil puntos de datos que se distribuyen aleatoriamente en función de las variables proporcionadas. [88] A continuación, se generan patrones de búsqueda basados ​​en extrapolaciones de estos datos para optimizar la probabilidad de contención (POC) y la probabilidad de detección (POD), que juntas equivaldrán a una probabilidad general de éxito (POS). En última instancia, esto sirve como una aplicación práctica de la distribución de probabilidad para proporcionar el método de rescate más rápido y conveniente, salvando vidas y recursos. [89]

Finanzas y negocios

La simulación de Monte Carlo se utiliza habitualmente para evaluar el riesgo y la incertidumbre que afectarían el resultado de diferentes opciones de decisión. La simulación de Monte Carlo permite al analista de riesgos empresariales incorporar los efectos totales de la incertidumbre en variables como el volumen de ventas, los precios de las materias primas y de la mano de obra, los tipos de interés y de cambio, así como el efecto de distintos eventos de riesgo como la cancelación de un contrato o el cambio de una ley fiscal.

Los métodos de Monte Carlo en finanzas se utilizan a menudo para evaluar inversiones en proyectos a nivel de unidad de negocio o corporativo, u otras valoraciones financieras. Se pueden utilizar para modelar cronogramas de proyectos , donde las simulaciones agregan estimaciones para duraciones en el peor de los casos, el mejor de los casos y las más probables para cada tarea a fin de determinar los resultados para el proyecto en general. [90] Los métodos de Monte Carlo también se utilizan en la fijación de precios de opciones y el análisis de riesgo de incumplimiento. [91] [92] Además, se pueden utilizar para estimar el impacto financiero de intervenciones médicas. [93]

Ley

Se utilizó un método de Monte Carlo para evaluar el valor potencial de un programa propuesto para ayudar a las mujeres solicitantes de Wisconsin a tener éxito en sus solicitudes de órdenes de restricción por acoso y abuso doméstico . Se propuso ayudar a las mujeres a tener éxito en sus solicitudes proporcionándoles una mayor defensa, reduciendo así potencialmente el riesgo de violación y agresión física . Sin embargo, había muchas variables en juego que no se podían estimar perfectamente, incluida la eficacia de las órdenes de restricción, la tasa de éxito de las solicitantes con y sin defensa, y muchas otras. El estudio realizó ensayos que variaron estas variables para llegar a una estimación general del nivel de éxito del programa propuesto en su conjunto. [94]

Ciencia bibliotecaria

El método de Monte Carlo también se ha utilizado para simular el número de publicaciones de libros en función del género literario en Malasia. La simulación de Monte Carlo utilizó datos de publicaciones de libros nacionales publicados anteriormente y el precio de los libros según el género literario en el mercado local. Los resultados de Monte Carlo se utilizaron para determinar qué tipo de género literario les gusta a los malayos y se utilizaron para comparar las publicaciones de libros entre Malasia y Japón . [95]

Otro

Nassim Nicholas Taleb escribe sobre los generadores de Monte Carlo en su libro de 2001 Fooled by Randomness como un ejemplo real de la prueba de Turing inversa : un ser humano puede ser declarado no inteligente si su escritura no puede distinguirse de una generada.

Uso en matemáticas

En general, los métodos de Monte Carlo se utilizan en matemáticas para resolver diversos problemas mediante la generación de números aleatorios adecuados (véase también Generación de números aleatorios ) y la observación de la fracción de los números que obedece a alguna propiedad o propiedades. El método es útil para obtener soluciones numéricas a problemas demasiado complicados para resolverlos analíticamente. La aplicación más común del método de Monte Carlo es la integración de Monte Carlo.

Integración

La integración de Monte Carlo funciona comparando puntos aleatorios con el valor de la función.
Los errores se reducen en un factor de .

Los algoritmos de integración numérica deterministas funcionan bien en un pequeño número de dimensiones, pero se encuentran con dos problemas cuando las funciones tienen muchas variables. En primer lugar, el número de evaluaciones de función necesarias aumenta rápidamente con el número de dimensiones. Por ejemplo, si 10 evaluaciones proporcionan una precisión adecuada en una dimensión, entonces se necesitan 10 100 puntos para 100 dimensiones, demasiados para ser calculados. Esto se llama la maldición de la dimensionalidad . En segundo lugar, el límite de una región multidimensional puede ser muy complicado, por lo que puede no ser factible reducir el problema a una integral iterada . [96] 100 dimensiones no es de ninguna manera inusual, ya que en muchos problemas físicos, una "dimensión" es equivalente a un grado de libertad .

Los métodos de Monte Carlo ofrecen una salida a este aumento exponencial del tiempo de cálculo. Siempre que la función en cuestión se comporte razonablemente bien , se puede estimar seleccionando aleatoriamente puntos en un espacio de 100 dimensiones y tomando algún tipo de promedio de los valores de la función en estos puntos. Según el teorema del límite central , este método muestra convergencia, es decir, cuadruplicar el número de puntos muestreados reduce a la mitad el error, independientemente del número de dimensiones. [96]

Un refinamiento de este método, conocido como muestreo de importancia en estadística, implica muestrear los puntos aleatoriamente, pero con mayor frecuencia donde el integrando es grande. Para hacer esto con precisión, uno tendría que conocer ya la integral, pero uno puede aproximar la integral por una integral de una función similar o usar rutinas adaptativas como muestreo estratificado , muestreo estratificado recursivo , muestreo paraguas adaptativo [97] [98] o el algoritmo VEGAS .

Un enfoque similar, el método cuasi-Monte Carlo , utiliza secuencias de baja discrepancia . Estas secuencias "rellenan" mejor el área y muestrean los puntos más importantes con mayor frecuencia, por lo que los métodos cuasi-Monte Carlo a menudo pueden converger en la integral más rápidamente.

Otra clase de métodos para muestrear puntos en un volumen es simular recorridos aleatorios sobre él ( Márkov Chain Monte Carlo ). Dichos métodos incluyen el algoritmo Metropolis-Hastings , el muestreo de Gibbs , el algoritmo de Wang y Landau y metodologías MCMC de tipo interactivo como los muestreadores secuenciales de Monte Carlo . [99]

Simulación y optimización

Otra aplicación poderosa y muy popular para los números aleatorios en la simulación numérica es en la optimización numérica . El problema es minimizar (o maximizar) funciones de algún vector que a menudo tiene muchas dimensiones. Muchos problemas pueden formularse de esta manera: por ejemplo, un programa de ajedrez de computadora podría verse como si intentara encontrar el conjunto de, digamos, 10 movimientos que produce la mejor función de evaluación al final. En el problema del viajante de comercio, el objetivo es minimizar la distancia recorrida. También hay aplicaciones para el diseño de ingeniería, como la optimización de diseño multidisciplinario . Se ha aplicado con modelos cuasi unidimensionales para resolver problemas de dinámica de partículas explorando eficientemente un gran espacio de configuración. La referencia [100] es una revisión completa de muchos temas relacionados con la simulación y la optimización.

El problema del viajante es lo que se denomina un problema de optimización convencional. Es decir, se conocen con certeza todos los datos (distancias entre cada punto de destino) necesarios para determinar el camino óptimo a seguir y el objetivo es recorrer las posibles opciones de viaje para llegar a la que tenga la menor distancia total. Si en lugar de que el objetivo sea minimizar la distancia total recorrida para visitar cada destino deseado, se minimiza el tiempo total necesario para llegar a cada destino, esto va más allá de la optimización convencional, ya que el tiempo de viaje es inherentemente incierto (atascos de tráfico, hora del día, etc.). Como resultado, para determinar el camino óptimo se requiere una simulación diferente: optimización para comprender primero el rango de tiempos potenciales que podría tomar ir de un punto a otro (representado por una distribución de probabilidad en este caso en lugar de una distancia específica) y luego optimizar las decisiones de viaje para identificar el mejor camino a seguir teniendo en cuenta esa incertidumbre.

Problemas inversos

La formulación probabilística de problemas inversos conduce a la definición de una distribución de probabilidad en el espacio del modelo. Esta distribución de probabilidad combina información previa con información nueva obtenida midiendo algunos parámetros observables (datos). Como, en el caso general, la teoría que vincula los datos con los parámetros del modelo es no lineal, la probabilidad posterior en el espacio del modelo puede no ser fácil de describir (puede ser multimodal, algunos momentos pueden no estar definidos, etc.).

Al analizar un problema inverso, obtener un modelo de máxima verosimilitud no suele ser suficiente, ya que normalmente se desea obtener información sobre el poder de resolución de los datos. En el caso general, se modelan muchos parámetros y una inspección de las densidades de probabilidad marginales de interés puede resultar poco práctica o incluso inútil. Pero es posible generar de forma pseudoaleatoria una gran colección de modelos según la distribución de probabilidad posterior y analizar y mostrar los modelos de tal manera que se transmita al espectador información sobre las verosimilitudes relativas de las propiedades del modelo. Esto se puede lograr mediante un método de Monte Carlo eficiente, incluso en casos en los que no se dispone de una fórmula explícita para la distribución a priori .

El método de muestreo de importancia más conocido, el algoritmo Metropolis, se puede generalizar y proporciona un método que permite el análisis de problemas inversos (posiblemente altamente no lineales) con información a priori compleja y datos con una distribución de ruido arbitraria. [101] [102]

Filosofía

La exposición popular del método de Monte Carlo fue realizada por McCracken. [103] La filosofía general del método fue discutida por Elishakoff [104] y Grüne-Yanoff y Weirich. [105]

Véase también

Referencias

Citas

  1. ^ Kalos y Whitlock 2008.
  2. ^ Kroese, DP; Brereton, T.; Taimre, T.; Botev, ZI (2014). "Por qué el método de Monte Carlo es tan importante hoy en día". WIREs Comput Stat . 6 (6): 386–392. doi :10.1002/wics.1314. S2CID  18521840.
  3. ^ Hubbard, Douglas; Samuelson, Douglas A. (octubre de 2009). "Modelado sin mediciones". OR/MS Today : 28–33.
  4. ^ Metropolis, Nicholas; Rosenbluth, Arianna W.; Rosenbluth, Marshall N.; Teller, Augusta H.; Teller, Edward (1 de junio de 1953). "Cálculos de ecuaciones de estado mediante máquinas de computación rápida". The Journal of Chemical Physics . 21 (6): 1087–1092. Bibcode :1953JChPh..21.1087M. doi :10.1063/1.1699114. ISSN  0021-9606. OSTI  4390578. S2CID  1046577.
  5. ^ Hastings, WK (1 de abril de 1970). "Métodos de muestreo de Monte Carlo utilizando cadenas de Markov y sus aplicaciones". Biometrika . 57 (1): 97–109. Bibcode :1970Bimka..57...97H. doi :10.1093/biomet/57.1.97. ISSN  0006-3444. S2CID  21204149.
  6. ^ Liu, Jun S.; Liang, Faming; Wong, Wing Hung (1 de marzo de 2000). "El método de múltiples intentos y la optimización local en el muestreo de metrópolis". Revista de la Asociación Estadounidense de Estadística . 95 (449): 121–134. doi :10.1080/01621459.2000.10473908. ISSN  0162-1459. S2CID  123468109.
  7. ^ Spall, JC (2003). "Estimación mediante el método Monte Carlo de cadenas de Markov". Revista IEEE Control Systems . 23 (2): 34–45. doi :10.1109/MCS.2003.1188770.
  8. ^ Hill, Stacy D.; Spall, James C. (2019). "Estacionariedad y convergencia del algoritmo Metropolis-Hastings: perspectivas sobre aspectos teóricos". Revista IEEE Control Systems . 39 : 56–67. doi :10.1109/MCS.2018.2876959. S2CID  58672766.
  9. ^ ab Kolokoltsov, Vassili (2010). Procesos no lineales de Markov . Cambridge University Press . pág. 375.
  10. ^ abc Del Moral, Pierre (2013). Simulación de campo medio para integración de Monte Carlo. Chapman & Hall/ CRC Press . p. 626. Monografías sobre estadística y probabilidad aplicada
  11. ^ Del Moral, P.; Doucet, A.; Jasra, A. (2006). "Muestreadores secuenciales de Monte Carlo". Revista de la Royal Statistical Society, Serie B. 68 (3): 411–436. arXiv : cond-mat/0212648 . doi :10.1111/j.1467-9868.2006.00553.x. S2CID  12074789.
  12. ^ abcd Owen, Art B. (2013). Teoría, métodos y ejemplos de Monte Carlo (PDF) . Trabajo en curso. pp. 15–36.
  13. ^ ab Driels, Morris R.; Shin, Young S. (abril de 2004). "Determinación del número de iteraciones para simulaciones de Monte Carlo de la eficacia de las armas". Informe técnico de la Escuela de posgrado naval (marzo de 2003 - marzo de 2004): 10-11.
  14. ^ Shonkwiler, RW; Mendivil, F. (2009). Exploraciones en métodos de Monte Carlo . Springer.
  15. ^ Atanassova, E.; Gurov, T.; Karaivanova, A.; Ivanovska, S.; Durchova, M.; Dimitrov, D. (2016). "Sobre los enfoques de paralelización para la arquitectura Intel MIC". Actas de la conferencia AIP . 1773 (1): 070001. Código Bibliográfico :2016AIPC.1773g0001A. doi :10.1063/1.4964983.
  16. ^ Cunha Jr, A.; Nasser, R.; Sampaio, R.; Lopes, H.; Breitman, K. (2014). "Cuantificación de la incertidumbre a través del método de Monte Carlo en un entorno de computación en la nube". Computer Physics Communications . 185 (5): 1355–1363. arXiv : 2105.09512 . Código Bibliográfico :2014CoPhC.185.1355C. doi :10.1016/j.cpc.2014.01.006. S2CID  32376269.
  17. ^ Wei, J.; Kruis, FE (2013). "Un método de Monte-Carlo paralelizado basado en GPU para la coagulación de partículas utilizando una estrategia de aceptación-rechazo". Chemical Engineering Science . 104 : 451–459. Bibcode :2013ChEnS.104..451W. doi :10.1016/j.ces.2013.08.008.
  18. ^ Lin, Y.; Wang, F.; Liu, B. (2018). "Generadores de números aleatorios para simulaciones de Monte Carlo paralelas a gran escala en FPGA". Journal of Computational Physics . 360 : 93–103. Bibcode :2018JCoPh.360...93L. doi :10.1016/j.jcp.2018.01.029.
  19. ^abc Metrópolis 1987.
  20. ^ Eckhardt 1987.
  21. ^ ab Mazhdrakov, Benov y Valkanov 2018, p. 250.
  22. ^ Haigh, Thomas; Priestley, Mark; Rope, Crispin (2014). "Los Alamos apuesta por ENIAC: simulaciones nucleares de Monte Carlo, 1947-1948". IEEE Annals of the History of Computing . 36 (3): 42–63. doi :10.1109/MAHC.2014.40. S2CID  17470931.
  23. ^ McKean, Henry P. (1967). "Propagación del caos para una clase de ecuaciones parabólicas no lineales". Serie de conferencias sobre ecuaciones diferenciales, Universidad Católica . 7 : 41–57.
  24. ^ McKean, Henry P. (1966). "Una clase de procesos de Markov asociados con ecuaciones parabólicas no lineales". Proc. Natl. Sci. USA . 56 (6): 1907–1911. Bibcode :1966PNAS...56.1907M. doi : 10.1073/pnas.56.6.1907 . PMC 220210 . PMID  16591437. 
  25. ^ Herman, Kahn; Theodore, Harris E. (1951). "Estimación de la transmisión de partículas mediante muestreo aleatorio" (PDF) . Natl. Bur. Stand. Appl. Math. Ser . 12 : 27–30.
  26. ^ Turing, Alan M. (1950). "Maquinaria informática e inteligencia". Mind . LIX (238): 433–460. doi :10.1093/mind/LIX.236.433.
  27. ^ Barricelli, Nils Aall (1954). "Ejemplos numéricos de procesos de evolución". Métodos : 45–68.
  28. ^ Barricelli, Nils Aall (1957). "Procesos de evolución simbiogenética realizados mediante métodos artificiales". Methodos : 143–182.
  29. ^ ab Del Moral, Pierre (2004). Fórmulas de Feynman-Kac. Aproximaciones genealógicas y de partículas interactuantes. Probabilidad y sus aplicaciones. Springer. p. 575. ISBN 9780387202686Serie : Probabilidad y aplicaciones
  30. ^ ab Del Moral, P.; Miclo, L. (2000). "Aproximaciones de fórmulas de Feynman–Kac mediante sistemas de partículas ramificadas e interactuantes con aplicaciones al filtrado no lineal". Séminaire de Probabilités XXXIV. Lecture Notes in Mathematics. Vol. 1729. Berlín: Springer. págs. 1–145. doi :10.1007/BFb0103798. ISBN 978-3-540-67314-9.Señor 1768060  .
  31. ^ Del Moral, Pierre; Miclo, Laurent (2000). "Una aproximación del sistema de partículas de Moran de las fórmulas de Feynman–Kac". Procesos estocásticos y sus aplicaciones . 86 (2): 193–216. doi : 10.1016/S0304-4149(99)00094-0 .
  32. ^ Del Moral, Pierre (2003). "Aproximaciones de partículas de exponentes de Lyapunov conectados a operadores de Schrödinger y semigrupos de Feynman–Kac". ESAIM Probability & Statistics . 7 : 171–208. doi : 10.1051/ps:2003001 .
  33. ^ Assaraf, Roland; Caffarel, Michel; Khelif, Anatole (2000). "Métodos de difusión de Monte Carlo con un número fijo de caminantes" (PDF) . Phys. Rev. E . 61 (4): 4566–4575. Bibcode :2000PhRvE..61.4566A. doi :10.1103/physreve.61.4566. PMID  11088257. Archivado desde el original (PDF) el 7 de noviembre de 2014.
  34. ^ Caffarel, Michel; Ceperley, David; Kalos, Malvin (1993). "Comentario sobre el cálculo de la integral de trayectorias de Feynman-Kac de las energías del estado fundamental de los átomos". Phys. Rev. Lett . 71 (13): 2159. Bibcode :1993PhRvL..71.2159C. doi :10.1103/physrevlett.71.2159. PMID  10054598.
  35. ^ ab Hetherington, Jack H. (1984). "Observaciones sobre la iteración estadística de matrices". Phys. Rev. A . 30 (2713): 2713–2719. Código Bibliográfico :1984PhRvA..30.2713H. doi :10.1103/PhysRevA.30.2713.
  36. ^ Fermi, Enrique; Richtmyer, Robert D. (1948). "Nota sobre la realización de censos en los cálculos de Monte Carlo" (PDF) . LAM . 805 (A). Informe desclasificado Archivo de Los Álamos
  37. ^ ab Rosenbluth, Marshall N.; Rosenbluth, Arianna W. (1955). "Cálculos de Montecarlo de la extensión media de cadenas macromoleculares". J. Chem. Phys . 23 (2): 356–359. Bibcode :1955JChPh..23..356R. doi : 10.1063/1.1741967 . S2CID  89611599.
  38. ^ Gordon, NJ; Salmond, DJ; Smith, AFM (abril de 1993). "Nuevo enfoque para la estimación de estado bayesiano no lineal/no gaussiano". Actas del IEE F - Procesamiento de señales y radar . 140 (2): 107–113. doi :10.1049/ip-f-2.1993.0015. ISSN  0956-375X. S2CID  12644877.
  39. ^ Kitagawa, G. (1996). "Filtro de Monte Carlo y suavizador para modelos de espacio de estados no lineales no gaussianos". Journal of Computational and Graphical Statistics . 5 (1): 1–25. doi :10.2307/1390750. JSTOR  1390750.
  40. ^ ab Del Moral, Pierre (1996). «Filtrado no lineal: solución de partículas interactuantes» (PDF) . Procesos de Markov y campos relacionados . 2 (4): 555–580. Archivado desde el original (PDF) el 4 de marzo de 2016. Consultado el 11 de junio de 2015 .
  41. ^ Carvalho, Himilcon; Del Moral, Pierre; Monin, André; Salut, Gérard (julio de 1997). "Optimal Non-linear Filtering in GPS/INS Integration" (PDF) . IEEE Transactions on Aerospace and Electronic Systems . 33 (3): 835–850. Bibcode :1997ITAES..33..835C. doi :10.1109/7.599254. S2CID  27966240. Archivado desde el original (PDF) el 10 de noviembre de 2022 . Consultado el 11 de junio de 2015 .
  42. ^ P. Del Moral, G. Rigal y G. Salut. "Estimación y control óptimo no lineal: un marco unificado para soluciones de partículas". LAAS-CNRS, Toulouse, Informe de investigación núm. 91137, contrato DRET-DIGILOG-LAAS/CNRS, abril (1991).
  43. ^ P. Del Moral, G. Rigal y G. Salut. "Filtros de partículas no lineales y no gaussianos aplicados al reposicionamiento de plataformas inerciales". LAAS-CNRS, Toulouse, Informe de investigación n.º 92207, Convenio STCAN/DIGILOG-LAAS/CNRS STCAN n.º A.91.77.013, (94 págs.) Septiembre (1991).
  44. ^ P. Del Moral, G. Rigal y G. Salut. "Estimación y control óptimo no lineal: Resolución de partículas en filtrado y estimación: Resultados experimentales". Convenio DRET n.º 89.34.553.00.470.75.01, Informe de investigación n.º 2 (54 págs.), enero (1992).
  45. ^ P. Del Moral, G. Rigal y G. Salut. "Estimación y control óptimo no lineal: Resolución de partículas en filtrado y estimación: Resultados teóricos". Convenio DRET nº 89.34.553.00.470.75.01, Informe de investigación nº 3 (123 págs.), octubre (1992).
  46. ^ P. Del Moral, J.-Ch. Noyer, G. Rigal y G. Salut. "Filtros de partículas en el procesamiento de señales de radar: detección, estimación y reconocimiento de objetivos aéreos". LAAS-CNRS, Toulouse, Informe de investigación n.° 92495, diciembre (1992).
  47. ^ P. Del Moral, G. Rigal y G. Salut. "Estimación y control óptimo no lineal: Resolución de partículas en filtrado y estimación". Estudios sobre: ​​Filtrado, control óptimo y estimación de máxima verosimilitud. Convenio DRET nº 89.34.553.00.470.75.01. Informe de investigación nº 4 (210 págs.), enero (1993).
  48. ^ Del Moral, Pierre (1998). "Medir procesos valorados y sistemas de partículas que interactúan. Aplicación a problemas de filtrado no lineal". Anales de probabilidad aplicada . 8 (2) (Publicaciones del Laboratoire de Statistique et Probabilités, 96-15 (1996) ed.): 438–495. CiteSeerX 10.1.1.55.5257 . doi : 10.1214/aoap/1028903535. 
  49. ^ Crisan, Dan; Gaines, Jessica; Lyons, Terry (1998). "Convergencia de un método de partículas ramificadas a la solución de Zakai". Revista SIAM de Matemáticas Aplicadas . 58 (5): 1568–1590. doi :10.1137/s0036139996307371. S2CID  39982562.
  50. ^ Crisan, Dan; Lyons, Terry (1997). "Filtrado no lineal y procesos con valores medidos". Teoría de la probabilidad y campos relacionados . 109 (2): 217–244. doi : 10.1007/s004400050131 . S2CID  119809371.
  51. ^ Crisan, Dan; Lyons, Terry (1999). "Una aproximación de partículas de la solución de la ecuación de Kushner-Stratonovitch". Teoría de la probabilidad y campos relacionados . 115 (4): 549–578. doi : 10.1007/s004400050249 . S2CID  117725141.
  52. ^ Crisan, Dan; Del Moral, Pierre; Lyons, Terry (1999). "Filtrado discreto utilizando sistemas de partículas ramificadas e interactuantes" (PDF) . Procesos de Markov y campos relacionados . 5 (3): 293–318.
  53. ^ Del Moral, Pierre; Guionnet, Alice (1999). "Sobre la estabilidad de los procesos de medida con aplicaciones al filtrado". CR Acad. Sci. París . 39 (1): 429–434.
  54. ^ Del Moral, Pierre; Guionnet, Alice (2001). "Sobre la estabilidad de los procesos interactuantes con aplicaciones a algoritmos genéticos y de filtrado". Annales de l'Institut Henri Poincaré . 37 (2): 155–194. Bibcode :2001AIHPB..37..155D. doi :10.1016/s0246-0203(00)01064-5.
  55. ^ Ripley 1987
  56. ^ por Sawilowsky 2003
  57. ^ Kalos y Whitlock 2008
  58. ^ Shojaeefard, MH; Khalkhali, A.; Yarmohammadisatri, Sadegh (2017). "Un método de análisis de sensibilidad eficiente para la geometría modificada de la suspensión Macpherson basado en el coeficiente de correlación de Pearson". Dinámica de sistemas de vehículos . 55 (6): 827–852. Bibcode :2017VSD....55..827S. doi :10.1080/00423114.2017.1283046. S2CID  114260173.
  59. ^ Davenport 1992
  60. ^ Route, Matthew (10 de agosto de 2017). "Síntesis de población de enanas ultrafrías con llamaradas de radio". The Astrophysical Journal . 845 (1): 66. arXiv : 1707.02212 . Bibcode :2017ApJ...845...66R. doi : 10.3847/1538-4357/aa7ede . S2CID  118895524.
  61. ^ Vose 2008, pág. 13.
  62. ^ Vose 2008, pág. 16.
  63. ^ Jia, Xun; Ziegenhein, Peter; Jiang, Steve B (2014). "Computación de alto rendimiento basada en GPU para radioterapia". Física en Medicina y Biología . 59 (4): R151–R182. Bibcode :2014PMB....59R.151J. doi :10.1088/0031-9155/59/4/R151. PMC 4003902 . PMID  24486639. 
  64. ^ Hill, R.; Healy, B.; Holloway, L.; Kuncic, Z.; Thwaites, D.; Baldock, C. (marzo de 2014). "Avances en la dosimetría de rayos X de kilovoltaje". Física en Medicina y Biología . 59 (6): R183–R231. Bibcode :2014PMB....59R.183H. doi :10.1088/0031-9155/59/6/R183. PMID  24584183. S2CID  18082594.
  65. ^ Rogers, DWO (2006). "Cincuenta años de simulaciones de Monte Carlo para la física médica". Física en Medicina y Biología . 51 (13): R287–R301. Bibcode :2006PMB....51R.287R. doi :10.1088/0031-9155/51/13/R17. PMID  16790908. S2CID  12066026.
  66. ^ Baeurle 2009
  67. ^ Möller, W.; Eckstein, W. (1 de marzo de 1984). "Tridyn — Un código de simulación TRIM que incluye cambios dinámicos de composición". Instrumentos y métodos nucleares en la investigación en física Sección B: Interacciones de haces con materiales y átomos . 2 (1): 814–818. Bibcode :1984NIMPB...2..814M. doi :10.1016/0168-583X(84)90321-5.
  68. ^ MacGillivray y Dodd 1982
  69. ^ Dorado 1979
  70. ^ GA Bird, Dinámica molecular de los gases, Clarendon, Oxford (1976)
  71. ^ Dietrich, S.; Boyd, I. (1996). "Una implementación paralela optimizada escalar de la técnica DSMC". Journal of Computational Physics . 126 (2): 328–42. Bibcode :1996JCoPh.126..328D. doi : 10.1006/jcph.1996.0141 .
  72. ^ Chen, Shang-Ying; Hsu, Kuo-Chin; Fan, Chia-Ming (15 de marzo de 2021). "Mejora del método de diferencias finitas generalizadas para el modelado estocástico del flujo subterráneo". Journal of Computational Physics . 429 : 110002. Bibcode :2021JCoPh.42910002C. doi :10.1016/J.JCP.2020.110002. S2CID  228828681.
  73. ^ Cambio climático 2013 Bases de la ciencia física (PDF) . Cambridge University Press . 2013. pág. 697. ISBN 978-1-107-66182-0. Recuperado el 6 de julio de 2023 .
  74. ^ Ojeda y col. 2009.
  75. ^ Milik y Skolnick 1993.
  76. ^ Cassey; Smith (2014). "Simulación de la confianza para el índice Ellison-Glaeser". Journal of Urban Economics . 81 : 93. doi :10.1016/j.jue.2014.02.005.
  77. ^ Sawilowsky y Fahoome 2003
  78. ^ Spall, James C. (2005). "Cálculo de Monte Carlo de la matriz de información de Fisher en entornos no estándar". Revista de estadística computacional y gráfica . 14 (4): 889–909. CiteSeerX 10.1.1.142.738 . doi :10.1198/106186005X78800. S2CID  16090098. 
  79. ^ Das, Sonjoy; Spall, James C.; Ghanem, Roger (2010). "Cálculo eficiente de Monte Carlo de la matriz de información de Fisher utilizando información previa". Computational Statistics & Data Analysis . 54 (2): 272–289. doi :10.1016/j.csda.2009.09.018.
  80. ^ Chaslot, Guillaume; Bakkes, Sander; Szita, István; Spronck, Pieter. "Búsqueda de árboles de Monte-Carlo: un nuevo marco para la IA de juegos" (PDF) . Sander.landofsand.com . Consultado el 28 de octubre de 2017 .
  81. ^ "Búsqueda de árboles de Monte Carlo - Acerca de". Archivado desde el original el 29 de noviembre de 2015 . Consultado el 15 de mayo de 2013 .
  82. ^ Chaslot, Guillaume MJ-B; Winands, Mark HM; Van Den Herik, H. Jaap (2008). "Búsqueda paralela de árboles en Montecarlo". Computadoras y Juegos . Apuntes de conferencias sobre informática. vol. 5131, págs. 60–71. CiteSeerX 10.1.1.159.4373 . doi :10.1007/978-3-540-87608-3_6. ISBN  978-3-540-87607-6.
  83. ^ Bruns, Pete. Búsqueda de árboles de Montecarlo en el juego de Tantrix: Informe final de Cosc490 (PDF) (Informe).
  84. ^ Silver, David; Veness, Joel. "Planificación de Montecarlo en grandes POMDP" (PDF) . 0.cs.ucl.ac.uk . Archivado desde el original (PDF) el 18 de julio de 2016 . Consultado el 28 de octubre de 2017 .
  85. ^ Lorentz, Richard J. (2011). "Mejora de la búsqueda de árboles de Montecarlo en Havannah". Computadoras y juegos . Apuntes de clase en informática. Vol. 6515. págs. 105-115. Código Bibliográfico :2011LNCS.6515..105L. doi :10.1007/978-3-642-17928-0_10. ISBN: 978-3-642-17927-3.
  86. ^ Jakl, Tomas. "Arimaa challenge – comparison study of MCTS versus alpha-beta methods" (PDF) . Arimaa.com . Consultado el 28 de octubre de 2017 .
  87. ^ Szirmay-Kalos 2008.
  88. ^ "Cómo la Guardia Costera utiliza la analítica para buscar a los desaparecidos en el mar". Dice Insights . 3 de enero de 2014.
  89. ^ Stone, Lawrence D.; Kratzke, Thomas M.; Frost, John R. "Modelado y optimización de búsqueda en el sistema de planificación óptima de búsqueda y rescate (SAROPS) de la Guardia Costera de los Estados Unidos" (PDF) . Ifremer.fr . Consultado el 28 de octubre de 2017 .
  90. ^ "Simulación de riesgo de proyecto (BETA)". risk.octigo.pl . Consultado el 21 de mayo de 2024 .
  91. ^ Carmona, René; Del Moral, Pierre; Hu, Peng; Oudjane, Nadia (2012). "Introducción a los métodos de partículas con aplicaciones financieras". En Carmona, René A.; Moral, Pierre Del; Hu, Peng; et al. (eds.). Métodos numéricos en finanzas . Springer Proceedings in Mathematics. Vol. 12. Springer Berlin Heidelberg. págs. 3–49. CiteSeerX 10.1.1.359.7957 . doi :10.1007/978-3-642-25746-9_1. ISBN  978-3-642-25745-2.
  92. ^ Kroese, DP; Taimre, T.; Botev, ZI (2011). Manual de métodos de Monte Carlo . John Wiley & Sons.
  93. ^ Arenas, Daniel J.; Lett, Lanair A.; Klusaritz, Heather; Teitelman, Anne M. (2017). "Un enfoque de simulación de Monte Carlo para estimar el impacto sanitario y económico de las intervenciones proporcionadas en una clínica dirigida por estudiantes". PLOS ONE . ​​12 (12): e0189718. Bibcode :2017PLoSO..1289718A. doi : 10.1371/journal.pone.0189718 . PMC 5746244 . PMID  29284026. 
  94. ^ Elwart, Liz; Emerson, Nina; Enders, Christina; Fumia, Dani; Murphy, Kevin (diciembre de 2006). "Aumento del acceso a órdenes de restricción para víctimas de violencia doméstica de bajos ingresos: un análisis de costo-beneficio del programa de subvenciones propuesto para casos de abuso doméstico" (PDF) . Colegio de Abogados del Estado de Wisconsin . Archivado desde el original (PDF) el 6 de noviembre de 2018 . Consultado el 12 de diciembre de 2016 .
  95. ^ Dahlan, Hadi Akbar (29 de octubre de 2021). "Perbandingan Penerbitan dan Harga Buku Mengikut Genre di Malaysia dan Jepun Menggunakan Data Akses Terbuka dan Simulasi Monte Carlo" (PDF) . Kajian Malasia . 39 (2): 179–202. doi : 10.21315/km2021.39.2.8. S2CID  240435973.
  96. ^ ab Press y otros 1996
  97. ^ MEZEI, M (31 de diciembre de 1986). "Muestreo de paraguas adaptativo: determinación autoconsistente del sesgo no-Boltzmann". Journal of Computational Physics . 68 (1): 237–248. Bibcode :1987JCoPh..68..237M. doi :10.1016/0021-9991(87)90054-4.
  98. ^ Bartels, Christian; Karplus, Martin (31 de diciembre de 1997). "Distribuciones de probabilidad para sistemas complejos: muestreo adaptativo de la energía potencial". The Journal of Physical Chemistry B . 102 (5): 865–880. doi :10.1021/jp972280j.
  99. ^ Del Moral, Pierre; Doucet, Arnaud; Jasra, Ajay (2006). "Muestreadores secuenciales de Monte Carlo". Revista de la Royal Statistical Society, Serie B. 68 (3): 411–436. arXiv : cond-mat/0212648 . doi :10.1111/j.1467-9868.2006.00553.x. S2CID  12074789.
  100. ^ Spall, JC (2003), Introducción a la búsqueda y optimización estocástica: estimación, simulación y control , Wiley, Hoboken, NJ. http://www.jhuapl.edu/ISSO
  101. ^ Mosegaard y Tarantola 1995
  102. ^ Tarantola 2005
  103. ^ McCracken, DD, (1955) El método de Monte Carlo, Scientific American, 192(5), págs. 90-97
  104. ^ Elishakoff, I., (2003) Notas sobre la filosofía del método de Monte Carlo, International Applied Mechanics, 39(7), pp.753-762
  105. ^ Grüne-Yanoff, T., y Weirich, P. (2010). La filosofía y la epistemología de la simulación: una revisión, Simulation & Gaming, 41(1), pp. 20-50

Fuentes

Enlaces externos