Caracterización y reducción de incertidumbres tanto en aplicaciones computacionales como en el mundo real
La cuantificación de la incertidumbre ( UC ) es la ciencia de la caracterización cuantitativa y la estimación de las incertidumbres tanto en aplicaciones computacionales como en el mundo real. Intenta determinar la probabilidad de que se produzcan determinados resultados si no se conocen con exactitud algunos aspectos del sistema. Un ejemplo sería predecir la aceleración de un cuerpo humano en un choque frontal con otro coche: incluso si se conociera con exactitud la velocidad, pequeñas diferencias en la fabricación de los distintos coches, en la fuerza con la que se ha apretado cada tornillo, etc., darán lugar a resultados diferentes que solo se pueden predecir en un sentido estadístico.
Muchos problemas en las ciencias naturales y la ingeniería también están plagados de fuentes de incertidumbre. Los experimentos informáticos sobre simulaciones por computadora son el enfoque más común para estudiar problemas de cuantificación de la incertidumbre. [1] [2] [3] [4] [5] [6]
Fuentes
La incertidumbre puede introducirse en los modelos matemáticos y en las mediciones experimentales en diversos contextos. Una forma de categorizar las fuentes de incertidumbre es considerar: [7]
Parámetro
Esto se debe a los parámetros del modelo que son entradas al modelo informático (modelo matemático), pero cuyos valores exactos son desconocidos para los experimentadores y no se pueden controlar en experimentos físicos, o cuyos valores no se pueden inferir con exactitud mediante métodos estadísticos . Algunos ejemplos de esto son la aceleración de caída libre local en un experimento de caída de objetos, varias propiedades de los materiales en un análisis de elementos finitos para ingeniería y la incertidumbre del multiplicador en el contexto de la optimización de políticas macroeconómicas .
Paramétrico
Esto se debe a la variabilidad de las variables de entrada del modelo. Por ejemplo, las dimensiones de una pieza de trabajo en un proceso de fabricación pueden no ser exactamente las diseñadas e instruidas, lo que provocaría variabilidad en su rendimiento.
Incertidumbre estructural
También conocido como inadecuación del modelo, sesgo del modelo o discrepancia del modelo, esto proviene de la falta de conocimiento de la física subyacente en el problema. Depende de la precisión con la que un modelo matemático describe el sistema real para una situación de la vida real, considerando el hecho de que los modelos casi siempre son solo aproximaciones a la realidad. Un ejemplo es cuando se modela el proceso de caída de un objeto utilizando el modelo de caída libre; el modelo en sí es inexacto ya que siempre existe fricción del aire. En este caso, incluso si no hay ningún parámetro desconocido en el modelo, aún se espera una discrepancia entre el modelo y la física real.
Algorítmico
También conocida como incertidumbre numérica o incertidumbre discreta, este tipo proviene de errores numéricos y aproximaciones numéricas por implementación del modelo informático. La mayoría de los modelos son demasiado complicados para resolverlos con exactitud. Por ejemplo, el método de elementos finitos o el método de diferencias finitas se pueden utilizar para aproximar la solución de una ecuación diferencial parcial (que introduce errores numéricos). Otros ejemplos son la integración numérica y el truncamiento de suma infinita, que son aproximaciones necesarias en la implementación numérica.
Experimental
También conocido como error de observación, proviene de la variabilidad de las mediciones experimentales. La incertidumbre experimental es inevitable y se puede notar al repetir una medición muchas veces utilizando exactamente los mismos ajustes para todas las entradas/variables.
Interpolación
Esto se debe a la falta de datos disponibles obtenidos a partir de simulaciones de modelos informáticos o mediciones experimentales. Para otras configuraciones de entrada que no cuentan con datos de simulación o mediciones experimentales, se debe interpolar o extrapolar para predecir las respuestas correspondientes.
Aleatorico y epistémico
La incertidumbre a veces se clasifica en dos categorías, [8] [9] que se observan de forma destacada en aplicaciones médicas. [10]
Aleatorio
La incertidumbre aleatoria también se conoce como incertidumbre estocástica y es representativa de incógnitas que difieren cada vez que realizamos el mismo experimento. Por ejemplo, una sola flecha disparada con un arco mecánico que duplica exactamente cada lanzamiento (la misma aceleración, altitud, dirección y velocidad final) no impactará en el mismo punto del objetivo debido a las vibraciones aleatorias y complicadas del eje de la flecha, cuyo conocimiento no se puede determinar lo suficiente como para eliminar la dispersión resultante de los puntos de impacto. El argumento aquí está obviamente en la definición de "no se puede". El hecho de que no podamos medir lo suficiente con nuestros dispositivos de medición disponibles actualmente no excluye necesariamente la existencia de dicha información, lo que movería esta incertidumbre a la categoría siguiente. Aleatorizado se deriva del latín alea o dados, que hace referencia a un juego de azar.
Incertidumbre epistémica
La incertidumbre epistémica también se conoce como incertidumbre sistemática y se debe a cosas que uno podría saber en principio pero que no sabe en la práctica. Esto puede deberse a que una medición no es precisa, a que el modelo ignora ciertos efectos o a que se han ocultado deliberadamente datos particulares. Un ejemplo de una fuente de esta incertidumbre sería la resistencia en un experimento diseñado para medir la aceleración de la gravedad cerca de la superficie de la Tierra. La aceleración gravitacional comúnmente utilizada de 9,8 m/s² ignora los efectos de la resistencia del aire, pero la resistencia del aire para el objeto podría medirse e incorporarse al experimento para reducir la incertidumbre resultante en el cálculo de la aceleración gravitacional.
Ocurrencia combinada e interacción de incertidumbre aleatoria y epistémica
La incertidumbre aleatoria y epistémica también puede ocurrir simultáneamente en un solo término. Por ejemplo, cuando los parámetros experimentales muestran incertidumbre aleatoria y esos parámetros experimentales se ingresan a una simulación por computadora. Si entonces para la cuantificación de la incertidumbre se aprende un modelo sustituto , por ejemplo, un proceso gaussiano o una expansión de caos polinomial , a partir de experimentos por computadora, este sustituto exhibe incertidumbre epistémica que depende o interactúa con la incertidumbre aleatoria de los parámetros experimentales. [4] Tal incertidumbre ya no puede clasificarse únicamente como aleatoria o epistémica, sino que es una incertidumbre inferencial más general.
En aplicaciones de la vida real, ambos tipos de incertidumbres están presentes. La cuantificación de la incertidumbre intenta expresar explícitamente ambos tipos de incertidumbre por separado. La cuantificación de las incertidumbres aleatorias puede ser relativamente sencilla, donde la probabilidad tradicional (frecuentista) es la forma más básica. Con frecuencia se utilizan técnicas como el método de Monte Carlo . Una distribución de probabilidad se puede representar por sus momentos (en el caso gaussiano , la media y la covarianza son suficientes, aunque, en general, incluso el conocimiento de todos los momentos hasta un orden arbitrariamente alto todavía no especifica la función de distribución de manera única), o más recientemente, por técnicas como Karhunen-Loève y expansiones de caos polinomial . Para evaluar las incertidumbres epistémicas, se realizan esfuerzos para comprender el (falta de) conocimiento del sistema, proceso o mecanismo. La incertidumbre epistémica generalmente se entiende a través de la lente de la probabilidad bayesiana , donde las probabilidades se interpretan como una indicación de qué tan segura podría estar una persona racional con respecto a una afirmación específica.
Perspectiva matemática
En matemáticas, la incertidumbre suele caracterizarse en términos de una distribución de probabilidad . Desde esa perspectiva, la incertidumbre epistémica significa no estar seguro de cuál es la distribución de probabilidad relevante, y la incertidumbre aleatoria significa no estar seguro de cuál será el resultado de una muestra aleatoria extraída de una distribución de probabilidad.
Tipos de problemas
Existen dos tipos principales de problemas en la cuantificación de la incertidumbre: uno es la propagación hacia adelante de la incertidumbre (donde las diversas fuentes de incertidumbre se propagan a través del modelo para predecir la incertidumbre general en la respuesta del sistema) y el otro es la evaluación inversa de la incertidumbre del modelo y la incertidumbre de los parámetros (donde los parámetros del modelo se calibran simultáneamente utilizando datos de prueba). Ha habido una proliferación de investigaciones sobre el primer problema y la mayoría de las técnicas de análisis de la incertidumbre se desarrollaron para él. Por otro lado, el segundo problema está atrayendo cada vez más atención en la comunidad de diseño de ingeniería, ya que la cuantificación de la incertidumbre de un modelo y las predicciones posteriores de la(s) respuesta(s) real(es) del sistema son de gran interés para el diseño de sistemas robustos.
Adelante
La propagación de la incertidumbre es la cuantificación de las incertidumbres en los resultados del sistema que se propagan a partir de entradas inciertas. Se centra en la influencia de la variabilidad paramétrica enumerada en las fuentes de incertidumbre en los resultados. Los objetivos del análisis de propagación de la incertidumbre pueden ser:
Para evaluar los momentos de orden inferior de las salidas, es decir, la media y la varianza .
Para evaluar la confiabilidad de los resultados. Esto es especialmente útil en ingeniería de confiabilidad , donde los resultados de un sistema suelen estar estrechamente relacionados con el rendimiento del sistema.
Para evaluar la distribución de probabilidad completa de los resultados. Esto resulta útil en el escenario de optimización de la utilidad , donde se utiliza la distribución completa para calcular la utilidad.
Inverso
Dadas algunas mediciones experimentales de un sistema y algunos resultados de simulación por computadora de su modelo matemático, la cuantificación de incertidumbre inversa estima la discrepancia entre el experimento y el modelo matemático (lo que se denomina corrección de sesgo ) y estima los valores de los parámetros desconocidos en el modelo si los hay (lo que se denomina calibración de parámetros o simplemente calibración ). Generalmente, este es un problema mucho más difícil que la propagación de incertidumbre hacia adelante; sin embargo, es de gran importancia ya que generalmente se implementa en un proceso de actualización del modelo. Hay varios escenarios en la cuantificación de incertidumbre inversa:
Solo corrección de sesgo
La corrección de sesgo cuantifica la inadecuación del modelo , es decir, la discrepancia entre el experimento y el modelo matemático. La fórmula general de actualización del modelo para la corrección de sesgo es:
donde denota las mediciones experimentales como una función de varias variables de entrada , denota la respuesta del modelo informático (modelo matemático), denota la función de discrepancia aditiva (también conocida como función de sesgo) y denota la incertidumbre experimental. El objetivo es estimar la función de discrepancia y, como subproducto, el modelo actualizado resultante es . Se proporciona un intervalo de confianza de predicción con el modelo actualizado como cuantificación de la incertidumbre.
Calibración de parámetros únicamente
La calibración de parámetros estima los valores de uno o más parámetros desconocidos en un modelo matemático. La formulación general de actualización del modelo para la calibración es:
donde denota la respuesta del modelo informático que depende de varios parámetros desconocidos del modelo y denota los valores verdaderos de los parámetros desconocidos en el curso de los experimentos. El objetivo es estimar o elaborar una distribución de probabilidad de que incluya el mejor conocimiento de los valores verdaderos de los parámetros.
Corrección de sesgo y calibración de parámetros
Considera un modelo inexacto con uno o más parámetros desconocidos, y su formulación de actualización del modelo combina los dos juntos:
Es la formulación de actualización de modelos más completa que incluye todas las posibles fuentes de incertidumbre y que requiere el mayor esfuerzo para resolverla.
Metodologías selectivas
Se han realizado muchas investigaciones para resolver problemas de cuantificación de la incertidumbre, aunque la mayoría de ellas se ocupan de la propagación de la incertidumbre. Durante las últimas dos décadas, también se han desarrollado varios enfoques para problemas de cuantificación de la incertidumbre inversa que han demostrado ser útiles para la mayoría de los problemas de pequeña y mediana escala.
Propagación hacia adelante
Los métodos de propagación de la incertidumbre existentes incluyen métodos probabilísticos y métodos no probabilísticos. Básicamente, existen seis categorías de métodos probabilísticos para la propagación de la incertidumbre: [11]
Métodos generales basados en sustitutos: en un enfoque no intrusivo, se aprende un modelo sustituto para reemplazar el experimento o la simulación con una aproximación barata y rápida. Los métodos basados en sustitutos también se pueden emplear de manera totalmente bayesiana. [12] [4] [13] [14] Este enfoque ha demostrado ser particularmente poderoso cuando el costo del muestreo, por ejemplo, simulaciones computacionalmente costosas, es prohibitivamente alto.
Métodos basados en expansión local: serie de Taylor , método de perturbación , etc. Estos métodos tienen ventajas cuando se trabaja con variabilidad de entrada relativamente pequeña y salidas que no expresan una alta no linealidad. Estos métodos lineales o linealizados se detallan en el artículo Propagación de incertidumbre .
Métodos basados en expansión funcional: expansión de Neumann, expansiones ortogonales o de Karhunen–Loeve (KLE), con expansión de caos polinomial (PCE) y expansiones wavelet como casos especiales.
Métodos basados en el punto más probable (MPP): método de confiabilidad de primer orden (FORM) y método de confiabilidad de segundo orden (SORM).
Métodos basados en integración numérica: integración numérica factorial completa (FFNI) y reducción de dimensión (DR).
El enfoque probabilístico se considera el más riguroso para el análisis de incertidumbre en el diseño de ingeniería debido a su coherencia con la teoría del análisis de decisiones. Su piedra angular es el cálculo de funciones de densidad de probabilidad para las estadísticas de muestreo. [16] Esto se puede realizar de manera rigurosa para variables aleatorias que se pueden obtener como transformaciones de variables gaussianas, lo que conduce a intervalos de confianza exactos.
Existen varias metodologías para la cuantificación de la incertidumbre inversa bajo el marco bayesiano . La dirección más complicada es apuntar a resolver problemas con corrección de sesgo y calibración de parámetros. Los desafíos de tales problemas incluyen no solo las influencias de la inadecuación del modelo y la incertidumbre de los parámetros, sino también la falta de datos tanto de simulaciones por computadora como de experimentos. Una situación común es que las configuraciones de entrada no son las mismas en experimentos y simulaciones. Otra situación común es que los parámetros derivados de experimentos se ingresan a las simulaciones. Para simulaciones computacionalmente costosas, a menudo es necesario un modelo sustituto , por ejemplo, un proceso gaussiano o una expansión de caos polinomial , definiendo un problema inverso para encontrar el modelo sustituto que mejor se aproxima a las simulaciones. [4]
Enfoque modular
Un enfoque para cuantificar la incertidumbre inversa es el enfoque bayesiano modular. [7] [17] El enfoque bayesiano modular deriva su nombre de su procedimiento de cuatro módulos. Además de los datos disponibles actuales, se debe asignar una distribución previa de parámetros desconocidos.
Módulo 1: Modelado de procesos gaussianos para el modelo informático
Para abordar el problema de la falta de resultados de simulación, el modelo de computadora se reemplaza con un modelo de proceso gaussiano (GP).
dónde
es la dimensión de las variables de entrada y es la dimensión de los parámetros desconocidos. Si bien está predefinido, , conocidos como hiperparámetros del modelo GP, deben estimarse mediante estimación de máxima verosimilitud (MLE) . Este módulo puede considerarse como un método de kriging generalizado .
Módulo 2: Modelado del proceso gaussiano para la función de discrepancia
De manera similar con el primer módulo, la función de discrepancia se reemplaza con un modelo GP
dónde
Junto con la distribución previa de parámetros desconocidos y los datos de los modelos informáticos y los experimentos, se pueden derivar las estimaciones de máxima verosimilitud para . Al mismo tiempo, el Módulo 1 también se actualiza.
Módulo 3: Distribución posterior de parámetros desconocidos
donde incluye todos los hiperparámetros fijos en los módulos anteriores.
Módulo 4: Predicción de la respuesta experimental y función de discrepancia
Enfoque completo
El enfoque completamente bayesiano requiere que no sólo se asignen los valores a priori de los parámetros desconocidos , sino también los valores a priori de los demás hiperparámetros . Para ello se siguen los siguientes pasos: [18]
Derive la distribución posterior ;
Integrar y obtener . Este único paso logra la calibración;
Predicción de la respuesta experimental y función de discrepancia.
Sin embargo, este enfoque presenta importantes inconvenientes:
En la mayoría de los casos, es una función de , por lo que la integración se vuelve muy problemática. Además, si no se eligen con cuidado los valores previos de los demás hiperparámetros, la complejidad de la integración numérica aumenta aún más.
En la etapa de predicción, la predicción (que debe incluir al menos el valor esperado de las respuestas del sistema) también requiere integración numérica. El método Monte Carlo de cadena de Markov (MCMC) se utiliza a menudo para la integración; sin embargo, es computacionalmente costoso.
El enfoque totalmente bayesiano requiere una enorme cantidad de cálculos y puede que aún no sea práctico para abordar las situaciones de modelado más complicadas. [18]
Problemas conocidos
Las teorías y metodologías de propagación de la incertidumbre están mucho mejor establecidas que las de cuantificación inversa de la incertidumbre. En este último caso, quedan por resolver varias dificultades:
Problema de dimensionalidad: el coste computacional aumenta drásticamente con la dimensionalidad del problema, es decir, el número de variables de entrada y/o el número de parámetros desconocidos.
Problema de identificabilidad: [19] Múltiples combinaciones de parámetros desconocidos y funciones de discrepancia pueden dar como resultado la misma predicción experimental. Por lo tanto, no se pueden distinguir o identificar diferentes valores de parámetros. Este problema se evita con un enfoque bayesiano, en el que se promedian dichas combinaciones. [4]
Respuesta del modelo incompleta: se refiere a un modelo que no tiene una solución para algunas combinaciones de las variables de entrada. [20] [21]
Cuantificación de la incertidumbre en las cantidades de entrada: eventos cruciales que faltan en los datos disponibles o cantidades críticas no identificadas por los analistas debido, por ejemplo, a limitaciones en los modelos existentes. [22]
Se presta poca atención al impacto de las decisiones tomadas por los analistas. [23]
^ Sacks, Jerome; Welch, William J.; Mitchell, Toby J.; Wynn, Henry P. (1989). "Diseño y análisis de experimentos informáticos". Ciencia estadística . 4 (4): 409–423. doi : 10.1214/ss/1177012413 . JSTOR 2245858.
^ Iman, Ronald L.; Helton, Jon C. (1988). "Una investigación de las técnicas de análisis de incertidumbre y sensibilidad para modelos informáticos". Análisis de riesgos . 8 (1). Wiley: 71–90. Bibcode :1988RiskA...8...71I. doi :10.1111/j.1539-6924.1988.tb01155.x. ISSN 0272-4332.
^ Caminante, NOSOTROS; Harremoës, P.; Rotmans, J.; van der Sluijs, JP; van Asselt, MBA; Janssen, P.; Krayer von Krauss, diputado (2003). "Definición de incertidumbre: una base conceptual para la gestión de la incertidumbre en el soporte de decisiones basado en modelos". Evaluación Integrada . 4 (1). Editores Swets & Zeitlinger: 5–17. Código Bib : 2003IntAs...4....5W. doi :10.1076/iaij.4.1.5.16466. hdl : 1874/386032 . ISSN 1389-5176.
^ abcde Ranftl, Sascha; von der Linden, Wolfgang (13 de noviembre de 2021). "Análisis sustituto bayesiano y propagación de la incertidumbre". Physical Sciences Forum . 3 (1): 6. arXiv : 2101.04038 . doi : 10.3390/psf2021003006 . ISSN 2673-9984.
^ Ralph C. Smith (Ed.): "Cuantificación de la incertidumbre: teoría, implementación y aplicaciones", 2.ª ed., SIAM, ISBN 978-1-61197-783-7 (2024).
^ TJ Sullivan: "Introducción a la cuantificación de la incertidumbre", Springer, ISBN 978-3319233949 (21 de diciembre de 2015).
^ ab Kennedy, Marc C.; O'Hagan, Anthony (2001). "Calibración bayesiana de modelos informáticos". Revista de la Royal Statistical Society, Serie B (Metodología estadística) . 63 (3): 425–464. doi : 10.1111/1467-9868.00294 .
^ Der Kiureghian, Armen; Ditlevsen, Ove (2009). "¿Aleatorio o epistémico? ¿Importa?". Seguridad estructural . 31 (2): 105–112. doi :10.1016/j.strusafe.2008.06.020.
^ Matthies, Hermann G. (2007). "Cuantificación de la incertidumbre: representación computacional moderna de la probabilidad y aplicaciones". Riesgos naturales y provocados por el hombre en la dinámica de las estructuras . Serie de la OTAN sobre seguridad a través de la ciencia. pp. 105–135. doi :10.1007/978-1-4020-5656-7_4. ISBN978-1-4020-5654-3.
^ Lee, SH; Chen, W. (9 de mayo de 2008). "Un estudio comparativo de métodos de propagación de incertidumbre para problemas de tipo caja negra". Optimización estructural y multidisciplinaria . 37 (3). Springer Science and Business Media LLC: 239–253. doi :10.1007/s00158-008-0234-7. ISSN 1615-147X. S2CID 119988015.
^ Cardenas, IC (2019). "Sobre el uso de redes bayesianas como un enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 13 (1): 53–65. Bibcode :2019GAMRE..13...53C. doi :10.1080/17499518.2018.1498524. S2CID 216590427.
^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para cardiografía de impedancia de disección aórtica". Entropy . 22 (1): 58. Bibcode :2019Entrp..22...58R. doi : 10.3390/e22010058 . ISSN 1099-4300. PMC 7516489 . PMID 33285833.
^ Ranftl, Sascha; Müller, Thomas Stephan; Windberger, Ursula; von der Linden, Wolfgang; Brenn, Günter (3 de mayo de 2021), Datos y códigos para 'Un enfoque bayesiano de las incertidumbres reológicas de la sangre en la hemodinámica aórtica', doi :10.5281/zenodo.5237189 , consultado el 12 de enero de 2022
^ Jaulín, L.; Kieffer, M.; Didrit, O.; Walter, E. (2001). Análisis de intervalos aplicado . Saltador. ISBN1-85233-219-0.
^ Arnaut, LR Incertidumbre de medición en cámaras de reverberación - I. Estadísticas de muestra. Informe técnico TQE 2, 2.ª ed., sec. 3.1, National Physical Laboratory, 2008.
^ Marc C. Kennedy, Anthony O'Hagan, Detalles complementarios sobre la calibración bayesiana de modelos informáticos , Sheffield, Universidad de Sheffield: 1–13, 2000
^ ab Bayarri, MJ ; Berger, JO; Liu, F. (2009-03-01). "Modularización en análisis bayesiano, con énfasis en el análisis de modelos computacionales". Análisis bayesiano . 4 (1). Instituto de Estadística Matemática: 119–150. doi : 10.1214/09-ba404 . ISSN 1936-0975.
^ Arendt, Paul D.; Apley, Daniel W.; Chen, Wei ; Lamb, David; Gorsich, David (28 de septiembre de 2012). "Mejora de la identificabilidad en la calibración de modelos mediante respuestas múltiples". Journal of Mechanical Design . 134 (10). ASME International: 100909. doi :10.1115/1.4007573. ISSN 1050-0472.
^ Cardenas, IC (2019). "Sobre el uso de redes bayesianas como un enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 13 (1): 53–65. Bibcode :2019GAMRE..13...53C. doi :10.1080/17499518.2018.1498524. S2CID 216590427.
^ van den Eijnden, AP; Schweckendiek, T; Hicks, MA (2021). "Metamodelado para análisis de confiabilidad geotécnica con modelos ruidosos e incompletos". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 16 (3): 518–535. doi : 10.1080/17499518.2021.1952611 . S2CID : 238819106.
^ Cardenas, I.; Aven, T.; Flage, R. (2022). "Abordar los desafíos en la cuantificación de la incertidumbre. El caso de las evaluaciones de riesgos geológicos". Geosci. Model Dev. Discuss . 16 (6): 1601–1615. doi : 10.5194/gmd-16-1601-2023 . hdl : 11250/3105739 .
^ Cardenas, I.; Aven, T.; Flage, R. (2022). "Abordar los desafíos en la cuantificación de la incertidumbre. El caso de las evaluaciones de riesgos geológicos". Geosci. Model Dev. Discuss . 16 (6): 1601–1615. doi : 10.5194/gmd-16-1601-2023 . hdl : 11250/3105739 .