stringtranslate.com

Cuantificación de la incertidumbre

La cuantificación de la incertidumbre ( UC ) es la ciencia de la caracterización cuantitativa y la estimación de las incertidumbres tanto en aplicaciones computacionales como en el mundo real. Intenta determinar la probabilidad de que se produzcan determinados resultados si no se conocen con exactitud algunos aspectos del sistema. Un ejemplo sería predecir la aceleración de un cuerpo humano en un choque frontal con otro coche: incluso si se conociera con exactitud la velocidad, pequeñas diferencias en la fabricación de los distintos coches, en la fuerza con la que se ha apretado cada tornillo, etc., darán lugar a resultados diferentes que solo se pueden predecir en un sentido estadístico.

Muchos problemas en las ciencias naturales y la ingeniería también están plagados de fuentes de incertidumbre. Los experimentos informáticos sobre simulaciones por computadora son el enfoque más común para estudiar problemas de cuantificación de la incertidumbre. [1] [2] [3] [4] [5] [6]

Fuentes

La incertidumbre puede introducirse en los modelos matemáticos y en las mediciones experimentales en diversos contextos. Una forma de categorizar las fuentes de incertidumbre es considerar: [7]

Parámetro
Esto se debe a los parámetros del modelo que son entradas al modelo informático (modelo matemático), pero cuyos valores exactos son desconocidos para los experimentadores y no se pueden controlar en experimentos físicos, o cuyos valores no se pueden inferir con exactitud mediante métodos estadísticos . Algunos ejemplos de esto son la aceleración de caída libre local en un experimento de caída de objetos, varias propiedades de los materiales en un análisis de elementos finitos para ingeniería y la incertidumbre del multiplicador en el contexto de la optimización de políticas macroeconómicas .
Paramétrico
Esto se debe a la variabilidad de las variables de entrada del modelo. Por ejemplo, las dimensiones de una pieza de trabajo en un proceso de fabricación pueden no ser exactamente las diseñadas e instruidas, lo que provocaría variabilidad en su rendimiento.
Incertidumbre estructural
También conocido como inadecuación del modelo, sesgo del modelo o discrepancia del modelo, esto proviene de la falta de conocimiento de la física subyacente en el problema. Depende de la precisión con la que un modelo matemático describe el sistema real para una situación de la vida real, considerando el hecho de que los modelos casi siempre son solo aproximaciones a la realidad. Un ejemplo es cuando se modela el proceso de caída de un objeto utilizando el modelo de caída libre; el modelo en sí es inexacto ya que siempre existe fricción del aire. En este caso, incluso si no hay ningún parámetro desconocido en el modelo, aún se espera una discrepancia entre el modelo y la física real.
Algorítmico
También conocida como incertidumbre numérica o incertidumbre discreta, este tipo proviene de errores numéricos y aproximaciones numéricas por implementación del modelo informático. La mayoría de los modelos son demasiado complicados para resolverlos con exactitud. Por ejemplo, el método de elementos finitos o el método de diferencias finitas se pueden utilizar para aproximar la solución de una ecuación diferencial parcial (que introduce errores numéricos). Otros ejemplos son la integración numérica y el truncamiento de suma infinita, que son aproximaciones necesarias en la implementación numérica.
Experimental
También conocido como error de observación, proviene de la variabilidad de las mediciones experimentales. La incertidumbre experimental es inevitable y se puede notar al repetir una medición muchas veces utilizando exactamente los mismos ajustes para todas las entradas/variables.
Interpolación
Esto se debe a la falta de datos disponibles obtenidos a partir de simulaciones de modelos informáticos o mediciones experimentales. Para otras configuraciones de entrada que no cuentan con datos de simulación o mediciones experimentales, se debe interpolar o extrapolar para predecir las respuestas correspondientes.

Aleatorico y epistémico

La incertidumbre a veces se clasifica en dos categorías, [8] [9] que se observan de forma destacada en aplicaciones médicas. [10]

Aleatorio
La incertidumbre aleatoria también se conoce como incertidumbre estocástica y es representativa de incógnitas que difieren cada vez que realizamos el mismo experimento. Por ejemplo, una sola flecha disparada con un arco mecánico que duplica exactamente cada lanzamiento (la misma aceleración, altitud, dirección y velocidad final) no impactará en el mismo punto del objetivo debido a las vibraciones aleatorias y complicadas del eje de la flecha, cuyo conocimiento no se puede determinar lo suficiente como para eliminar la dispersión resultante de los puntos de impacto. El argumento aquí está obviamente en la definición de "no se puede". El hecho de que no podamos medir lo suficiente con nuestros dispositivos de medición disponibles actualmente no excluye necesariamente la existencia de dicha información, lo que movería esta incertidumbre a la categoría siguiente. Aleatorizado se deriva del latín alea o dados, que hace referencia a un juego de azar.
Incertidumbre epistémica
La incertidumbre epistémica también se conoce como incertidumbre sistemática y se debe a cosas que uno podría saber en principio pero que no sabe en la práctica. Esto puede deberse a que una medición no es precisa, a que el modelo ignora ciertos efectos o a que se han ocultado deliberadamente datos particulares. Un ejemplo de una fuente de esta incertidumbre sería la resistencia en un experimento diseñado para medir la aceleración de la gravedad cerca de la superficie de la Tierra. La aceleración gravitacional comúnmente utilizada de 9,8 m/s² ignora los efectos de la resistencia del aire, pero la resistencia del aire para el objeto podría medirse e incorporarse al experimento para reducir la incertidumbre resultante en el cálculo de la aceleración gravitacional.
Ocurrencia combinada e interacción de incertidumbre aleatoria y epistémica
La incertidumbre aleatoria y epistémica también puede ocurrir simultáneamente en un solo término. Por ejemplo, cuando los parámetros experimentales muestran incertidumbre aleatoria y esos parámetros experimentales se ingresan a una simulación por computadora. Si entonces para la cuantificación de la incertidumbre se aprende un modelo sustituto , por ejemplo, un proceso gaussiano o una expansión de caos polinomial , a partir de experimentos por computadora, este sustituto exhibe incertidumbre epistémica que depende o interactúa con la incertidumbre aleatoria de los parámetros experimentales. [4] Tal incertidumbre ya no puede clasificarse únicamente como aleatoria o epistémica, sino que es una incertidumbre inferencial más general.

En aplicaciones de la vida real, ambos tipos de incertidumbres están presentes. La cuantificación de la incertidumbre intenta expresar explícitamente ambos tipos de incertidumbre por separado. La cuantificación de las incertidumbres aleatorias puede ser relativamente sencilla, donde la probabilidad tradicional (frecuentista) es la forma más básica. Con frecuencia se utilizan técnicas como el método de Monte Carlo . Una distribución de probabilidad se puede representar por sus momentos (en el caso gaussiano , la media y la covarianza son suficientes, aunque, en general, incluso el conocimiento de todos los momentos hasta un orden arbitrariamente alto todavía no especifica la función de distribución de manera única), o más recientemente, por técnicas como Karhunen-Loève y expansiones de caos polinomial . Para evaluar las incertidumbres epistémicas, se realizan esfuerzos para comprender el (falta de) conocimiento del sistema, proceso o mecanismo. La incertidumbre epistémica generalmente se entiende a través de la lente de la probabilidad bayesiana , donde las probabilidades se interpretan como una indicación de qué tan segura podría estar una persona racional con respecto a una afirmación específica.

Perspectiva matemática

En matemáticas, la incertidumbre suele caracterizarse en términos de una distribución de probabilidad . Desde esa perspectiva, la incertidumbre epistémica significa no estar seguro de cuál es la distribución de probabilidad relevante, y la incertidumbre aleatoria significa no estar seguro de cuál será el resultado de una muestra aleatoria extraída de una distribución de probabilidad.

Tipos de problemas

Existen dos tipos principales de problemas en la cuantificación de la incertidumbre: uno es la propagación hacia adelante de la incertidumbre (donde las diversas fuentes de incertidumbre se propagan a través del modelo para predecir la incertidumbre general en la respuesta del sistema) y el otro es la evaluación inversa de la incertidumbre del modelo y la incertidumbre de los parámetros (donde los parámetros del modelo se calibran simultáneamente utilizando datos de prueba). Ha habido una proliferación de investigaciones sobre el primer problema y la mayoría de las técnicas de análisis de la incertidumbre se desarrollaron para él. Por otro lado, el segundo problema está atrayendo cada vez más atención en la comunidad de diseño de ingeniería, ya que la cuantificación de la incertidumbre de un modelo y las predicciones posteriores de la(s) respuesta(s) real(es) del sistema son de gran interés para el diseño de sistemas robustos.

Adelante

La propagación de la incertidumbre es la cuantificación de las incertidumbres en los resultados del sistema que se propagan a partir de entradas inciertas. Se centra en la influencia de la variabilidad paramétrica enumerada en las fuentes de incertidumbre en los resultados. Los objetivos del análisis de propagación de la incertidumbre pueden ser:

Inverso

Dadas algunas mediciones experimentales de un sistema y algunos resultados de simulación por computadora de su modelo matemático, la cuantificación de incertidumbre inversa estima la discrepancia entre el experimento y el modelo matemático (lo que se denomina corrección de sesgo ) y estima los valores de los parámetros desconocidos en el modelo si los hay (lo que se denomina calibración de parámetros o simplemente calibración ). Generalmente, este es un problema mucho más difícil que la propagación de incertidumbre hacia adelante; sin embargo, es de gran importancia ya que generalmente se implementa en un proceso de actualización del modelo. Hay varios escenarios en la cuantificación de incertidumbre inversa:

El resultado de la corrección del sesgo, incluido un modelo actualizado (media de predicción) y un intervalo de confianza de predicción.

Solo corrección de sesgo

La corrección de sesgo cuantifica la inadecuación del modelo , es decir, la discrepancia entre el experimento y el modelo matemático. La fórmula general de actualización del modelo para la corrección de sesgo es:

donde denota las mediciones experimentales como una función de varias variables de entrada , denota la respuesta del modelo informático (modelo matemático), denota la función de discrepancia aditiva (también conocida como función de sesgo) y denota la incertidumbre experimental. El objetivo es estimar la función de discrepancia y, como subproducto, el modelo actualizado resultante es . Se proporciona un intervalo de confianza de predicción con el modelo actualizado como cuantificación de la incertidumbre.

Calibración de parámetros únicamente

La calibración de parámetros estima los valores de uno o más parámetros desconocidos en un modelo matemático. La formulación general de actualización del modelo para la calibración es:

donde denota la respuesta del modelo informático que depende de varios parámetros desconocidos del modelo y denota los valores verdaderos de los parámetros desconocidos en el curso de los experimentos. El objetivo es estimar o elaborar una distribución de probabilidad de que incluya el mejor conocimiento de los valores verdaderos de los parámetros.

Corrección de sesgo y calibración de parámetros

Considera un modelo inexacto con uno o más parámetros desconocidos, y su formulación de actualización del modelo combina los dos juntos:

Es la formulación de actualización de modelos más completa que incluye todas las posibles fuentes de incertidumbre y que requiere el mayor esfuerzo para resolverla.

Metodologías selectivas

Se han realizado muchas investigaciones para resolver problemas de cuantificación de la incertidumbre, aunque la mayoría de ellas se ocupan de la propagación de la incertidumbre. Durante las últimas dos décadas, también se han desarrollado varios enfoques para problemas de cuantificación de la incertidumbre inversa que han demostrado ser útiles para la mayoría de los problemas de pequeña y mediana escala.

Propagación hacia adelante

Los métodos de propagación de la incertidumbre existentes incluyen métodos probabilísticos y métodos no probabilísticos. Básicamente, existen seis categorías de métodos probabilísticos para la propagación de la incertidumbre: [11]

Para los enfoques no probabilísticos, el análisis de intervalos , [15] la teoría difusa , la teoría de la posibilidad y la teoría de la evidencia se encuentran entre las más utilizadas.

El enfoque probabilístico se considera el más riguroso para el análisis de incertidumbre en el diseño de ingeniería debido a su coherencia con la teoría del análisis de decisiones. Su piedra angular es el cálculo de funciones de densidad de probabilidad para las estadísticas de muestreo. [16] Esto se puede realizar de manera rigurosa para variables aleatorias que se pueden obtener como transformaciones de variables gaussianas, lo que conduce a intervalos de confianza exactos.

Incertidumbre inversa

Frecuentista

En el análisis de regresión y en los problemas de mínimos cuadrados , el error estándar de las estimaciones de los parámetros está fácilmente disponible y puede ampliarse a un intervalo de confianza .

Bayesiano

Existen varias metodologías para la cuantificación de la incertidumbre inversa bajo el marco bayesiano . La dirección más complicada es apuntar a resolver problemas con corrección de sesgo y calibración de parámetros. Los desafíos de tales problemas incluyen no solo las influencias de la inadecuación del modelo y la incertidumbre de los parámetros, sino también la falta de datos tanto de simulaciones por computadora como de experimentos. Una situación común es que las configuraciones de entrada no son las mismas en experimentos y simulaciones. Otra situación común es que los parámetros derivados de experimentos se ingresan a las simulaciones. Para simulaciones computacionalmente costosas, a menudo es necesario un modelo sustituto , por ejemplo, un proceso gaussiano o una expansión de caos polinomial , definiendo un problema inverso para encontrar el modelo sustituto que mejor se aproxima a las simulaciones. [4]

Enfoque modular

Un enfoque para cuantificar la incertidumbre inversa es el enfoque bayesiano modular. [7] [17] El enfoque bayesiano modular deriva su nombre de su procedimiento de cuatro módulos. Además de los datos disponibles actuales, se debe asignar una distribución previa de parámetros desconocidos.

Módulo 1: Modelado de procesos gaussianos para el modelo informático

Para abordar el problema de la falta de resultados de simulación, el modelo de computadora se reemplaza con un modelo de proceso gaussiano (GP).

dónde

es la dimensión de las variables de entrada y es la dimensión de los parámetros desconocidos. Si bien está predefinido, , conocidos como hiperparámetros del modelo GP, deben estimarse mediante estimación de máxima verosimilitud (MLE) . Este módulo puede considerarse como un método de kriging generalizado .

Módulo 2: Modelado del proceso gaussiano para la función de discrepancia

De manera similar con el primer módulo, la función de discrepancia se reemplaza con un modelo GP

dónde

Junto con la distribución previa de parámetros desconocidos y los datos de los modelos informáticos y los experimentos, se pueden derivar las estimaciones de máxima verosimilitud para . Al mismo tiempo, el Módulo 1 también se actualiza.

Módulo 3: Distribución posterior de parámetros desconocidos

Se aplica el teorema de Bayes para calcular la distribución posterior de los parámetros desconocidos:

donde incluye todos los hiperparámetros fijos en los módulos anteriores.

Módulo 4: Predicción de la respuesta experimental y función de discrepancia
Enfoque completo

El enfoque completamente bayesiano requiere que no sólo se asignen los valores a priori de los parámetros desconocidos , sino también los valores a priori de los demás hiperparámetros . Para ello se siguen los siguientes pasos: [18]

  1. Derive la distribución posterior ;
  2. Integrar y obtener . Este único paso logra la calibración;
  3. Predicción de la respuesta experimental y función de discrepancia.

Sin embargo, este enfoque presenta importantes inconvenientes:

El enfoque totalmente bayesiano requiere una enorme cantidad de cálculos y puede que aún no sea práctico para abordar las situaciones de modelado más complicadas. [18]

Problemas conocidos

Las teorías y metodologías de propagación de la incertidumbre están mucho mejor establecidas que las de cuantificación inversa de la incertidumbre. En este último caso, quedan por resolver varias dificultades:

  1. Problema de dimensionalidad: el coste computacional aumenta drásticamente con la dimensionalidad del problema, es decir, el número de variables de entrada y/o el número de parámetros desconocidos.
  2. Problema de identificabilidad: [19] Múltiples combinaciones de parámetros desconocidos y funciones de discrepancia pueden dar como resultado la misma predicción experimental. Por lo tanto, no se pueden distinguir o identificar diferentes valores de parámetros. Este problema se evita con un enfoque bayesiano, en el que se promedian dichas combinaciones. [4]
  3. Respuesta del modelo incompleta: se refiere a un modelo que no tiene una solución para algunas combinaciones de las variables de entrada. [20] [21]
  4. Cuantificación de la incertidumbre en las cantidades de entrada: eventos cruciales que faltan en los datos disponibles o cantidades críticas no identificadas por los analistas debido, por ejemplo, a limitaciones en los modelos existentes. [22]
  5. Se presta poca atención al impacto de las decisiones tomadas por los analistas. [23]

Véase también

Referencias

  1. ^ Sacks, Jerome; Welch, William J.; Mitchell, Toby J.; Wynn, Henry P. (1989). "Diseño y análisis de experimentos informáticos". Ciencia estadística . 4 (4): 409–423. doi : 10.1214/ss/1177012413 . JSTOR  2245858.
  2. ^ Iman, Ronald L.; Helton, Jon C. (1988). "Una investigación de las técnicas de análisis de incertidumbre y sensibilidad para modelos informáticos". Análisis de riesgos . 8 (1). Wiley: 71–90. Bibcode :1988RiskA...8...71I. doi :10.1111/j.1539-6924.1988.tb01155.x. ISSN  0272-4332.
  3. ^ Caminante, NOSOTROS; Harremoës, P.; Rotmans, J.; van der Sluijs, JP; van Asselt, MBA; Janssen, P.; Krayer von Krauss, diputado (2003). "Definición de incertidumbre: una base conceptual para la gestión de la incertidumbre en el soporte de decisiones basado en modelos". Evaluación Integrada . 4 (1). Editores Swets & Zeitlinger: 5–17. Código Bib : 2003IntAs...4....5W. doi :10.1076/iaij.4.1.5.16466. hdl : 1874/386032 . ISSN  1389-5176.
  4. ^ abcde Ranftl, Sascha; von der Linden, Wolfgang (13 de noviembre de 2021). "Análisis sustituto bayesiano y propagación de la incertidumbre". Physical Sciences Forum . 3 (1): 6. arXiv : 2101.04038 . doi : 10.3390/psf2021003006 . ISSN  2673-9984.
  5. ^ Ralph C. Smith (Ed.): "Cuantificación de la incertidumbre: teoría, implementación y aplicaciones", 2.ª ed., SIAM, ISBN 978-1-61197-783-7 (2024).
  6. ^ TJ Sullivan: "Introducción a la cuantificación de la incertidumbre", Springer, ISBN 978-3319233949 (21 de diciembre de 2015).
  7. ^ ab Kennedy, Marc C.; O'Hagan, Anthony (2001). "Calibración bayesiana de modelos informáticos". Revista de la Royal Statistical Society, Serie B (Metodología estadística) . 63 (3): 425–464. doi : 10.1111/1467-9868.00294 .
  8. ^ Der Kiureghian, Armen; Ditlevsen, Ove (2009). "¿Aleatorio o epistémico? ¿Importa?". Seguridad estructural . 31 (2): 105–112. doi :10.1016/j.strusafe.2008.06.020.
  9. ^ Matthies, Hermann G. (2007). "Cuantificación de la incertidumbre: representación computacional moderna de la probabilidad y aplicaciones". Riesgos naturales y provocados por el hombre en la dinámica de las estructuras . Serie de la OTAN sobre seguridad a través de la ciencia. pp. 105–135. doi :10.1007/978-1-4020-5656-7_4. ISBN 978-1-4020-5654-3.
  10. ^ Abhaya Indrayan, Bioestadística médica , segunda edición, Chapman & Hall/CRC Press, 2008, páginas 8, 673
  11. ^ Lee, SH; Chen, W. (9 de mayo de 2008). "Un estudio comparativo de métodos de propagación de incertidumbre para problemas de tipo caja negra". Optimización estructural y multidisciplinaria . 37 (3). Springer Science and Business Media LLC: 239–253. doi :10.1007/s00158-008-0234-7. ISSN  1615-147X. S2CID  119988015.
  12. ^ Cardenas, IC (2019). "Sobre el uso de redes bayesianas como un enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 13 (1): 53–65. Bibcode :2019GAMRE..13...53C. doi :10.1080/17499518.2018.1498524. S2CID  216590427.
  13. ^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (31 de diciembre de 2019). "Cuantificación de la incertidumbre bayesiana con datos de fidelidad múltiple y procesos gaussianos para cardiografía de impedancia de disección aórtica". Entropy . 22 (1): 58. Bibcode :2019Entrp..22...58R. doi : 10.3390/e22010058 . ISSN  1099-4300. PMC 7516489 . PMID  33285833. 
  14. ^ Ranftl, Sascha; Müller, Thomas Stephan; Windberger, Ursula; von der Linden, Wolfgang; Brenn, Günter (3 de mayo de 2021), Datos y códigos para 'Un enfoque bayesiano de las incertidumbres reológicas de la sangre en la hemodinámica aórtica', doi :10.5281/zenodo.5237189 , consultado el 12 de enero de 2022
  15. ^ Jaulín, L.; Kieffer, M.; Didrit, O.; Walter, E. (2001). Análisis de intervalos aplicado . Saltador. ISBN 1-85233-219-0.
  16. ^ Arnaut, LR Incertidumbre de medición en cámaras de reverberación - I. Estadísticas de muestra. Informe técnico TQE 2, 2.ª ed., sec. 3.1, National Physical Laboratory, 2008.
  17. ^ Marc C. Kennedy, Anthony O'Hagan, Detalles complementarios sobre la calibración bayesiana de modelos informáticos , Sheffield, Universidad de Sheffield: 1–13, 2000
  18. ^ ab Bayarri, MJ ; Berger, JO; Liu, F. (2009-03-01). "Modularización en análisis bayesiano, con énfasis en el análisis de modelos computacionales". Análisis bayesiano . 4 (1). Instituto de Estadística Matemática: 119–150. doi : 10.1214/09-ba404 . ISSN  1936-0975.
  19. ^ Arendt, Paul D.; Apley, Daniel W.; Chen, Wei ; Lamb, David; Gorsich, David (28 de septiembre de 2012). "Mejora de la identificabilidad en la calibración de modelos mediante respuestas múltiples". Journal of Mechanical Design . 134 (10). ASME International: 100909. doi :10.1115/1.4007573. ISSN  1050-0472.
  20. ^ Cardenas, IC (2019). "Sobre el uso de redes bayesianas como un enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 13 (1): 53–65. Bibcode :2019GAMRE..13...53C. doi :10.1080/17499518.2018.1498524. S2CID  216590427.
  21. ^ van den Eijnden, AP; Schweckendiek, T; Hicks, MA (2021). "Metamodelado para análisis de confiabilidad geotécnica con modelos ruidosos e incompletos". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 16 (3): 518–535. doi : 10.1080/17499518.2021.1952611 . S2CID  : 238819106.
  22. ^ Cardenas, I.; Aven, T.; Flage, R. (2022). "Abordar los desafíos en la cuantificación de la incertidumbre. El caso de las evaluaciones de riesgos geológicos". Geosci. Model Dev. Discuss . 16 (6): 1601–1615. doi : 10.5194/gmd-16-1601-2023 . hdl : 11250/3105739 .
  23. ^ Cardenas, I.; Aven, T.; Flage, R. (2022). "Abordar los desafíos en la cuantificación de la incertidumbre. El caso de las evaluaciones de riesgos geológicos". Geosci. Model Dev. Discuss . 16 (6): 1601–1615. doi : 10.5194/gmd-16-1601-2023 . hdl : 11250/3105739 .