stringtranslate.com

Análisis de sensibilidad

El análisis de sensibilidad es el estudio de cómo la incertidumbre en la salida de un modelo o sistema matemático (numérico o de otro tipo) puede dividirse y asignarse a diferentes fuentes de incertidumbre en sus entradas. Una práctica relacionada es el análisis de incertidumbre , que se centra más en la cuantificación de la incertidumbre y su propagación ; Idealmente, los análisis de incertidumbre y sensibilidad deberían realizarse en conjunto.

El proceso de recalcular los resultados bajo supuestos alternativos para determinar el impacto de una variable bajo análisis de sensibilidad puede ser útil para una variedad de propósitos, [1] que incluyen:

Descripción general

Un modelo matemático (por ejemplo en biología, cambio climático, economía o ingeniería) puede ser muy complejo y, como resultado, sus relaciones entre insumos y productos pueden no entenderse bien. En tales casos, el modelo puede verse como una caja negra , es decir, la salida es una función "opaca" de sus entradas. Muy a menudo, algunas o todas las entradas del modelo están sujetas a fuentes de incertidumbre , incluidos errores de medición , ausencia de información y comprensión deficiente o parcial de las fuerzas y mecanismos impulsores. Esta incertidumbre impone un límite a nuestra confianza en la respuesta o resultado del modelo. Además, es posible que los modelos tengan que hacer frente a la variabilidad intrínseca natural del sistema (aleatoria), como la ocurrencia de eventos estocásticos . [5]

En modelos que involucran muchas variables de entrada, el análisis de sensibilidad es un ingrediente esencial en la construcción del modelo y el aseguramiento de la calidad. Las agencias nacionales e internacionales involucradas en estudios de evaluación de impacto han incluido secciones dedicadas al análisis de sensibilidad en sus directrices. Algunos ejemplos son la Comisión Europea (véanse, por ejemplo, las directrices para la evaluación de impacto ), [6] la Oficina de Gestión y Presupuesto de la Casa Blanca , el Panel Intergubernamental sobre Cambio Climático y las directrices de modelización de la Agencia de Protección Ambiental de EE.UU. [7]

Configuraciones, restricciones y problemas relacionados

Configuraciones y restricciones

La elección del método de análisis de sensibilidad suele estar dictada por una serie de limitaciones o entornos del problema. Algunos de los más comunes son

El gasto computacional es un problema en muchos análisis de sensibilidad prácticos. Algunos métodos para reducir el gasto computacional incluyen el uso de emuladores (para modelos grandes) y métodos de detección (para reducir la dimensionalidad del problema). Otro método consiste en utilizar un método de análisis de sensibilidad basado en eventos para la selección de variables para aplicaciones con limitaciones de tiempo. [9] Este es un método de selección de variables de entrada (IVS) que reúne información sobre el rastro de los cambios en las entradas y salidas del sistema utilizando un análisis de sensibilidad para producir una matriz de eventos/disparadores de entrada/salida que está diseñada para mapear las relaciones entre las variables de entrada. datos como causas que desencadenan eventos y los datos de salida que describen los eventos reales. La relación causa-efecto entre las causas del cambio de estado, es decir, las variables de entrada y los parámetros de salida del sistema de efectos, determina qué conjunto de entradas tienen un impacto genuino en una salida determinada. El método tiene una clara ventaja sobre el método IVS analítico y computacional, ya que intenta comprender e interpretar el cambio de estado del sistema en el menor tiempo posible con una sobrecarga computacional mínima. [9] [10]

Suposiciones versus inferencias

En el análisis de incertidumbre y sensibilidad existe un equilibrio crucial entre qué tan escrupuloso es un analista al explorar los supuestos de entrada y qué tan amplia puede ser la inferencia resultante . Este punto está bien ilustrado por el econometrista Edward E. Leamer : [11] [12]

He propuesto una forma de análisis de sensibilidad organizado que llamo "análisis de sensibilidad global" en el que se selecciona una vecindad de supuestos alternativos y se identifica el intervalo correspondiente de inferencias. Se considera que las conclusiones son sólidas sólo si el conjunto de supuestos es lo suficientemente amplio como para ser creíble y el intervalo correspondiente de inferencias es lo suficientemente estrecho como para ser útil.

Tenga en cuenta que el énfasis de Leamer está en la necesidad de "credibilidad" en la selección de supuestos. La forma más fácil de invalidar un modelo es demostrar que es frágil con respecto a la incertidumbre de los supuestos o demostrar que sus supuestos no se han tomado "lo suficientemente amplios". Jerome R. Ravetz expresa el mismo concepto, para quien un mal modelado es cuando se deben suprimir las incertidumbres en los insumos para que los resultados no se vuelvan indeterminados. [13]

Escollos y dificultades

Algunas dificultades comunes en el análisis de sensibilidad incluyen

Métodos de análisis de sensibilidad.

Esquema ideal de un análisis de sensibilidad posiblemente basado en muestreo. La incertidumbre que surge de diferentes fuentes (errores en los datos, procedimiento de estimación de parámetros, estructuras de modelo alternativas) se propaga a través del modelo para el análisis de incertidumbre y su importancia relativa se cuantifica mediante un análisis de sensibilidad.
Análisis de sensibilidad basado en muestreo mediante diagramas de dispersión. Y (eje vertical) es una función de cuatro factores. Los puntos en los cuatro diagramas de dispersión son siempre los mismos aunque ordenados de manera diferente, es decir, por Z 1 , Z 2 , Z 3 , Z 4 a su vez. Tenga en cuenta que la abscisa es diferente para cada gráfico: (−5, +5) para Z 1 , (−8, +8) para Z 2 , (−10, +10) para Z 3 y Z 4 . Z 4 es más importante para influir en Y , ya que imparte más "forma" a Y.

Existe una gran cantidad de enfoques para realizar un análisis de sensibilidad, muchos de los cuales se han desarrollado para abordar una o más de las limitaciones analizadas anteriormente. También se distinguen por el tipo de medida de sensibilidad, ya sea basada en (por ejemplo) descomposiciones de varianza , derivadas parciales o efectos elementales . Sin embargo, en general, la mayoría de los procedimientos se ajustan al siguiente esquema:

  1. Cuantificar la incertidumbre en cada entrada (por ejemplo, rangos, distribuciones de probabilidad). Tenga en cuenta que esto puede resultar difícil y que existen muchos métodos para obtener distribuciones de incertidumbre a partir de datos subjetivos. [15]
  2. Identifique el resultado del modelo que se analizará (idealmente, el objetivo de interés debería tener una relación directa con el problema abordado por el modelo).
  3. Ejecute el modelo varias veces utilizando algún diseño de experimentos [16] dictado por el método elegido y la incertidumbre de entrada.
  4. Utilizando los resultados del modelo resultante, calcule las medidas de sensibilidad de interés.

En algunos casos, este procedimiento se repetirá, por ejemplo en problemas de alta dimensión donde el usuario tiene que descartar variables sin importancia antes de realizar un análisis de sensibilidad completo.

Los diversos tipos de "métodos básicos" (que se analizan más adelante) se distinguen por las diversas medidas de sensibilidad que se calculan. Estas categorías pueden de alguna manera superponerse. Se pueden ofrecer formas alternativas de obtener estas medidas, según las limitaciones del problema.

Uno a la vez (OAT)

Uno de los enfoques más simples y comunes es cambiar un factor a la vez (OAT) para ver qué efecto produce esto en la salida. [17] [18] [19] La OAT habitualmente implica

La sensibilidad puede entonces medirse monitoreando los cambios en la producción, por ejemplo, mediante derivadas parciales o regresión lineal . Este parece un enfoque lógico ya que cualquier cambio observado en la salida se deberá inequívocamente a la única variable modificada. Además, al cambiar una variable a la vez, se pueden mantener todas las demás variables fijas en sus valores centrales o de referencia. Esto aumenta la comparabilidad de los resultados (todos los "efectos" se calculan con referencia al mismo punto central en el espacio) y minimiza las posibilidades de fallos del programa informático, más probables cuando se cambian varios factores de entrada simultáneamente. Los modeladores suelen preferir la OAT por razones prácticas. En caso de fallo del modelo bajo el análisis OAT, el modelador sabe inmediatamente cuál es el factor de entrada responsable del fallo.

Sin embargo, a pesar de su simplicidad, este enfoque no explora completamente el espacio de entrada, ya que no tiene en cuenta la variación simultánea de las variables de entrada. Esto significa que el enfoque OAT no puede detectar la presencia de interacciones entre variables de entrada y no es adecuado para modelos no lineales. [20]

La proporción de espacio de entrada que permanece inexplorado con un enfoque OAT crece superexponencialmente con el número de entradas. Por ejemplo, un espacio de parámetros de 3 variables que se explora uno a la vez equivale a tomar puntos a lo largo de los ejes x, y y z de un cubo centrado en el origen. El casco convexo que delimita todos estos puntos es un octaedro que tiene un volumen de sólo 1/6 del espacio de parámetros total. De manera más general, la cáscara convexa de los ejes de un hiperrectángulo forma un hiperoctaedro que tiene una fracción de volumen de . Con 5 entradas, el espacio explorado ya cae a menos del 1% del espacio total de parámetros. E incluso esto es una sobreestimación, ya que en realidad no se está muestreando el volumen fuera del eje. Compare esto con el muestreo aleatorio del espacio, donde el casco convexo se acerca a todo el volumen a medida que se agregan más puntos. [21] Si bien la escasez de OAT no es teóricamente una preocupación para los modelos lineales , la verdadera linealidad es rara en la naturaleza.

Métodos locales basados ​​en derivados

Los métodos basados ​​en derivadas locales implican tomar la derivada parcial de la salida Y con respecto a un factor de entrada X i  :

donde el subíndice x 0 indica que la derivada se toma en algún punto fijo en el espacio de la entrada (de ahí el término 'local' en el nombre de la clase). El modelado adjunto [22] [23] y la diferenciación automatizada [24] son ​​métodos que permiten calcular todas las derivadas parciales a un costo máximo de 4 a 6 veces mayor que el de evaluar la función original. Al igual que OAT, los métodos locales no intentan explorar completamente el espacio de entrada, ya que examinan pequeñas perturbaciones, normalmente una variable a la vez. Es posible seleccionar muestras similares a partir de sensibilidad basada en derivadas a través de redes neuronales y realizar una cuantificación de la incertidumbre.

Una ventaja de los métodos locales es que es posible crear una matriz que represente todas las sensibilidades de un sistema, proporcionando así una visión general que no se puede lograr con los métodos globales si hay una gran cantidad de variables de entrada y salida.

[25]

Análisis de regresión

El análisis de regresión , en el contexto del análisis de sensibilidad, implica ajustar una regresión lineal a la respuesta del modelo y utilizar coeficientes de regresión estandarizados como medidas directas de sensibilidad. Se requiere que la regresión sea lineal con respecto a los datos (es decir, un hiperplano, por lo tanto sin términos cuadráticos, etc., como regresores) porque de lo contrario es difícil interpretar los coeficientes estandarizados. Por tanto, este método es más adecuado cuando la respuesta del modelo es de hecho lineal; La linealidad se puede confirmar, por ejemplo, si el coeficiente de determinación es grande. Las ventajas del análisis de regresión son que es simple y tiene un bajo costo computacional.

Métodos basados ​​en varianza

Los métodos basados ​​en la varianza [26] son ​​una clase de enfoques probabilísticos que cuantifican las incertidumbres de entrada y salida como distribuciones de probabilidad y descomponen la varianza de la salida en partes atribuibles a variables de entrada y combinaciones de variables. Por lo tanto, la sensibilidad de la salida a una variable de entrada se mide por la cantidad de varianza en la salida causada por esa entrada. Estas pueden expresarse como expectativas condicionales, es decir, considerando un modelo Y = f ( X ) para X = { X 1 , X 2 , ... X k }, una medida de sensibilidad de la i- ésima variable X i viene dada como ,

donde "Var" y " E " denotan los operadores de varianza y valor esperado respectivamente, y X ~i denota el conjunto de todas las variables de entrada excepto Xi . Esta expresión esencialmente mide la contribución de Xi por sí sola a la incertidumbre (varianza) en Y (promediada sobre variaciones en otras variables), y se conoce como índice de sensibilidad de primer orden o índice de efecto principal . Es importante destacar que no mide la incertidumbre causada por las interacciones con otras variables. Una medida adicional, conocida como índice de efecto total , da la varianza total en Y causada por Xi y sus interacciones con cualquiera de las otras variables de entrada. Ambas cantidades normalmente se estandarizan dividiendo por Var( Y ).

Los métodos basados ​​en la varianza permiten una exploración completa del espacio de entrada, teniendo en cuenta las interacciones y las respuestas no lineales. Por estas razones se utilizan ampliamente cuando es factible calcularlos. Normalmente, este cálculo implica el uso de métodos de Monte Carlo , pero dado que esto puede implicar miles de ejecuciones del modelo, se pueden usar otros métodos (como emuladores) para reducir el gasto computacional cuando sea necesario.

Análisis variograma de superficies de respuesta ( VARS )

Una de las principales deficiencias de los métodos de análisis de sensibilidad anteriores es que ninguno de ellos considera la estructura ordenada espacialmente de la superficie de respuesta/salida del modelo Y = f ( X ) en el espacio de parámetros. Al utilizar los conceptos de variogramas y covariogramas direccionales, el análisis de variogramas de superficies de respuesta (VARS) aborda esta debilidad mediante el reconocimiento de una estructura de correlación espacialmente continua con los valores de Y y, por lo tanto, también con los valores de . [27] [28]

Básicamente, cuanto mayor es la variabilidad, más heterogénea es la superficie de respuesta a lo largo de una dirección/parámetro particular, en una escala de perturbación específica. En consecuencia, en el marco VARS, los valores de los variogramas direccionales para una escala de perturbación determinada pueden considerarse como una ilustración integral de la información de sensibilidad, al vincular el análisis de variogramas con los conceptos de dirección y escala de perturbación. Como resultado, el marco VARS tiene en cuenta el hecho de que la sensibilidad es un concepto que depende de la escala y, por lo tanto, supera la cuestión de la escala de los métodos tradicionales de análisis de sensibilidad. [29] Más importante aún, VARS es capaz de proporcionar estimaciones relativamente estables y estadísticamente sólidas de la sensibilidad de los parámetros con un costo computacional mucho menor que otras estrategias (aproximadamente dos órdenes de magnitud más eficientes). [30] Cabe destacar que se ha demostrado que existe un vínculo teórico entre el marco VARS y los enfoques basados ​​en varianza y derivados.

Metodos alternativos

Se han desarrollado varios métodos para superar algunas de las limitaciones analizadas anteriormente, que de otro modo harían inviable la estimación de medidas de sensibilidad (la mayoría de las veces debido a gastos computacionales ). Generalmente, estos métodos se centran en calcular eficientemente medidas de sensibilidad basadas en la varianza.

Emuladores

Los emuladores (también conocidos como metamodelos, modelos sustitutos o superficies de respuesta) son enfoques de modelado de datos / aprendizaje automático que implican la construcción de una función matemática relativamente simple, conocida como emulador , que se aproxima al comportamiento de entrada/salida del modelo en sí. [31] En otras palabras, es el concepto de "modelar un modelo" (de ahí el nombre "metamodelo"). La idea es que, aunque los modelos informáticos pueden ser una serie muy compleja de ecuaciones cuya resolución puede llevar mucho tiempo, siempre pueden considerarse como una función de sus entradas Y = f ( X ). Al ejecutar el modelo en varios puntos en el espacio de entrada, es posible ajustar un emulador η ( X ) mucho más simple, tal que η ( X ) ≈ f ( X ) dentro de un margen de error aceptable. [32] Luego, las medidas de sensibilidad se pueden calcular desde el emulador (ya sea con Monte Carlo o analíticamente), lo que tendrá un costo computacional adicional insignificante. Es importante destacar que el número de ejecuciones del modelo necesarias para ajustar el emulador puede ser órdenes de magnitud menor que el número de ejecuciones necesarias para estimar directamente las medidas de sensibilidad del modelo. [33]

Claramente, el quid de un enfoque de emulador es encontrar un η (emulador) que sea una aproximación suficientemente cercana al modelo f . Esto requiere los siguientes pasos,

  1. Muestreo (ejecución) del modelo en varios puntos de su espacio de entrada. Esto requiere un diseño muestral.
  2. Seleccionar un tipo de emulador (función matemática) a utilizar.
  3. "Entrenar" el emulador utilizando los datos de muestra del modelo; esto generalmente implica ajustar los parámetros del emulador hasta que el emulador imite el modelo real lo mejor posible.

El muestreo del modelo a menudo se puede realizar con secuencias de baja discrepancia , como la secuencia de Sobol , debido al matemático Ilya M. Sobol o el muestreo de hipercubo latino , aunque también se pueden usar diseños aleatorios, con pérdida de algo de eficiencia. La selección del tipo de emulador y el entrenamiento están intrínsecamente vinculados ya que el método de entrenamiento dependerá de la clase de emulador. Algunos tipos de emuladores que se han utilizado con éxito para el análisis de sensibilidad incluyen,

El uso de un emulador introduce un problema de aprendizaje automático , que puede resultar difícil si la respuesta del modelo es muy no lineal . En todos los casos, es útil comprobar la precisión del emulador, por ejemplo mediante validación cruzada .

Representaciones de modelos de alta dimensión (HDMR)

Una representación de modelo de alta dimensión (HDMR) [39] [40] (el término se debe a H. Rabitz [41] ) es esencialmente un enfoque de emulador, que implica descomponer la salida de la función en una combinación lineal de términos de entrada e interacciones de dimensionalidad creciente. El enfoque HDMR aprovecha el hecho de que el modelo normalmente puede aproximarse bien ignorando las interacciones de orden superior (segundo o tercer orden y superiores). Los términos de la serie truncada pueden entonces aproximarse mediante, por ejemplo, polinomios o splines (REFS) y la respuesta expresarse como la suma de los principales efectos e interacciones hasta el orden de truncamiento. Desde esta perspectiva, los HDMR pueden verse como emuladores que descuidan las interacciones de alto orden; la ventaja es que pueden emular modelos con mayor dimensionalidad que los emuladores de orden completo.

Prueba de sensibilidad de amplitud de Fourier (FAST)

La prueba de sensibilidad de amplitud de Fourier (FAST) utiliza la serie de Fourier para representar una función multivariada (el modelo) en el dominio de la frecuencia, utilizando una única variable de frecuencia. Por lo tanto, las integrales necesarias para calcular los índices de sensibilidad se vuelven univariadas, lo que genera ahorros computacionales.

Otro

Métodos basados ​​en el filtrado Monte Carlo. [42] Estos también se basan en muestreos y el objetivo aquí es identificar regiones en el espacio de los factores de entrada correspondientes a valores particulares (por ejemplo, altos o bajos) de la salida.

Aplicaciones

Se pueden encontrar ejemplos de análisis de sensibilidad en diversas áreas de aplicación, como por ejemplo:

Auditoría de sensibilidad

Puede suceder que un análisis de sensibilidad de un estudio basado en modelos tenga como objetivo respaldar una inferencia y certificar su solidez, en un contexto donde la inferencia alimenta una política o un proceso de toma de decisiones. En estos casos, el marco del análisis en sí, su contexto institucional y las motivaciones de su autor pueden convertirse en una cuestión de gran importancia, y un análisis de sensibilidad puro –con su énfasis en la incertidumbre paramétrica– puede considerarse insuficiente. El énfasis en el encuadre puede derivar, entre otras cosas, de la relevancia del estudio de políticas para diferentes grupos de interés que se caracterizan por diferentes normas y valores y, por lo tanto, por una historia diferente sobre "cuál es el problema" y, principalmente, sobre "quién está contando el problema". historia'. Muy a menudo, el marco incluye suposiciones más o menos implícitas, que pueden ser políticas (por ejemplo, qué grupo necesita ser protegido) hasta técnicas (por ejemplo, qué variable puede tratarse como una constante).

Para tener en cuenta estas preocupaciones, los instrumentos de SA se han ampliado para proporcionar una evaluación de todo el proceso de generación de conocimientos y modelos. Este enfoque se ha denominado "auditoría de sensibilidad". Se inspira en NUSAP, [44] un método utilizado para calificar el valor de la información cuantitativa con la generación de "pedigríes" de números. La auditoría de sensibilidad ha sido especialmente diseñada para un contexto adversarial, donde no sólo la naturaleza de la evidencia, sino también el grado de certeza e incertidumbre asociada a la evidencia, será objeto de intereses partidistas. [45] La auditoría de sensibilidad se recomienda en las directrices de la Comisión Europea para la evaluación de impacto, [6] así como en el informe Science Advice for Policy by European Academies. [46]

Conceptos relacionados

El análisis de sensibilidad está estrechamente relacionado con el análisis de incertidumbre; mientras que este último estudia la incertidumbre global en las conclusiones del estudio, el análisis de sensibilidad intenta identificar qué fuente de incertidumbre pesa más en las conclusiones del estudio.

La formulación de problemas en el análisis de sensibilidad también tiene fuertes similitudes con el campo del diseño de experimentos . [47] En un diseño de experimentos, se estudia el efecto de algún proceso o intervención (el 'tratamiento') sobre algunos objetos (las 'unidades experimentales'). En el análisis de sensibilidad se analiza el efecto de variar las entradas de un modelo matemático sobre la salida del modelo mismo. En ambas disciplinas uno se esfuerza por obtener información del sistema con un mínimo de experimentos físicos o numéricos.

Ver también

Referencias

  1. ^ Pannell, DJ (1997). "Análisis de sensibilidad de modelos económicos normativos: marco teórico y estrategias prácticas" (PDF) . Economía agrícola . 16 (2): 139-152. doi :10.1016/S0169-5150(96)01217-0.
  2. ^ Bahremand, A.; De Smedt, F. (2008). "Análisis de sensibilidad y modelado hidrológico distribuido en la cuenca de Torysa, Eslovaquia". Gestión de Recursos Hídricos . 22 (3): 293–408. doi :10.1007/s11269-007-9168-x. S2CID  9710579.
  3. ^ Colina, M.; Kavetski, D.; Clark, M.; Sí, M.; Arabí, M.; Lu, D.; Foglia, L.; Mehl, S. (2015). "Uso práctico de métodos de análisis de modelos computacionalmente frugales". Agua subterránea . 54 (2): 159-170. doi : 10.1111/gwat.12330 . OSTI  1286771. PMID  25810333.
  4. ^ Colina, M.; Tiedeman, C. (2007). Calibración eficaz del modelo de aguas subterráneas, con análisis de datos, sensibilidades, predicciones e incertidumbre . John Wiley e hijos.
  5. ^ Der Kiureghian, A.; Ditlevsen, O. (2009). "¿Aleatorio o epistémico? ¿Importa?". Seguridad Estructural . 31 (2): 105-112. doi :10.1016/j.strusafe.2008.06.020.
  6. ^ ab Comisión Europea. 2021. “Caja de herramientas para una mejor regulación”. 25 de noviembre.
  7. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 26 de abril de 2011 . Consultado el 16 de octubre de 2009 .{{cite web}}: Mantenimiento CS1: copia archivada como título ( enlace )
  8. ^ Helton, JC; Johnson, JD; Salaberry, CJ; Storlie, CB (2006). "Estudio de métodos basados ​​en muestreo para análisis de incertidumbre y sensibilidad". Ingeniería de Confiabilidad y Seguridad de Sistemas . 91 (10-11): 1175-1209. doi :10.1016/j.ress.2005.11.017.
  9. ^ ab Tavakoli, Siamak; Mousavi, Alireza (2013). "Seguimiento de eventos para análisis de sensibilidad inconsciente en tiempo real (EventTracker)". Transacciones IEEE sobre conocimiento e ingeniería de datos . 25 (2): 348–359. doi :10.1109/tkde.2011.240. S2CID  17551372.
  10. ^ Tavakoli, Siamak; Mousavi, Alireza; Poslad, Stefan (2013). "Selección de variables de entrada en aplicaciones de integración de conocimientos en las que el tiempo es crítico: un documento de revisión, análisis y recomendación". Ingeniería Informática Avanzada . 27 (4): 519–536. doi :10.1016/j.aei.2013.06.002.
  11. ^ Leamer, Edward E. (1983). "Eliminemos las desventajas de la econometría". Revista económica estadounidense . 73 (1): 31–43. JSTOR  1803924.
  12. ^ Leamer, Edward E. (1985). "Los análisis de sensibilidad ayudarían". Revista económica estadounidense . 75 (3): 308–313. JSTOR  1814801.
  13. ^ Ravetz, JR, 2007, Guía científica sensata , New Internationalist Publications Ltd.
  14. ^ Tsvetkova, O.; Ouarda, TBMJ (2019). "Técnica Cuasi-Monte Carlo en el análisis de sensibilidad global de la evaluación del recurso eólico con un estudio en los Emiratos Árabes Unidos" (PDF) . Revista de Energías Renovables y Sostenibles . 11 (5): 053303. doi : 10.1063/1.5120035. S2CID  208835771.
  15. ^ O'Hagan, A.; et al. (2006). Juicios inciertos: obtención de probabilidades de expertos. Chichester: Wiley. ISBN 9780470033302.
  16. ^ Sacos, J.; Welch, WJ; Mitchell, TJ; Wynn, HP (1989). "Diseño y análisis de experimentos informáticos". Ciencia estadística . 4 (4): 409–435. doi : 10.1214/ss/1177012413 .
  17. ^ Campbell, J.; et al. (2008). "Control fotosintético del sulfuro de carbonilo atmosférico durante la temporada de crecimiento". Ciencia . 322 (5904): 1085–1088. Código Bib : 2008 Ciencia... 322.1085C. doi : 10.1126/ciencia.1164015. PMID  19008442. S2CID  206515456.
  18. ^ Bailis, R.; Ezzati, M.; Kammen, D. (2005). "Impactos de la mortalidad y los gases de efecto invernadero de los futuros de la energía del petróleo y la biomasa en África". Ciencia . 308 (5718): 98-103. Código Bib : 2005 Ciencia... 308... 98B. doi : 10.1126/ciencia.1106881. PMID  15802601. S2CID  14404609.
  19. ^ Murphy, J.; et al. (2004). "Cuantificación de las incertidumbres del modelado en un gran conjunto de simulaciones de cambio climático". Naturaleza . 430 (7001): 768–772. Código Bib :2004Natur.430..768M. doi : 10.1038/naturaleza02771. PMID  15306806. S2CID  980153.
  20. ^ Czitrom, Verónica (1999). "Experimentos de un factor a la vez versus experimentos diseñados". Estadístico estadounidense . 53 (2): 126-131. doi :10.2307/2685731. JSTOR  2685731.
  21. ^ Gatzouras, D; Giannopoulos, A (2009). "Umbral del volumen abarcado por puntos aleatorios con coordenadas independientes". Revista Israelí de Matemáticas . 169 (1): 125-153. doi : 10.1007/s11856-009-0007-z .
  22. ^ Cacuci, Dan G. Análisis de sensibilidad e incertidumbre: teoría . vol. I. Chapman y Hall.
  23. ^ Cacuci, Dan G.; Ionescu-Bujor, Mihaela; Navón, Michael (2005). Análisis de sensibilidad e incertidumbre: aplicaciones a sistemas de gran escala . vol. II. Chapman y Hall.
  24. ^ Griewank, A. (2000). Evaluación de derivadas, principios y técnicas de diferenciación algorítmica . SIAM.
  25. ^ Kabir HD, Khosravi A, Nahavandi D, Nahavandi S. Red neuronal de cuantificación de incertidumbre a partir de similitud y sensibilidad. In2020 Conferencia internacional conjunta sobre redes neuronales (IJCNN) 2020 19 de julio (págs. 1-8). IEEE.
  26. ^ Sobol', yo (1990). "Estimaciones de sensibilidad para modelos matemáticos no lineales". Matematicheskoe Modelirovanie (en ruso). 2 : 112-118.; traducido al inglés en Sobol', I (1993). "Análisis de sensibilidad para modelos matemáticos no lineales". Modelado matemático y experimento computacional . 1 : 407–414.
  27. ^ Razaví, Saman; Gupta, Hoshin V. (enero de 2016). "Un nuevo marco para un análisis de sensibilidad global integral, sólido y eficiente: 1. Teoría". Investigación de recursos hídricos . 52 (1): 423–439. Código Bib : 2016WRR....52..423R. doi : 10.1002/2015WR017558 . ISSN  1944-7973.
  28. ^ Razaví, Saman; Gupta, Hoshin V. (enero de 2016). "Un nuevo marco para un análisis de sensibilidad global integral, sólido y eficiente: 2. Aplicación". Investigación de recursos hídricos . 52 (1): 440–455. Código Bib : 2016WRR....52..440R. doi : 10.1002/2015WR017559 . ISSN  1944-7973.
  29. ^ Haghnegahdar, Amin; Razavi, Saman (septiembre de 2017). "Perspectivas sobre el análisis de sensibilidad de los modelos de sistemas ambientales y de la Tierra: sobre el impacto de la escala de perturbación de parámetros". Software y modelado ambiental . 95 : 115-131. doi :10.1016/j.envsoft.2017.03.031.
  30. ^ Gupta, H; Razaví, S (2016). "Desafíos y perspectivas futuras del análisis de sensibilidad". En Petropulos, George; Srivastava, Prashant (eds.). Análisis de sensibilidad en el modelado de observación de la Tierra (1ª ed.). Elsevier. págs. 397–415. ISBN 9780128030318.
  31. ^ abc Storlie, CB; Swiler, LP; Helton, JC; Sallaberry, CJ (2009). "Implementación y evaluación de procedimientos de regresión no paramétrica para análisis de sensibilidad de modelos computacionalmente exigentes". Ingeniería de confiabilidad y seguridad de sistemas . 94 (11): 1735-1763. doi : 10.1016/j.ress.2009.05.007.
  32. ^ Wang, Shangying; Fan, Kai; Luo, Nan; Cao, Yangxiaolu; Wu, Feilun; Zhang, Carolyn; Heller, Katherine A.; Tú, Lingchong (25 de septiembre de 2019). "Aceleración computacional masiva mediante el uso de redes neuronales para emular modelos biológicos basados ​​en mecanismos". Comunicaciones de la naturaleza . 10 (1): 4354. Código bibliográfico : 2019NatCo..10.4354W. doi :10.1038/s41467-019-12342-y. ISSN  2041-1723. PMC 6761138 . PMID  31554788. 
  33. ^ ab Oakley, J.; O'Hagan, A. (2004). "Análisis de sensibilidad probabilística de modelos complejos: un enfoque bayesiano". Estadística JR. Soc. B . 66 (3): 751–769. CiteSeerX 10.1.1.6.9720 . doi :10.1111/j.1467-9868.2004.05304.x. S2CID  6130150. 
  34. ^ Gramacia, RB; Taddy, MA (2010). "Entradas categóricas, análisis de sensibilidad, optimización y atenuación de importancia con tgp versión 2, un paquete R para modelos de procesos gaussianos en árbol" (PDF) . Revista de software estadístico . 33 (6). doi : 10.18637/jss.v033.i06 .
  35. ^ Becker, W.; Worden, K.; Rowson, J. (2013). "Análisis de sensibilidad bayesiana de modelos no lineales bifurcados". Sistemas Mecánicos y Procesamiento de Señales . 34 (1–2): 57–75. Código Bib : 2013MSSP...34...57B. doi :10.1016/j.ymssp.2012.05.010.
  36. ^ Sudret, B. (2008). "Análisis de sensibilidad global mediante expansiones de caos polinomiales". Ingeniería de confiabilidad y seguridad de sistemas . 93 (7): 964–979. doi :10.1016/j.ress.2007.04.002.
  37. ^ Ratto, M.; Pagano, A. (2010). "Uso de algoritmos recursivos para la identificación eficiente de modelos ANOVA spline de suavizado". Avances de AStA en análisis estadístico . 94 (4): 367–388. doi :10.1007/s10182-010-0148-8. S2CID  7678955.
  38. ^ Cárdenas, IC (2019). "Sobre el uso de redes bayesianas como enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión de riesgos para sistemas de ingeniería y geopeligros . 13 (1): 53–65. doi :10.1080/17499518.2018.1498524. S2CID  216590427.
  39. ^ Li, G.; Hu, J.; Wang, SW; Georgopoulos, P.; Schoendorf, J.; Rabitz, H. (2006). "Representación del modelo dimensional de muestreo aleatorio (RS-HDMR) y ortogonalidad de sus funciones de componentes de diferentes órdenes". Revista de Química Física A. 110 (7): 2474–2485. Código Bib : 2006JPCA..110.2474L. doi :10.1021/jp054148m. PMID  16480307.
  40. ^ Li, G. (2002). "Enfoques prácticos para construir funciones de componentes RS-HDMR". Revista de Química Física . 106 (37): 8721–8733. Código Bib : 2002JPCA..106.8721L. doi :10.1021/jp014567t.
  41. ^ Rabitz, H (1989). "Análisis de sistemas a escala molecular". Ciencia . 246 (4927): 221–226. Código Bib : 1989 Ciencia... 246.. 221R. doi : 10.1126/ciencia.246.4927.221. PMID  17839016. S2CID  23088466.
  42. ^ Hornberger, G.; Lanza, R. (1981). "Una aproximación al análisis preliminar de sistemas ambientales". Revista de Gestión Ambiental . 7 : 7–18.
  43. ^ Perry, Joe; Smith, Robert; Woiwod, Ian; Morse, David (2000). Perry, Joe N; Smith, Robert H; Woiwod, Ian P; Morse, David R (eds.). Caos en datos reales: el análisis de dinámicas no lineales a partir de series temporales ecológicas cortas . Serie de biología poblacional y comunitaria (1 ed.). Springer Science+Business Media Dordrecht . págs. xii+226. doi :10.1007/978-94-011-4010-2. ISBN 978-94-010-5772-1. S2CID  37855255.
  44. ^ Van der Sluijs, JP; Craye, M; Funtowicz, S; Kloprogge, P; Ravetz, J; Risbey, J (2005). "Combinación de medidas cuantitativas y cualitativas de incertidumbre en la evaluación ambiental basada en modelos: el sistema NUSAP". Análisis de riesgo . 25 (2): 481–492. doi :10.1111/j.1539-6924.2005.00604.x. hdl : 1874/386039 . PMID  15876219. S2CID  15988654.
  45. ^ Lo Piano, S; Robinson, M (2019). "Evaluaciones económicas de nutrición y salud pública bajo la lente de la ciencia posnormal". Futuros . 112 : 102436. doi : 10.1016/j.futures.2019.06.008. S2CID  198636712.
  46. ^ Asesoramiento científico para políticas de academias europeas, Dar sentido a la ciencia para las políticas en condiciones de complejidad e incertidumbre, Berlín, 2019.
  47. ^ Cuadro GEP, Hunter WG, Hunter, J. Stuart. Estadísticas para experimentadores [Internet]. Nueva York: Wiley e hijos

Otras lecturas

enlaces externos