stringtranslate.com

Análisis de sensibilidad

El análisis de sensibilidad es el estudio de cómo la incertidumbre en la salida de un modelo o sistema matemático (numérico o de otro tipo) se puede dividir y asignar a diferentes fuentes de incertidumbre en sus entradas. [1] [2] Esto implica estimar índices de sensibilidad que cuantifican la influencia de una entrada o grupo de entradas en la salida. Una práctica relacionada es el análisis de incertidumbre , que se centra más en la cuantificación de la incertidumbre y la propagación de la incertidumbre ; idealmente, el análisis de incertidumbre y sensibilidad deberían ejecutarse en conjunto.

Motivación

Un modelo matemático (por ejemplo, en biología, cambio climático, economía, energía renovable, agronomía...) puede ser muy complejo y, como resultado, sus relaciones entre entradas y salidas pueden ser mal entendidas. En tales casos, el modelo puede verse como una caja negra , es decir, la salida es una función "opaca" de sus entradas. Muy a menudo, algunas o todas las entradas del modelo están sujetas a fuentes de incertidumbre , incluidos errores de medición , errores en los datos de entrada, estimación de parámetros y procedimiento de aproximación, ausencia de información y comprensión deficiente o parcial de las fuerzas y mecanismos impulsores, elección de la hipótesis subyacente del modelo, etc. Esta incertidumbre limita nuestra confianza en la fiabilidad de la respuesta o salida del modelo. Además, los modelos pueden tener que lidiar con la variabilidad intrínseca natural del sistema (aleatoria), como la ocurrencia de eventos estocásticos . [3]

En los modelos que involucran muchas variables de entrada, el análisis de sensibilidad es un ingrediente esencial de la construcción del modelo y el aseguramiento de la calidad y puede ser útil para determinar el impacto de una variable incierta para una variedad de propósitos, [4] incluyendo:

Formulación matemática y vocabulario

Figura 1. Representación esquemática del análisis de incertidumbre y del análisis de sensibilidad. En el modelado matemático, la incertidumbre surge de diversas fuentes: errores en los datos de entrada, estimación de parámetros y procedimiento de aproximación, hipótesis subyacente, elección del modelo, estructuras alternativas del modelo, etc. Se propagan a través del modelo y tienen un impacto en el resultado. La incertidumbre en el resultado se describe mediante el análisis de incertidumbre (representada como pdf en el resultado) y su importancia relativa se cuantifica mediante el análisis de sensibilidad (representado por gráficos circulares que muestran la proporción en que cada fuente de incertidumbre contribuye a la incertidumbre total del resultado).

El objeto de estudio del análisis de sensibilidad es una función , (llamada " modelo matemático " o " código de programación "), vista como una caja negra , con el vector de entrada dimensional y la salida , presentada de la siguiente manera:

La variabilidad de los parámetros de entrada tiene un impacto en la salida . Mientras que el análisis de incertidumbre tiene como objetivo describir la distribución de la salida (proporcionando sus estadísticas , momentos , pdf , cdf , etc.), el análisis de sensibilidad tiene como objetivo medir y cuantificar el impacto de cada entrada o un grupo de entradas en la variabilidad de la salida (calculando los índices de sensibilidad correspondientes). La Figura 1 proporciona una representación esquemática de esta afirmación.

Desafíos, contextos y cuestiones relacionadas

Para tener en cuenta la incertidumbre que surge de diferentes fuentes, ya sea en el contexto del análisis de incertidumbre o del análisis de sensibilidad (para calcular los índices de sensibilidad), se requieren múltiples muestras de los parámetros inciertos y, en consecuencia, ejecutar el modelo (evaluar la función α) varias veces. Dependiendo de la complejidad del modelo, pueden surgir muchos desafíos durante la evaluación del mismo. Por lo tanto, la elección del método de análisis de sensibilidad suele estar determinada por una serie de limitaciones, configuraciones o desafíos del problema. Algunos de los más comunes son:

Para abordar las diversas limitaciones y desafíos, se han propuesto en la literatura varios métodos de análisis de sensibilidad, que examinaremos en la siguiente sección.

Métodos de análisis de sensibilidad

Existe una gran cantidad de enfoques para realizar un análisis de sensibilidad, muchos de los cuales se han desarrollado para abordar una o más de las restricciones analizadas anteriormente. También se distinguen por el tipo de medida de sensibilidad, ya sea basada (por ejemplo) en descomposiciones de varianza , derivadas parciales o efectos elementales . Sin embargo, en general, la mayoría de los procedimientos se ajustan al siguiente esquema:

  1. Cuantificar la incertidumbre en cada entrada (por ejemplo, rangos, distribuciones de probabilidad). Cabe señalar que esto puede resultar difícil y que existen muchos métodos para obtener distribuciones de incertidumbre a partir de datos subjetivos. [14]
  2. Identificar el resultado del modelo que se va a analizar (el objetivo de interés idealmente debería tener una relación directa con el problema abordado por el modelo).
  3. Ejecute el modelo varias veces utilizando algún diseño de experimentos , [15] dictado por el método elegido y la incertidumbre de entrada.
  4. Utilizando los resultados del modelo resultante, calcule las medidas de sensibilidad de interés.

En algunos casos, este procedimiento se repetirá, por ejemplo en problemas de alta dimensión donde el usuario tiene que descartar variables no importantes antes de realizar un análisis de sensibilidad completo.

Los distintos tipos de "métodos básicos" (que se analizan a continuación) se distinguen por las distintas medidas de sensibilidad que se calculan. Estas categorías pueden superponerse de algún modo. Se pueden ofrecer formas alternativas de obtener estas medidas, teniendo en cuenta las limitaciones del problema. Además, también se ha propuesto una visión de ingeniería de los métodos que tiene en cuenta los cuatro parámetros importantes del análisis de sensibilidad. [16]

Análisis visual

Figura 2. Análisis de sensibilidad basado en muestreo mediante diagramas de dispersión. Y (eje vertical) es una función de cuatro factores. Los puntos en los cuatro diagramas de dispersión son siempre los mismos aunque ordenados de forma diferente, es decir, por Z 1 , Z 2 , Z 3 , Z 4 a su vez. Nótese que la abscisa es diferente para cada gráfico: (−5, +5) para Z 1 , (−8, +8) para Z 2 , (−10, +10) para Z 3 y Z 4 . Z 4 es el más importante a la hora de influir en Y, ya que imparte más "forma" a Y .

El primer enfoque intuitivo (especialmente útil en casos menos complejos) consiste en analizar la relación entre cada entrada y la salida mediante diagramas de dispersión y observar el comportamiento de estos pares. Los diagramas dan una idea inicial de la correlación y de qué entrada tiene un impacto en la salida. La figura 2 muestra un ejemplo en el que dos entradas y están altamente correlacionadas con la salida.

Uno a la vez (OAT)

Uno de los enfoques más simples y comunes es el de cambiar un factor a la vez (OAT), para ver qué efecto produce esto en el resultado. [17] [18] [19] OAT habitualmente implica

La sensibilidad puede entonces medirse monitoreando los cambios en el resultado, por ejemplo, mediante derivadas parciales o regresión lineal . Este parece un enfoque lógico ya que cualquier cambio observado en el resultado se deberá inequívocamente a la variable única cambiada. Además, al cambiar una variable a la vez, uno puede mantener todas las demás variables fijas a sus valores centrales o de referencia. Esto aumenta la comparabilidad de los resultados (todos los "efectos" se calculan con referencia al mismo punto central en el espacio) y minimiza las posibilidades de fallas del programa de computadora, más probables cuando se cambian varios factores de entrada simultáneamente. Los modeladores con frecuencia prefieren OAT por razones prácticas. En caso de falla del modelo bajo el análisis OAT, el modelador sabe inmediatamente cuál es el factor de entrada responsable de la falla.

Sin embargo, a pesar de su simplicidad, este enfoque no explora completamente el espacio de entrada, ya que no tiene en cuenta la variación simultánea de las variables de entrada. Esto significa que el enfoque OAT no puede detectar la presencia de interacciones entre las variables de entrada y no es adecuado para modelos no lineales. [20]

La proporción del espacio de entrada que permanece inexplorado con un enfoque OAT crece superexponencialmente con el número de entradas. Por ejemplo, un espacio de parámetros de 3 variables que se explora de a una por vez es equivalente a tomar puntos a lo largo de los ejes x, y y z de un cubo centrado en el origen. La envoltura convexa que limita todos estos puntos es un octaedro que tiene un volumen de solo 1/6 del espacio de parámetros total. De manera más general, la envoltura convexa de los ejes de un hiperrectángulo forma un hiperoctaedro que tiene una fracción de volumen de . Con 5 entradas, el espacio explorado ya cae a menos del 1% del espacio de parámetros total. E incluso esto es una sobreestimación, ya que el volumen fuera del eje en realidad no se muestrea en absoluto. Compare esto con el muestreo aleatorio del espacio, donde la envoltura convexa se acerca al volumen completo a medida que se agregan más puntos. [21] Si bien la escasez de OAT teóricamente no es una preocupación para los modelos lineales , la linealidad verdadera es rara en la naturaleza.

Morris

Este método, que debe su nombre al estadístico Max D. Morris, es adecuado para analizar sistemas con muchos parámetros. También se lo conoce como método de efectos elementales porque combina pasos repetidos a lo largo de varios ejes paramétricos. [22]

Métodos locales basados ​​en derivadas

Los métodos basados ​​en derivadas locales implican tomar la derivada parcial de la salida con respecto a un factor de entrada :

donde el subíndice x 0 indica que la derivada se toma en algún punto fijo en el espacio de la entrada (de ahí el 'local' en el nombre de la clase). El modelado adjunto [23] [24] y la diferenciación automatizada [25] son ​​métodos que permiten calcular todas las derivadas parciales a un costo de 4 a 6 veces el de evaluar la función original. De manera similar a OAT, los métodos locales no intentan explorar completamente el espacio de entrada, ya que examinan pequeñas perturbaciones, típicamente una variable a la vez. Es posible seleccionar muestras similares de la sensibilidad basada en derivadas a través de redes neuronales y realizar cuantificación de incertidumbre.

Una ventaja de los métodos locales es que es posible crear una matriz para representar todas las sensibilidades de un sistema, proporcionando así una visión general que no se puede lograr con métodos globales si hay una gran cantidad de variables de entrada y salida. [26]

Análisis de regresión

El análisis de regresión , en el contexto del análisis de sensibilidad, implica ajustar una regresión lineal a la respuesta del modelo y utilizar coeficientes de regresión estandarizados como medidas directas de sensibilidad. Se requiere que la regresión sea lineal con respecto a los datos (es decir, un hiperplano, por lo tanto sin términos cuadráticos, etc., como regresores) porque de lo contrario es difícil interpretar los coeficientes estandarizados. Por lo tanto, este método es más adecuado cuando la respuesta del modelo es de hecho lineal; la linealidad se puede confirmar, por ejemplo, si el coeficiente de determinación es grande. Las ventajas del análisis de regresión son que es simple y tiene un bajo costo computacional.

Métodos basados ​​en la varianza

Los métodos basados ​​en la varianza [27] son ​​una clase de enfoques probabilísticos que cuantifican las incertidumbres de entrada y salida como variables aleatorias , representadas a través de sus distribuciones de probabilidad , y descomponen la varianza de salida en partes atribuibles a las variables de entrada y combinaciones de variables. Por lo tanto, la sensibilidad de la salida a una variable de entrada se mide por la cantidad de varianza en la salida causada por esa entrada.

Esta cantidad se cuantifica y calcula utilizando los índices de Sobol : representan la proporción de varianza explicada por un insumo o grupo de insumos. Esta expresión mide esencialmente la contribución de un solo insumo a la incertidumbre (varianza) en (promediada sobre las variaciones en otras variables), y se conoce como índice de sensibilidad de primer orden o índice de efecto principal .

Para una entrada , el índice Sobol se define de la siguiente manera:

donde y denotan los operadores de varianza y valor esperado respectivamente.

Es importante destacar que el índice de sensibilidad de primer orden de no mide la incertidumbre causada por las interacciones con otras variables. Una medida adicional, conocida como el índice de efecto total , proporciona la varianza total en causada por y sus interacciones con cualquiera de las otras variables de entrada. El índice de efecto total se proporciona de la siguiente manera: donde denota el conjunto de todas las variables de entrada excepto .

Los métodos basados ​​en la varianza permiten explorar por completo el espacio de entrada, teniendo en cuenta las interacciones y las respuestas no lineales. Por estos motivos, se utilizan ampliamente cuando es posible calcularlos. Normalmente, este cálculo implica el uso de métodos de Monte Carlo , pero como esto puede implicar miles de ejecuciones de modelos, se pueden utilizar otros métodos (como los metamodelos) para reducir el gasto computacional cuando sea necesario.

Métodos independientes del momento

Los métodos independientes del momento amplían las técnicas basadas en la varianza al considerar la densidad de probabilidad o la función de distribución acumulada de la salida del modelo . Por lo tanto, no se refieren a ningún momento particular de , de ahí el nombre.

Las medidas de sensibilidad independientes del momento de , aquí denotadas por , se pueden definir a través de una ecuación similar a los índices basados ​​en la varianza que reemplazan la expectativa condicional con una distancia, como , donde es una distancia estadística [métrica o divergencia] entre medidas de probabilidad, y son las medidas de probabilidad marginal y condicional de . [28]

Si es una distancia , la medida de sensibilidad global independiente del momento satisface la independencia cero. Esta es una propiedad estadística relevante también conocida como postulado D de Renyi. [29]

La clase de medidas de sensibilidad independientes del momento incluye indicadores como la medida de importancia, [30] el nuevo coeficiente de correlación de Chatterjee, [31] la correlación de Wasserstein de Wiesel [32] y las medidas de sensibilidad basadas en kernel de Barr y Rabitz. [33]

Otra medida para el análisis de sensibilidad global, en la categoría de enfoques independientes del momento, es el índice PAWN. [34] Se basa en funciones de distribución acumulativa (CDF) para caracterizar la distancia máxima entre la distribución de salida incondicional y la distribución de salida condicional (obtenida al variar todos los parámetros de entrada y al establecer la entrada -ésima, en consecuencia). La diferencia entre la distribución de salida incondicional y condicional se calcula generalmente utilizando la prueba de Kolmogorov-Smirnov (KS). El índice PAWN para un parámetro de entrada dado se obtiene luego calculando las estadísticas de resumen sobre todos los valores KS.

Análisis de variogramas de superficies de respuesta (VARS)

Una de las principales deficiencias de los métodos de análisis de sensibilidad anteriores es que ninguno de ellos considera la estructura ordenada espacialmente de la superficie de respuesta/salida del modelo en el espacio de parámetros. Al utilizar los conceptos de variogramas direccionales y covariogramas, el análisis variométrico de superficies de respuesta (VARS) aborda esta debilidad al reconocer una estructura de correlación espacialmente continua con los valores de , y, por lo tanto, también con los valores de . [35] [36]

Básicamente, cuanto mayor sea la variabilidad, más heterogénea será la superficie de respuesta a lo largo de una dirección/parámetro particular, en una escala de perturbación específica. En consecuencia, en el marco VARS, los valores de los variogramas direccionales para una escala de perturbación dada pueden considerarse como una ilustración integral de la información de sensibilidad, al vincular el análisis de variogramas con los conceptos de escala de dirección y perturbación. Como resultado, el marco VARS tiene en cuenta el hecho de que la sensibilidad es un concepto dependiente de la escala y, por lo tanto, supera el problema de escala de los métodos de análisis de sensibilidad tradicionales. [37] Más importante aún, VARS puede proporcionar estimaciones relativamente estables y estadísticamente sólidas de la sensibilidad de los parámetros con un costo computacional mucho menor que otras estrategias (aproximadamente dos órdenes de magnitud más eficiente). [38] Cabe destacar que se ha demostrado que existe un vínculo teórico entre el marco VARS y los enfoques basados ​​en la varianza y en la derivada.

Prueba de sensibilidad de amplitud de Fourier (FAST)

La prueba de sensibilidad de amplitud de Fourier (FAST) utiliza la serie de Fourier para representar una función multivariada (el modelo) en el dominio de la frecuencia, utilizando una única variable de frecuencia. Por lo tanto, las integrales necesarias para calcular los índices de sensibilidad se vuelven univariadas, lo que genera un ahorro computacional.

Efectos Shapley

Los efectos Shapley se basan en los valores de Shapley y representan la contribución marginal promedio de un factor determinado en todas las combinaciones posibles de factores. Estos valores están relacionados con los índices de Sobol, ya que su valor se encuentra entre el efecto de Sobol de primer orden y el efecto de orden total. [39]

Polinomios del caos

El principio consiste en proyectar la función de interés sobre una base de polinomios ortogonales. Los índices de Sobol se expresan analíticamente en términos de los coeficientes de esta descomposición. [40]

Enfoques de investigación complementarios para simulaciones que requieren mucho tiempo

Se han desarrollado varios métodos para superar algunas de las limitaciones analizadas anteriormente, que de otro modo harían inviable la estimación de medidas de sensibilidad (la mayoría de las veces debido al gasto computacional ). En general, estos métodos se centran en calcular de manera eficiente (mediante la creación de un metamodelo de la costosa función que se va a evaluar y/o mediante un muestreo “inteligente” del espacio factorial) medidas de sensibilidad basadas en la varianza.

Metamodelos

Los metamodelos (también conocidos como emuladores, modelos sustitutos o superficies de respuesta) son enfoques de modelado de datos / aprendizaje automático que implican la construcción de una función matemática relativamente simple, conocida como metamodelo , que aproxima el comportamiento de entrada / salida del modelo en sí. [41] En otras palabras, es el concepto de "modelar un modelo" (de ahí el nombre "metamodelo"). La idea es que, aunque los modelos de computadora pueden ser una serie muy compleja de ecuaciones que pueden llevar mucho tiempo para resolver, siempre pueden considerarse como una función de sus entradas . Al ejecutar el modelo en varios puntos en el espacio de entrada, puede ser posible ajustar un metamodelo mucho más simple , de modo que esté dentro de un margen de error aceptable. [42] Luego, las medidas de sensibilidad se pueden calcular a partir del metamodelo (ya sea con Monte Carlo o analíticamente), lo que tendrá un costo computacional adicional insignificante. Es importante destacar que la cantidad de ejecuciones del modelo necesarias para ajustar el metamodelo puede ser órdenes de magnitud menor que la cantidad de ejecuciones necesarias para estimar directamente las medidas de sensibilidad del modelo. [43]

Claramente, el quid de un enfoque de metamodelo es encontrar un (metamodelo) que sea una aproximación suficientemente cercana al modelo . Esto requiere los siguientes pasos:

  1. Muestreo (ejecución) del modelo en una serie de puntos de su espacio de entrada. Esto requiere un diseño de muestra.
  2. Seleccionar un tipo de emulador (función matemática) a utilizar.
  3. "Entrenamiento" del metamodelo utilizando los datos de muestra del modelo: esto generalmente implica ajustar los parámetros del metamodelo hasta que este imite al modelo real lo mejor posible.

El muestreo del modelo se puede realizar a menudo con secuencias de baja discrepancia , como la secuencia de Sobol (debida al matemático Ilya M. Sobol) o el muestreo de hipercubo latino , aunque también se pueden utilizar diseños aleatorios, con pérdida de cierta eficiencia. La selección del tipo de metamodelo y el entrenamiento están intrínsecamente vinculados, ya que el método de entrenamiento dependerá de la clase de metamodelo. Algunos tipos de metamodelos que se han utilizado con éxito para el análisis de sensibilidad incluyen:

El uso de un emulador plantea un problema de aprendizaje automático , que puede resultar complicado si la respuesta del modelo es altamente no lineal . En todos los casos, resulta útil comprobar la precisión del emulador, por ejemplo, mediante validación cruzada .

Representaciones de modelos de alta dimensión (HDMR)

Una representación de modelo de alta dimensión (HDMR) [49] [50] (el término se debe a H. Rabitz [51] ) es esencialmente un enfoque de emulador, que implica descomponer la salida de la función en una combinación lineal de términos de entrada e interacciones de dimensionalidad creciente. El enfoque HDMR explota el hecho de que el modelo generalmente se puede aproximar bien ignorando las interacciones de orden superior (segundo o tercer orden y superiores). Los términos en la serie truncada pueden entonces aproximarse mediante, por ejemplo, polinomios o splines (REFS) y la respuesta se expresa como la suma de los efectos e interacciones principales hasta el orden de truncamiento. Desde esta perspectiva, los HDMR pueden verse como emuladores que ignoran las interacciones de orden superior; la ventaja es que pueden emular modelos con mayor dimensionalidad que los emuladores de orden completo.

Filtrado de Monte Carlo

El análisis de sensibilidad mediante filtrado de Monte Carlo [52] también es un enfoque basado en muestreo, cuyo objetivo es identificar regiones en el espacio de los factores de entrada correspondientes a valores particulares (por ejemplo, alto o bajo) de la salida.

Conceptos relacionados

El análisis de sensibilidad está estrechamente relacionado con el análisis de incertidumbre; mientras que este último estudia la incertidumbre global en las conclusiones del estudio, el análisis de sensibilidad trata de identificar qué fuente de incertidumbre pesa más en las conclusiones del estudio.

El planteamiento de problemas en el análisis de sensibilidad también tiene fuertes similitudes con el campo del diseño de experimentos . [53] En un diseño de experimentos, se estudia el efecto de algún proceso o intervención (el "tratamiento") sobre algunos objetos (las "unidades experimentales"). En el análisis de sensibilidad se observa el efecto de variar las entradas de un modelo matemático sobre la salida del modelo mismo. En ambas disciplinas se intenta obtener información del sistema con un mínimo de experimentos físicos o numéricos.

Auditoría de sensibilidad

Puede suceder que el análisis de sensibilidad de un estudio basado en modelos tenga como finalidad sustentar una inferencia y certificar su solidez en un contexto en el que la inferencia alimenta un proceso de toma de decisiones o de formulación de políticas. En estos casos, el marco del análisis en sí, su contexto institucional y las motivaciones de su autor pueden llegar a ser un asunto de gran importancia, y un análisis de sensibilidad puro –con su énfasis en la incertidumbre paramétrica– puede considerarse insuficiente. El énfasis en el marco puede derivar, entre otras cosas, de la relevancia del estudio de políticas para diferentes grupos de interés que se caracterizan por diferentes normas y valores y, por lo tanto, por una historia diferente sobre “cuál es el problema” y, sobre todo, sobre “quién está contando la historia”. La mayoría de las veces, el marco incluye supuestos más o menos implícitos, que pueden ser políticos (por ejemplo, qué grupo necesita ser protegido) o técnicos (por ejemplo, qué variable puede tratarse como una constante).

Para tener debidamente en cuenta estas preocupaciones, los instrumentos de la evaluación de la sensibilidad se han ampliado para proporcionar una evaluación de todo el proceso de generación de modelos y conocimientos. Este enfoque se ha denominado "auditoría de sensibilidad". Se inspira en NUSAP [54], un método utilizado para calificar el valor de la información cuantitativa con la generación de "pedigríes" de números. La auditoría de sensibilidad se ha diseñado especialmente para un contexto adversarial, donde no solo la naturaleza de la evidencia, sino también el grado de certeza e incertidumbre asociado a la evidencia, serán objeto de intereses partidistas [55] . La auditoría de sensibilidad se recomienda en las directrices de la Comisión Europea para la evaluación de impacto [56] , así como en el informe Science Advice for Policy de las Academias Europeas [57] .

Trampas y dificultades

Algunas dificultades comunes en el análisis de sensibilidad incluyen:

"He propuesto una forma de análisis de sensibilidad organizado que llamo 'análisis de sensibilidad global', en el que se selecciona un conjunto de supuestos alternativos y se identifica el intervalo de inferencias correspondiente. Las conclusiones se consideran sólidas sólo si el conjunto de supuestos es lo suficientemente amplio como para ser creíble y el intervalo de inferencias correspondiente es lo suficientemente estrecho como para ser útil".

Nótese que Leamer hace hincapié en la necesidad de "credibilidad" en la selección de supuestos. La forma más fácil de invalidar un modelo es demostrar que es frágil con respecto a la incertidumbre de los supuestos o demostrar que sus supuestos no se han tomado "con la suficiente amplitud". El mismo concepto es expresado por Jerome R. Ravetz, para quien un mal modelo es cuando las incertidumbres en los datos de entrada deben ser suprimidas para evitar que los resultados se vuelvan indeterminados. [60]

Sudáfrica en el contexto internacional

La importancia de comprender y gestionar la incertidumbre en los resultados de los modelos ha inspirado a muchos científicos de diferentes centros de investigación de todo el mundo a interesarse por este tema. Las agencias nacionales e internacionales involucradas en estudios de evaluación de impacto han incluido secciones dedicadas al análisis de sensibilidad en sus directrices. Algunos ejemplos son la Comisión Europea (ver, por ejemplo, las directrices para la evaluación de impacto ), [56] la Oficina de Administración y Presupuesto de la Casa Blanca , el Panel Intergubernamental sobre Cambio Climático y las directrices de modelización de la Agencia de Protección Ambiental de los Estados Unidos . [61]

Aplicaciones específicas del análisis de sensibilidad

En las siguientes páginas se tratan los análisis de sensibilidad en relación con aplicaciones específicas:

Véase también

Referencias

  1. ^ Saltelli, A.; Ratto, M.; Andrés, T.; Campolongo, F.; Gariboni, J.; Gatelli, D.; Saisana, M.; Tarantola, S. (2008). "Análisis de sensibilidad global: la cartilla". John Wiley e hijos . doi :10.1002/9780470725184. ISBN 978-0-470-05997-5.
  2. ^ Saltelli, A.; Tarantola, S.; Campolongo, F.; Ratto, M. (2004). "Análisis de sensibilidad en la práctica: una guía para evaluar modelos científicos". Wiley Online Library . 1 .
  3. ^ Der Kiureghian, A.; Ditlevsen, O. (2009). "¿Aleatorio o epistémico? ¿Importa?". Seguridad estructural . 31 (2): 105–112. doi :10.1016/j.strusafe.2008.06.020.
  4. ^ Pannell, DJ (1997). "Análisis de sensibilidad de modelos económicos normativos: marco teórico y estrategias prácticas". Economía agrícola . 16 (2): 139–152. doi :10.1111/j.1574-0862.1997.tb00449.x.
  5. ^ Bahremand, A.; De Smedt, F. (2008). "Modelado hidrológico distribuido y análisis de sensibilidad en la cuenca del río Torysa, Eslovaquia". Gestión de recursos hídricos . 22 (3): 293–408. Código Bibliográfico :2008WatRM..22..393B. doi :10.1007/s11269-007-9168-x. S2CID  9710579.
  6. ^ Hill, M.; Kavetski, D.; Clark, M.; Ye, M.; Arabi, M.; Lu, D.; Foglia, L.; Mehl, S. (2015). "Uso práctico de métodos de análisis de modelos computacionalmente frugales". Aguas subterráneas . 54 (2): 159–170. doi : 10.1111/gwat.12330 . OSTI  1286771. PMID  25810333.
  7. ^ Hill, M.; Tiedeman, C. (2007). Calibración eficaz de modelos de aguas subterráneas, con análisis de datos, sensibilidades, predicciones e incertidumbre . John Wiley & Sons.
  8. ^ Helton, JC; Johnson, JD; Salaberry, CJ; Storlie, CB (2006). "Estudio de métodos basados ​​en muestreo para análisis de incertidumbre y sensibilidad". Ingeniería de confiabilidad y seguridad de sistemas . 91 (10–11): 1175–1209. doi :10.1016/j.ress.2005.11.017.
  9. ^ Tsvetkova, O.; Ouarda, TBMJ (2019). "Técnica cuasi-Monte Carlo en el análisis de sensibilidad global de la evaluación del recurso eólico con un estudio en los Emiratos Árabes Unidos" (PDF) . Revista de energía renovable y sostenible . 11 (5): 053303. doi :10.1063/1.5120035. S2CID  208835771.
  10. ^ Chastaing, G.; Gamboa, F.; Prieur, C. (2012). "Descomposición generalizada de Hoeffding-Sobol para variables dependientes: aplicación al análisis de sensibilidad". Revista electrónica de estadística . 6 : 2420–2448. arXiv : 1112.1788 . doi :10.1214/12-EJS749. ISSN  1935-7524.
  11. ^ Gamboa, F.; Janon, A.; Klein, T.; Lagnoux, A. (2014). "Análisis de sensibilidad para resultados multidimensionales y funcionales". Revista Electrónica de Estadística . 8 : 575–603. arXiv : 1311.1797 . doi :10.1214/14-EJS895. ISSN  1935-7524.
  12. ^ Marrel, A.; Iooss, B.; Da Veiga, S.; Ribatet, M. (2012). "Análisis de sensibilidad global de modelos informáticos estocásticos con metamodelos conjuntos". Estadística y Computación . 22 (3): 833–847. doi :10.1007/s11222-011-9274-8. ISSN  0960-3174.
  13. ^ Marrel, A.; Iooss, B.; Van Dorpe, F.; Volkova, E. (2008). "Una metodología eficiente para modelar códigos informáticos complejos con procesos gaussianos". Computational Statistics & Data Analysis . 52 (10): 4731–4744. arXiv : 0802.1099 . doi :10.1016/j.csda.2008.03.026.
  14. ^ O'Hagan, A.; et al. (2006). Juicios inciertos: obtención de probabilidades de expertos. Chichester: Wiley. ISBN 9780470033302.
  15. ^ Sacks, J.; Welch, W. J.; Mitchell, T. J.; Wynn, HP (1989). "Diseño y análisis de experimentos informáticos". Ciencia estadística . 4 (4): 409–435. doi : 10.1214/ss/1177012413 .
  16. ^ Da Veiga, S., Gamboa, F., Iooss, B., Prieur, C. (2021). Fundamentos y tendencias en análisis de sensibilidad. SIAM. doi :10.1137/1.9781611976694. ISBN 978-1-61197-668-7.
  17. ^ Campbell, J.; et al. (2008). "Control fotosintético del sulfuro de carbonilo atmosférico durante la temporada de crecimiento". Science . 322 (5904): 1085–1088. Bibcode :2008Sci...322.1085C. doi :10.1126/science.1164015. PMID  19008442. S2CID  206515456.
  18. ^ Bailis, R.; Ezzati, M.; Kammen, D. (2005). "Impactos de la mortalidad y los gases de efecto invernadero de los futuros energéticos de biomasa y petróleo en África". Science . 308 (5718): 98–103. Bibcode :2005Sci...308...98B. doi :10.1126/science.1106881. PMID  15802601. S2CID  14404609.
  19. ^ Murphy, J.; et al. (2004). "Cuantificación de las incertidumbres de modelado en un gran conjunto de simulaciones de cambio climático". Nature . 430 (7001): 768–772. Bibcode :2004Natur.430..768M. doi :10.1038/nature02771. PMID  15306806. S2CID  980153.
  20. ^ Czitrom, Veronica (1999). "Experimentos diseñados frente a experimentos de un factor a la vez". American Statistician . 53 (2): 126–131. doi :10.2307/2685731. JSTOR  2685731.
  21. ^ Gatzouras, D; Giannopoulos, A (2009). "Umbral para el volumen abarcado por puntos aleatorios con coordenadas independientes". Revista israelí de matemáticas . 169 (1): 125–153. doi : 10.1007/s11856-009-0007-z .
  22. ^ Morris, MD (1991). "Planes de muestreo factorial para experimentos computacionales preliminares". Technometrics . 33 (2). Taylor & Francis: 161–174. doi :10.2307/1269043. JSTOR  1269043.
  23. ^ Cacuci, Dan G. Análisis de sensibilidad e incertidumbre: teoría . Vol. I. Chapman & Hall.
  24. ^ Cacuci, Dan G.; Ionescu-Bujor, Mihaela; Navon, Michael (2005). Análisis de sensibilidad e incertidumbre: aplicaciones a sistemas de gran escala . Vol. II. Chapman & Hall.
  25. ^ Griewank, A. (2000). Evaluación de derivadas, principios y técnicas de diferenciación algorítmica . SIAM.
  26. ^ Kabir HD, Khosravi A, Nahavandi D, Nahavandi S. Red neuronal de cuantificación de incertidumbre a partir de similitud y sensibilidad. Conferencia conjunta internacional sobre redes neuronales (IJCNN) de 2020, 19 de julio de 2020 (págs. 1-8). IEEE.
  27. ^ Sobol', I (1990). "Estimaciones de sensibilidad para modelos matemáticos no lineales". Matematicheskoe Modelirovanie (en ruso). 2 : 112–118.; traducido al inglés en Sobol', I (1993). "Análisis de sensibilidad para modelos matemáticos no lineales". Modelado matemático y experimento computacional . 1 : 407–414.
  28. ^ Borgonovo, E., Tarantola, S., Plischke, E., Morris, MD (2014). "Transformaciones e invariancia en el análisis de sensibilidad de experimentos informáticos". Revista de la Royal Statistical Society. Serie B (Metodología estadística) . 76 (5). [Royal Statistical Society, Wiley]: 925–947. doi :10.1111/rssb.12052. ISSN  1369-7412.
  29. ^ Rényi, A. (1 de septiembre de 1959). "Sobre medidas de dependencia". Acta Mathematica Academiae Scientiarum Hungarica . 10 (3): 441–451. doi :10.1007/BF02024507. ISSN  1588-2632.
  30. ^ Borgonovo, E. (junio de 2007). "Una nueva medida de la importancia de la incertidumbre". Ingeniería de confiabilidad y seguridad de sistemas . 92 (6). Elsevier: 771–784. doi :10.1016/J.RESS.2006.04.015. ISSN  0951-8320.
  31. ^ Chatterjee, S. (2 de octubre de 2021). "Un nuevo coeficiente de correlación". Revista de la Asociación Estadounidense de Estadística . 116 (536). Taylor & Francis: 2009–2022. arXiv : 1909.10140 . doi :10.1080/01621459.2020.1758115. ISSN  0162-1459.
  32. ^ Wiesel, JCW (noviembre de 2022). "Medición de la asociación con distancias de Wasserstein". Bernoulli . 28 (4). Bernoulli Society for Mathematical Statistics and Probability: 2816–2832. arXiv : 2102.00356 . doi :10.3150/21-BEJ1438. ISSN  1350-7265.
  33. ^ Barr, J., Rabitz, H. (31 de marzo de 2022). "Un método de núcleo generalizado para el análisis de sensibilidad global". Revista SIAM/ASA sobre cuantificación de la incertidumbre . 10 (1). Sociedad de Matemáticas Industriales y Aplicadas: 27–54. doi :10.1137/20M1354829.
  34. ^ Pianosi, F., Wagener, T. (2015). "Un método simple y eficiente para el análisis de sensibilidad global basado en funciones de distribución acumulativa". Modelado ambiental y software . 67. Elsevier: 1–11. doi : 10.1016/j.envsoft.2015.01.004 .
  35. ^ Razavi, Saman; Gupta, Hoshin V. (enero de 2016). "Un nuevo marco para un análisis de sensibilidad global integral, robusto y eficiente: 1. Teoría". Investigación de recursos hídricos . 52 (1): 423–439. Bibcode :2016WRR....52..423R. doi : 10.1002/2015WR017558 . ISSN  1944-7973.
  36. ^ Razavi, Saman; Gupta, Hoshin V. (enero de 2016). "Un nuevo marco para un análisis de sensibilidad global integral, robusto y eficiente: 2. Aplicación". Investigación de recursos hídricos . 52 (1): 440–455. Bibcode :2016WRR....52..440R. doi : 10.1002/2015WR017559 . ISSN  1944-7973.
  37. ^ Haghnegahdar, Amin; Razavi, Saman (septiembre de 2017). "Información sobre el análisis de sensibilidad de los modelos de sistemas ambientales y terrestres: sobre el impacto de la escala de perturbación de parámetros". Environmental Modelling & Software . 95 : 115–131. Bibcode :2017EnvMS..95..115H. doi :10.1016/j.envsoft.2017.03.031.
  38. ^ Gupta, H; Razavi, S (2016). "Desafíos y perspectivas futuras del análisis de sensibilidad". En Petropoulos, George; Srivastava, Prashant (eds.). Análisis de sensibilidad en el modelado de la observación de la Tierra (1.ª ed.). Elsevier. págs. 397–415. ISBN 9780128030318.
  39. ^ Owen, AB (1 de enero de 2014). "Índices de Sobol y valor de Shapley". Revista SIAM/ASA sobre cuantificación de incertidumbre . 2 (1). Sociedad de Matemáticas Industriales y Aplicadas: 245–251. doi :10.1137/130936233.
  40. ^ Sudret, B. (2008). "Análisis de sensibilidad global utilizando expansiones de caos polinomial". Redes bayesianas en confiabilidad . 93 (7): 964–979. doi :10.1016/j.ress.2007.04.002.
  41. ^ abc Storlie, CB; Swiler, LP; Helton, JC; Sallaberry, CJ (2009). "Implementación y evaluación de procedimientos de regresión no paramétrica para el análisis de sensibilidad de modelos computacionalmente exigentes". Ingeniería de confiabilidad y seguridad de sistemas . 94 (11): 1735–1763. doi :10.1016/j.ress.2009.05.007.
  42. ^ Wang, Shangying; Fan, Kai; Luo, Nan; Cao, Yangxiaolu; Wu, Feilun; Zhang, Carolyn; Heller, Katherine A.; You, Lingchong (25 de septiembre de 2019). "Aceleración computacional masiva mediante el uso de redes neuronales para emular modelos biológicos basados ​​en mecanismos". Nature Communications . 10 (1): 4354. Bibcode :2019NatCo..10.4354W. doi :10.1038/s41467-019-12342-y. ISSN  2041-1723. PMC 6761138 . PMID  31554788. 
  43. ^ ab Oakley, J.; O'Hagan, A. (2004). "Análisis de sensibilidad probabilístico de modelos complejos: un enfoque bayesiano". JR Stat. Soc. B . 66 (3): 751–769. CiteSeerX 10.1.1.6.9720 . doi :10.1111/j.1467-9868.2004.05304.x. S2CID  6130150. 
  44. ^ Gramacy, RB; Taddy, MA (2010). "Entradas categóricas, análisis de sensibilidad, optimización y moderación de importancia con tgp versión 2, un paquete R para modelos de procesos gaussianos en árbol" (PDF) . Journal of Statistical Software . 33 (6). doi : 10.18637/jss.v033.i06 .
  45. ^ Becker, W.; Worden, K.; Rowson, J. (2013). "Análisis de sensibilidad bayesiano de modelos no lineales bifurcados". Sistemas mecánicos y procesamiento de señales . 34 (1–2): 57–75. Bibcode :2013MSSP...34...57B. doi :10.1016/j.ymssp.2012.05.010.
  46. ^ Sudret, B. (2008). "Análisis de sensibilidad global utilizando expansiones polinómicas del caos". Ingeniería de confiabilidad y seguridad de sistemas . 93 (7): 964–979. doi :10.1016/j.ress.2007.04.002.
  47. ^ Ratto, M.; Pagano, A. (2010). "Uso de algoritmos recursivos para la identificación eficiente de modelos ANOVA de spline suavizado". AStA Advances in Statistical Analysis . 94 (4): 367–388. doi :10.1007/s10182-010-0148-8. S2CID  7678955.
  48. ^ Cardenas, IC (2019). "Sobre el uso de redes bayesianas como un enfoque de metamodelado para analizar incertidumbres en el análisis de estabilidad de taludes". Georisk: evaluación y gestión del riesgo para sistemas de ingeniería y geopeligros . 13 (1): 53–65. Bibcode :2019GAMRE..13...53C. doi :10.1080/17499518.2018.1498524. S2CID  216590427.
  49. ^ Li, G.; Hu, J.; Wang, S.-W.; Georgopoulos, P.; Schoendorf, J.; Rabitz, H. (2006). "Representación de modelos de alta dimensión con muestreo aleatorio (RS-HDMR) y ortogonalidad de sus funciones componentes de orden diferente". Journal of Physical Chemistry A . 110 (7): 2474–2485. Bibcode :2006JPCA..110.2474L. doi :10.1021/jp054148m. PMID  16480307.
  50. ^ Li, G. (2002). "Enfoques prácticos para construir funciones de componentes RS-HDMR". Journal of Physical Chemistry . 106 (37): 8721–8733. Bibcode :2002JPCA..106.8721L. doi :10.1021/jp014567t.
  51. ^ Rabitz, H (1989). "Análisis de sistemas a escala molecular". Science . 246 (4927): 221–226. Bibcode :1989Sci...246..221R. doi :10.1126/science.246.4927.221. PMID  17839016. S2CID  23088466.
  52. ^ Hornberger, G.; Spear, R. (1981). "Un enfoque para el análisis preliminar de sistemas ambientales". Journal of Environmental Management . 7 : 7–18.
  53. ^ Box GEP, Hunter WG, Hunter, J. Stuart. Estadísticas para experimentadores [Internet]. Nueva York: Wiley & Sons
  54. ^ Van der Sluijs, JP; Craye, M; Funtowicz, S; Kloprogge, P; Ravetz, J; Risbey, J (2005). "Combinación de medidas cuantitativas y cualitativas de incertidumbre en la evaluación ambiental basada en modelos: el sistema NUSAP". Análisis de riesgos . 25 (2): 481–492. Bibcode :2005RiskA..25..481V. doi :10.1111/j.1539-6924.2005.00604.x. hdl : 1874/386039 . PMID  15876219. S2CID  15988654.
  55. ^ Lo Piano, S; Robinson, M (2019). "Evaluaciones económicas de nutrición y salud pública bajo la perspectiva de la ciencia posnormal". Futures . 112 : 102436. doi :10.1016/j.futures.2019.06.008. S2CID  198636712.
  56. ^ ab Comisión Europea. 2021. “Better Regulation Toolbox”. 25 de noviembre.
  57. ^ Asesoramiento científico para políticas de las Academias Europeas, Cómo dar sentido a la ciencia para las políticas en condiciones de complejidad e incertidumbre, Berlín, 2019.
  58. ^ Leamer, Edward E. (1983). "Eliminemos las trampas de la econometría". American Economic Review . 73 (1): 31–43. JSTOR  1803924.
  59. ^ Leamer, Edward E. (1985). "Los análisis de sensibilidad serían útiles". American Economic Review . 75 (3): 308–313. JSTOR  1814801.
  60. ^ Ravetz, JR, 2007, Guía práctica para la ciencia , New Internationalist Publications Ltd.
  61. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 26 de abril de 2011. Consultado el 16 de octubre de 2009 .{{cite web}}: CS1 maint: archived copy as title (link)

Lectura adicional

Enlaces externos