Análisis de sensibilidad

Un modelo matemático (por ejemplo, en biología, cambio climático, economía o ingeniería) puede ser muy complejo y, como consecuencia, sus relaciones entre entradas y salidas pueden ser poco comprensibles.

En tales casos, el modelo puede considerarse una caja negra, es decir, el resultado es una función "opaca" de sus entradas.

Esta incertidumbre limita nuestra confianza en la respuesta o el resultado del modelo.

Además, los modelos pueden tener que hacer frente a la variabilidad intrínseca natural del sistema (aleatoria), como la aparición de sucesos estocásticos.

El método tiene una clara ventaja sobre el método IVS analítico y computacional, ya que trata de comprender e interpretar el cambio de estado del sistema en el menor tiempo posible con una sobrecarga computacional mínima.

La forma más fácil de invalidar un modelo es demostrar que es frágil con respecto a la incertidumbre en los supuestos o demostrar que sus supuestos no se han tomado con la "suficiente amplitud".

Se pueden dar formas alternativas de obtener estas medidas, bajo las restricciones del problema.

Artículo principal: Método del factor único Uno de los enfoques más sencillos y comunes es el de cambiar un factor cada vez (OAT), para ver qué efecto produce en el resultado.

[13]​[14]​[15]​ El OAT suele implicar: La sensibilidad puede medirse controlando los cambios en el resultado, por ejemplo, mediante derivadas parciales o regresión lineal.

Éste parece un enfoque lógico, ya que cualquier cambio observado en el resultado se deberá inequívocamente a la única variable modificada.

Además, al cambiar una variable cada vez, se pueden mantener todas las demás fijas en sus valores centrales o de referencia.

Esto aumenta la comparabilidad de los resultados (todos los "efectos" se calculan con referencia al mismo punto central en el espacio) y minimiza las posibilidades de que se bloquee el programa informático, algo más probable cuando se modifican simultáneamente varios factores de entrada.

E incluso esto es una sobreestimación, ya que el volumen fuera del eje no se está muestreando en absoluto.

Compárese con el muestreo aleatorio del espacio, en el que el casco convexo se aproxima a todo el volumen a medida que se añaden más puntos.

El modelado adjunto[18]​[19]​ y la diferenciación automatizada[20]​ son métodos de esta clase.

La regresión debe ser lineal con respecto a los datos (es decir, un hiperplano, sin términos cuadráticos, etc., como regresores) porque, de lo contrario, es difícil interpretar los coeficientes normalizados.

Las ventajas del análisis de regresión son su sencillez y su bajo coste computacional.

Pueden expresarse como expectativas condicionales, es decir, considerando un modelo Y = f(X) para X = {X1, X2, ... Xk}, una medida de sensibilidad de la i-ésima variable Xi viene dada por,

Es importante destacar que no mide la incertidumbre causada por las interacciones con otras variables.

Los métodos basados en la varianza permiten una exploración completa del espacio de entrada, teniendo en cuenta las interacciones y las respuestas no lineales.

La idea es que, aunque los modelos informáticos pueden ser una serie muy compleja de ecuaciones cuya resolución puede llevar mucho tiempo, siempre pueden considerarse como una función de sus entradas Y = f(X).

[28]​ Entonces, las medidas de sensibilidad pueden calcularse a partir del emulador (ya sea con Monte Carlo o analíticamente), lo que tendrá un coste computacional adicional insignificante.

En todos los casos, es útil comprobar la precisión del emulador, por ejemplo mediante validación cruzada.

Por lo tanto, las integrales necesarias para calcular los índices de sensibilidad pasan a ser univariantes, lo que supone un ahorro computacional.

En estos casos, el encuadre del propio análisis, su contexto institucional y las motivaciones de su autor pueden adquirir una gran importancia, y un análisis de sensibilidad puro -con su énfasis en la incertidumbre paramétrica- puede considerarse insuficiente.

El énfasis en el encuadre puede derivarse, entre otras cosas, de la relevancia del estudio político para diferentes grupos de interés que se caracterizan por normas y valores diferentes y, por tanto, por una historia diferente sobre "cuál es el problema" y, sobre todo, sobre "quién cuenta la historia".

Esquema ideal de un posible análisis de sensibilidad basado en el muestreo. La incertidumbre derivada de distintas fuentes -errores en los datos, procedimiento de estimación de parámetros, estructuras alternativas del modelo- se propaga a través del modelo para el análisis de incertidumbre y su importancia relativa se cuantifica mediante el análisis de sensibilidad.
Análisis de sensibilidad basado en el muestreo mediante gráficos de dispersión. Y (eje vertical) es una función de cuatro factores. Los puntos de los cuatro gráficos de dispersión son siempre los mismos, aunque ordenados de forma diferente, es decir, por Z1, Z2, Z3 y Z4 sucesivamente. Obsérvese que la abscisa es diferente en cada gráfico: (-5, +5) para Z1, (-8, +8) para Z2, (-10, +10) para Z3 y Z4. Z4 es la que más influye en Y, ya que le da más "forma".