La predicción por conjuntos es un método utilizado en la predicción numérica del tiempo . En lugar de realizar una única predicción del tiempo más probable, se produce un conjunto de predicciones. Este conjunto de predicciones tiene como objetivo dar una indicación del rango de posibles estados futuros de la atmósfera.
La predicción por conjuntos es una forma de análisis de Monte Carlo . Las simulaciones múltiples se llevan a cabo para tener en cuenta las dos fuentes habituales de incertidumbre en los modelos de predicción: (1) los errores introducidos por el uso de condiciones iniciales imperfectas, amplificados por la naturaleza caótica de las ecuaciones de evolución de la atmósfera, a lo que a menudo se hace referencia como dependencia sensible de las condiciones iniciales ; y (2) los errores introducidos debido a imperfecciones en la formulación del modelo, como los métodos matemáticos aproximados para resolver las ecuaciones. Idealmente, el estado atmosférico futuro verificado debería caer dentro de la dispersión del conjunto predicha , y la cantidad de dispersión debería estar relacionada con la incertidumbre (error) de la predicción.
En general, este enfoque se puede utilizar para realizar pronósticos probabilísticos de cualquier sistema dinámico , y no sólo para la predicción meteorológica.
En la actualidad, las predicciones por conjuntos se realizan habitualmente en la mayoría de las principales instalaciones de predicción meteorológica operativa del mundo, entre las que se incluyen:
En varias universidades, como la Universidad de Washington, se realizan pronósticos conjuntos experimentales, y en los EE. UU. también los generan la Marina y la Fuerza Aérea de los EE. UU . Hay varias formas de ver los datos, como los diagramas de espagueti , las medias de conjuntos o los sellos postales , donde se pueden comparar varios resultados diferentes de los modelos ejecutados.
Como propuso Edward Lorenz en 1963, es imposible que los pronósticos de largo plazo (aquellos realizados con más de dos semanas de anticipación) predigan el estado de la atmósfera con algún grado de habilidad debido a la naturaleza caótica de las ecuaciones de dinámica de fluidos involucradas. [1] Además, las redes de observación existentes tienen una resolución espacial y temporal limitada (por ejemplo, sobre grandes masas de agua como el Océano Pacífico), lo que introduce incertidumbre en el verdadero estado inicial de la atmósfera. Si bien existe un conjunto de ecuaciones, conocidas como ecuaciones de Liouville , para determinar la incertidumbre inicial en la inicialización del modelo, las ecuaciones son demasiado complejas para ejecutarlas en tiempo real, incluso con el uso de supercomputadoras. [2] La importancia práctica de los pronósticos de conjunto deriva del hecho de que en un sistema caótico y, por lo tanto, no lineal, la tasa de crecimiento del error de pronóstico depende de las condiciones iniciales. Por lo tanto, una previsión por conjuntos proporciona una estimación previa de la predictibilidad dependiente del estado, es decir, una estimación de los tipos de clima que podrían ocurrir, dadas las inevitables incertidumbres en las condiciones iniciales previstas y en la precisión de la representación computacional de las ecuaciones. Estas incertidumbres limitan la precisión del modelo de previsión a unos seis días en el futuro. [3] Las primeras previsiones por conjuntos operativas se produjeron para escalas de tiempo subestacionales en 1985. [4] Sin embargo, se advirtió que la filosofía que sustentaba dichas previsiones también era relevante en escalas de tiempo más cortas, escalas de tiempo en las que las predicciones se habían hecho anteriormente por medios puramente deterministas.
En 1969, Edward Epstein reconoció que la atmósfera no podía describirse completamente con una única ejecución de pronóstico debido a la incertidumbre inherente, y propuso un modelo dinámico estocástico que producía medias y varianzas para el estado de la atmósfera. [5] Aunque estas simulaciones de Monte Carlo demostraron habilidad, en 1974 Cecil Leith reveló que producían pronósticos adecuados solo cuando la distribución de probabilidad del conjunto era una muestra representativa de la distribución de probabilidad en la atmósfera. [6] No fue hasta 1992 que los pronósticos del conjunto comenzaron a ser preparados por el Centro Europeo de Pronósticos Meteorológicos a Plazo Medio (ECMWF) y los Centros Nacionales de Predicción Ambiental (NCEP).
Hay dos fuentes principales de incertidumbre que deben tenerse en cuenta al realizar un pronóstico meteorológico de conjunto: la incertidumbre de las condiciones iniciales y la incertidumbre del modelo. [7]
La incertidumbre de la condición inicial surge debido a errores en la estimación de las condiciones iniciales para el pronóstico, tanto debido a observaciones limitadas de la atmósfera como a incertidumbres involucradas en el uso de mediciones indirectas, como datos satelitales , para medir el estado de las variables atmosféricas. La incertidumbre de la condición inicial se representa perturbando las condiciones iniciales entre los diferentes miembros del conjunto. Esto explora el rango de condiciones iniciales consistentes con nuestro conocimiento del estado actual de la atmósfera, junto con su evolución pasada. Hay varias formas de generar estas perturbaciones de la condición inicial. El modelo ECMWF, el Sistema de Predicción de Conjuntos (EPS), [8] utiliza una combinación de vectores singulares y un conjunto de asimilaciones de datos (EDA) para simular la densidad de probabilidad inicial . [9] Las perturbaciones de vectores singulares son más activas en las zonas extratropicales, mientras que las perturbaciones de EDA son más activas en los trópicos. El conjunto NCEP, el Sistema de Pronóstico de Conjuntos Globales, utiliza una técnica conocida como reproducción de vectores . [10] [11]
La incertidumbre del modelo surge debido a las limitaciones del modelo de pronóstico. El proceso de representación de la atmósfera en un modelo informático implica muchas simplificaciones, como el desarrollo de esquemas de parametrización , que introducen errores en el pronóstico. Se han propuesto varias técnicas para representar la incertidumbre del modelo.
Al desarrollar un esquema de parametrización , se introducen muchos parámetros nuevos para representar procesos físicos simplificados. Estos parámetros pueden ser muy inciertos. Por ejemplo, el " coeficiente de arrastre " representa la mezcla turbulenta de aire ambiental seco en una nube convectiva y, por lo tanto, representa un proceso físico complejo utilizando un solo número. En un enfoque de parámetros perturbados, se identifican los parámetros inciertos en los esquemas de parametrización del modelo y su valor cambia entre los miembros del conjunto. Mientras que en el modelado climático probabilístico, como climateprediction.net , estos parámetros a menudo se mantienen constantes globalmente y durante toda la integración, [12] en la predicción numérica moderna del tiempo es más común variar estocásticamente el valor de los parámetros en el tiempo y el espacio. [13] El grado de perturbación de los parámetros se puede guiar utilizando el juicio de expertos, [14] o estimando directamente el grado de incertidumbre de los parámetros para un modelo dado. [15]
Un esquema de parametrización tradicional busca representar el efecto promedio del movimiento a escala subcuadrícula (por ejemplo, nubes convectivas) sobre el estado de escala resuelto (por ejemplo, los campos de viento y temperatura a gran escala). Un esquema de parametrización estocástica reconoce que puede haber muchos estados a escala subcuadrícula consistentes con un estado de escala resuelto en particular. En lugar de predecir el movimiento a escala subcuadrícula más probable, un esquema de parametrización estocástica representa una posible realización de la subcuadrícula. Lo hace mediante la inclusión de números aleatorios en las ecuaciones de movimiento. Esto toma muestras de la distribución de probabilidad asignada a procesos inciertos. Las parametrizaciones estocásticas han mejorado significativamente la habilidad de los modelos de pronóstico del tiempo y ahora se utilizan en centros de pronóstico operativos en todo el mundo. [16] Las parametrizaciones estocásticas se desarrollaron por primera vez en el Centro Europeo de Pronósticos Meteorológicos de Mediano Plazo . [17]
Cuando se utilizan muchos modelos de pronóstico diferentes para intentar generar un pronóstico, el enfoque se denomina pronóstico de conjunto de múltiples modelos. Este método de pronóstico puede mejorar los pronósticos en comparación con un enfoque basado en un solo modelo. [18] Cuando los modelos dentro de un conjunto de múltiples modelos se ajustan para sus diversos sesgos, este proceso se conoce como "pronóstico de superconjunto". Este tipo de pronóstico reduce significativamente los errores en la salida del modelo. [19] Cuando se combinan modelos de diferentes procesos físicos, como combinaciones de modelos atmosféricos, oceánicos y de olas, el conjunto de múltiples modelos se llama hiperconjunto. [20]
El pronóstico del conjunto se evalúa generalmente comparando el promedio del conjunto de los pronósticos individuales para una variable de pronóstico con el valor observado de esa variable (el "error"). Esto se combina con la consideración del grado de acuerdo entre varios pronósticos dentro del sistema de conjunto, como se representa por su desviación estándar general o "dispersión". La dispersión del conjunto se puede visualizar a través de herramientas como los diagramas de espagueti, que muestran la dispersión de una cantidad en los gráficos de pronóstico para pasos de tiempo específicos en el futuro. Otra herramienta donde se utiliza la dispersión del conjunto es un meteograma , que muestra la dispersión en el pronóstico de una cantidad para una ubicación específica. Es común que la dispersión del conjunto sea demasiado pequeña, de modo que el estado atmosférico observado quede fuera del pronóstico del conjunto. Esto puede llevar al pronosticador a confiar demasiado en su pronóstico. [21] Este problema se vuelve particularmente grave para los pronósticos del tiempo con unos 10 días de anticipación, [22] particularmente si la incertidumbre del modelo no se tiene en cuenta en el pronóstico.
La dispersión del pronóstico del conjunto indica qué tan seguro puede estar el pronosticador en su predicción. Cuando la dispersión del conjunto es pequeña y las soluciones del pronóstico son consistentes dentro de múltiples ejecuciones del modelo, los pronosticadores perciben más confianza en el pronóstico en general. [21] Cuando la dispersión es grande, esto indica más incertidumbre en la predicción. Idealmente, debería existir una relación dispersión-habilidad , por la cual la dispersión del conjunto es un buen predictor del error esperado en la media del conjunto. Si el pronóstico es confiable , el estado observado se comportará como si se extrajera de la distribución de probabilidad del pronóstico. La confiabilidad (o calibración ) se puede evaluar comparando la desviación estándar del error en la media del conjunto con la dispersión del pronóstico: para un pronóstico confiable, los dos deben coincidir, tanto en diferentes tiempos de anticipación del pronóstico como para diferentes ubicaciones. [23]
También se puede evaluar la fiabilidad de las previsiones de un fenómeno meteorológico concreto. Por ejemplo, si 30 de los 50 miembros indicaron que durante las próximas 24 horas se producirían precipitaciones superiores a 1 cm, la probabilidad de que se produjeran precipitaciones superiores a 1 cm podría estimarse en un 60 %. La previsión se consideraría fiable si, teniendo en cuenta todas las situaciones del pasado en las que se predijo una probabilidad del 60 %, en el 60 % de esas ocasiones la precipitación superó realmente los 1 cm. En la práctica, las probabilidades generadas a partir de las previsiones meteorológicas operativas del conjunto no son muy fiables, aunque con un conjunto de previsiones pasadas ( reprevisiones o retrospectivas ) y observaciones, las estimaciones de probabilidad del conjunto se pueden ajustar para garantizar una mayor fiabilidad.
Otra propiedad deseable de los pronósticos de conjunto es la resolución. Esta es una indicación de cuánto se desvía el pronóstico de la frecuencia del evento climatológico; siempre que el conjunto sea confiable, aumentar esta desviación aumentará la utilidad del pronóstico. Esta calidad del pronóstico también puede considerarse en términos de precisión , o cuán pequeña es la dispersión del pronóstico. El objetivo clave de un pronosticador debe ser maximizar la precisión, manteniendo al mismo tiempo la confiabilidad. [24] Los pronósticos con grandes adelantos inevitablemente no serán particularmente precisos (tendrán una resolución particularmente alta), ya que los errores inevitables (aunque generalmente pequeños) en la condición inicial aumentarán con el aumento del adelanto del pronóstico hasta que la diferencia esperada entre dos estados del modelo sea tan grande como la diferencia entre dos estados aleatorios de la climatología del modelo de pronóstico.
Si se van a utilizar pronósticos de conjunto para predecir probabilidades de variables meteorológicas observadas, normalmente necesitan calibración para crear pronósticos imparciales y fiables. Para los pronósticos de temperatura, un método simple y eficaz de calibración es la regresión lineal , a menudo conocida en este contexto como estadísticas de salida del modelo . El modelo de regresión lineal toma la media del conjunto como predictor de la temperatura real, ignora la distribución de los miembros del conjunto alrededor de la media y predice probabilidades utilizando la distribución de residuos de la regresión. En esta configuración de calibración, el valor del conjunto para mejorar el pronóstico es entonces que la media del conjunto normalmente da un mejor pronóstico que cualquier miembro individual del conjunto, y no debido a ninguna información contenida en el ancho o la forma de la distribución de los miembros en el conjunto alrededor de la media. Sin embargo, en 2004, se introdujo una generalización de la regresión lineal (ahora conocida como regresión gaussiana no homogénea ) [25] que utiliza una transformación lineal de la dispersión del conjunto para dar el ancho de la distribución predictiva, y se demostró que esto puede conducir a pronósticos con mayor habilidad que aquellos basados solo en la regresión lineal. Esto demostró por primera vez que la información en forma de la distribución de los miembros de un conjunto alrededor de la media, en este caso resumida por la dispersión del conjunto, se puede utilizar para mejorar los pronósticos en relación con la regresión lineal . Si la regresión lineal se puede superar o no utilizando la dispersión del conjunto de esta manera varía, dependiendo del sistema de pronóstico, la variable de pronóstico y el tiempo de entrega.
Además de utilizarse para mejorar las predicciones de incertidumbre, la dispersión de conjuntos también se puede utilizar como predictor del tamaño probable de los cambios en la previsión media de un pronóstico al siguiente. [26] Esto funciona porque, en algunos sistemas de previsión de conjuntos, los conjuntos estrechos tienden a preceder a pequeños cambios en la media, mientras que los conjuntos amplios tienden a preceder a cambios mayores en la media. Esto tiene aplicaciones en las industrias comerciales, para las que puede ser importante comprender los tamaños probables de los cambios futuros en las previsiones.
El Experimento de Investigación y Predicción de Sistemas de Observación (THORPEX) es un programa internacional de investigación y desarrollo de 10 años de duración cuyo objetivo es acelerar las mejoras en la precisión de los pronósticos meteorológicos de alto impacto con un plazo de un día a dos semanas en beneficio de la sociedad, la economía y el medio ambiente. Establece un marco organizativo que aborda los problemas de investigación y pronóstico meteorológico cuyas soluciones se acelerarán mediante la colaboración internacional entre instituciones académicas, centros de pronóstico operacional y usuarios de productos de pronóstico.
Uno de sus componentes clave es THORPEX Interactive Grand Global Ensemble (TIGGE), un programa mundial de investigación meteorológica cuyo objetivo es acelerar las mejoras en la precisión de los pronósticos meteorológicos de alto impacto de uno a dos días en beneficio de la humanidad. Se utilizan archivos centralizados de datos de pronósticos de modelos de conjunto, de muchos centros internacionales, para permitir un amplio intercambio de datos y una amplia investigación.