Introducción a las Ciencias Atmosféricas
Curso en línea
CCA-UNAM


IX.   Pronóstico de tiempo

Introducción.

A menudo escuchamos que la ciencia es una explicación del mundo. Aunque esta es una característica importante, no es su principal característica: la prioridad mayor de la ciencia es la predicción. Como ejemplo consideremos los eclipses que algunas sociedades antiguas consideraban como las acciones de entidades malignas o enemigas del sol. Esta interpretación de los antiguos podría considerarse una explicación pero desafortunadamente no genera ninguna predicción y por tanto no es ciencia. En contraste los Caldeos habían observado que los eclipses  ocurrían a intervalos regulares de 18 años al que llamaron ciclo de Saros. Reconocer la existencia de esta periodicidad no explica más allá de ese simple hecho observacional.  Sin embargo,  nos proporciona un método efectivo de predicción y esta nueva característica ya constituye los cimientos de una ciencia elemental basada en relaciones empíricas útiles. Desde entonces, hemos descubierto el método científico que basado en observaciones permite el desarrollo de modelos de la realidad capaces de predecir el comportamiento de un sistema bajo nuevas circunstancias (distintas a las observadas) que pueden ser verificados o descartados. En el caso de la física y en particular de los fluidos hemos podido compactar la masa de datos observacionales en unas cuantas ecuaciones que los gobiernan. En meteorología y oceanografía  llamamos a estas ecuaciones, “ecuaciones primitivas”  y determinan el estado futuro del viento (corrientes oceánicas) de la temperatura, la salinidad y la humedad atmosférica desde la superficie o el fondo marino hasta el tope de la atmosfera y del océano.

Varias características fundamentales distinguen a estas dos ciencias (y en general a las ciencias geofísicas) de la física clásica. Primeramente, no podemos, en principio, someter a la atmosfera y/o al océano a experimentos controlados. En todo caso, lo haríamos bajo condiciones sin mucho control como una gran explosión atómica, la deforestación masiva del  Amazonas, o bien la inyección de CO2 y partículas a la atmosfera. Estos experimentos no controlados darían como resultado cambios medibles en el estado del sistema atmosfera-océano pero difícilmente podríamos hacer un pronóstico adecuado sin el uso de modelos que resuelvan las ecuaciones primitivas de la atmosfera el océano y las ecuaciones que gobiernan los procesos en la tierra. En segundo lugar, el sistema acoplado de atmosfera-océano-tierra es altamente no lineal por la gran cantidad de procesos físicos, químicos y biológicos involucrados añadidos a los procesos de transporte (o referido también como advección) que se originan en las ecuaciones primitivas. Otra característica fundamental es la gran cantidad de escalas de tiempo (desde segundos a hasta milenios) y de espacio (desde milímetros hasta escalas planetarias) que interactúan y que modifican las transferencia de energía, masa y momento. Un ejemplo de esto es la turbulencia que continua siendo un problema abierto en la física clásica.

Naturalmente, esto nos lleva a preguntarnos qué tan predecible es el sistema atmosfera-océano-tierra. Antes de considerar un sistema tan complejo, Edward Lorentz en 1963 atacó la pregunta desde la perspectiva de un modelo reducido de las ecuaciones primitivas de la atmosfera. Con este modelo que solo contiene no linealidades algebraicas Lorentz mostró que el sistema era sumamente sensible a las condiciones iniciales. El estudio de estos sistemas devino en lo que ahora llamamos teoría del caos.

A pesar de que los estudios de Lorentz marcan un límite al pronóstico de tiempo de dos o tres días a lo mas, eso no ha impedido que los meteorólogos puedan hacer pronósticos de tiempo y clima haciendo uso de datos observacionales y salidas de modelos globales y regionales.

La necesidad de pronósticos del tiempo que sean de utilidad es una gran demanda de la sociedad pero debemos estar conscientes de las limitaciones inherentes al proceso de pronóstico en general.
 
9.1. Diagnóstico

Si no existe una comprensión plena de lo que ocurre con el problema del pronóstico del tiempo, entonces, lo único que hace en realidad un previsor es intentar adivinar el futuro o, en el mejor de los casos, repetir mecánicamente las salidas de un de pronóstico. La conexión entre el tiempo meteorológico y la comprensión y entendimiento profundo de los fenómenos involucrados se conoce como diagnóstico. Irónicamente, dicha técnica se ha vuelto uno de los aspectos más descuidados de la ciencia meteorológica operacional de hoy en día. Esto se debe, en parte, al gran énfasis que se hace de la modelación numérica, y a las parameterizaciones numéricas de procesos físicos tanto en la academia como en los centros de enseñanza. No es difícil encontrar a diario a algún previsor que cuidadosamente define isopletas en una carta de superficie, recalcando la importancia del análisis, y quien después se sumerge en su totalidad en modelados numéricos y campos cuadriculados sin revisar otros gráficos y herramientas.

Como resultado, es muy probable que el previsor tenga una comprensión íntima del qué, cuándo, dónde y cómo funciona un sistema meteorológico además de comprender la evolución de éste. Sin embargo, a preguntas como el porqué obtenemos respuestas poco convincentes. Este fenómeno fue remarcado hace ya bastante tiempo, en 1977, por el previsor Len Snellman quien advirtió del crecimiento de un “cáncer meteorológico”. Por ello, podemos decir que un buen pronóstico meteorológico es aquel que se basa de manera importante en datos concretos observados y una comprensión clara de cómo todos los procesos que intervienen están ligados.

9.2. El proceso del pronóstico
El proceso del pronóstico se conforma de cuatro elementos claves: la observación, el análisis, el diagnóstico y el pronóstico. La observación es el muestreo de estado actual de la atmósfera. El análisis es el proceso de reunir todas las piezas de observación unificándolas en un solo cuadro como si fuera un rompecabezas. Puede que haya mucho análisis que forme parte del proceso de pronóstico, incluyendo la carta de superficie, los datos del radar y el perfilador de datos. El diagnóstico es la interpretación de esa imagen donde se sintetiza todo el análisis en una sola imagen coherente de la atmósfera. El pronóstico, a su vez, es la técnica en la cual se determina cómo esa imagen cambiará a través del tiempo.

9.2.1..La observación.
El proceso de la observación es sencillo y se aborda con mayor detalle en otros cursos de previsión del tiempo. Aquí la tarea fundamental es colectar y diseminar datos, incluyendo reportes de superficie, observaciones de radiosondas y muestreos de perfiladores. Casi todo este trabajo se realiza por un previsor.

9.2.2. El análisis. El análisis consta de la primera exposición del previsor a las condiciones del área de pronóstico. El análisis es el proceso de estudio y asimilación de los detalles que aparecen en la carta.

El procedimiento metódico del análisis hecho a mano de las cartas meteorológicas es una parte muy importante del análisis en sí mismo, ya que ayuda a extraer los patrones de pronóstico de los datos y por su propio diseño gráfico evita que las zonas de la carta y las características de pequeña escala sean omitidas. No todos los campos de cada carta requieren de cartas meteorológicas a mano ya que esto se puede tornar un proceso muy laborioso de análisis. Por ello, el previsor debe seleccionar uno o dos campos importantes relacionados con el pronóstico de cada carta y darse tiempo para analizarlos a mano. El resto de las isopletas pueden ser trazados en computadora, según sea necesario.

Un hecho preocupante en los últimos años es el uso de campos del modelo de las 00-horas, es decir los campos de variables meteorológicas que se representan en una malla regular. Esto es inaceptable, en especial para el análisis de mesoescala, ya que el previsor está observando una forma particular de los datos que ya están sumamente procesados. De hecho, tales campos se mezclan a menudo con los campos de pronóstico de corridas de modelo anteriores con el fin de proporcionar campos en equilibrio dinámico los cuales son adecuados para la ejecución de un modelo, pero no necesariamente son útiles para un análisis de estructuras de circulación más finas como por ejemplo las que podrían ocurrir en el Valle de México. Esto significa que los detalles importantes de pequeña escala pueden ser omitidos bajo estas circunstancias. En el caso que se realice algún trabajo de pronóstico a escala sinóptica, puede ser aceptable utilizar una combinación de gráficos de datos con los que gráficos automatizados de curvas de contorno de campos de altura DIFAX que distribuye NOAA/NCEP.

Al inicio del proceso de pronóstico, un previsor prudente pone, temporalmente, todos los modelos numéricos y datos en malla regular a un lado y se centra en las herramientas de análisis: gráficos de superficie y de campos de altura, imágenes de satélite, datos de radares, y muchos más. Incluso un proceso tan simple como asomarse a la ventana proporciona pedazos valiosos de información de análisis. El objetivo del previsor debe ser muestrar el estado actual de la atmósfera en todas las maneras posibles para entender los patrones y procesos a través del área de pronóstico, incluso si no se entienden de inmediato. El previsor también intenta evaluar las tendencias de estos patrones y procesos.

9.2.3. Diagnóstico. El proceso de diagnóstico es aquél en donde se combina mentalmente todo el análisis en una imagen unificada del estado actual de la atmósfera. En ese preciso momento, el previsor tiene una visión de la atmósfera en tercera dimensión. A su vez, esta información debe integrarse al conocimento de cómo la atmósfera cambia en las últimas horas o días lo cual produce una comprensión cuatridimensional. Cuando el diagnóstico está completo, el previsor puede explicar qué tipo de estabilidad, masas de aire, y nubes existen ahí, y cuál es su relación con fenómenos como vaguadas, frentes, corrientes en chorro, huracanes, convección local etc.

El diagnóstico no es un proceso separado en sí mismo, sino que aumenta a la par que el previsor completa todo el trabajo de análisis. Si no se logra concretar un diagnóstico, entonces el previsor debe obtener fuentes adicionales de datos para analizar. Si éstas no están disponibles el previsor debe basarse en su experiencia y conocimientos para desarrollar un modelo conceptual de lo que ocurre con el fin de llegar a una visualización precisa del proceso hecho para el área de pronóstico. Finalmente, si no se puede explicar un proceso a escala sinóptica, entonces probablemente lo que ocurre es que un proceso de mesoescala no ha sido bien detectado, requiriéndose un mayor esfuerzo de diagnóstico a esa escala.

9.2.4. Pronóstico. Como se ha dicho anteriormente, la observación, análisis y diagnostico requieren que el previsor este en contacto directo con las fuentes de datos meteorológicos “crudas” de preferencia que no hayan sido influenciadas por el análisis numérico diario disponible en la red. Un pronóstico balanceado (Fig 1a) hace uso de toda la información disponible dando un peso adecuado a cada fuente de información de acuerdo a la experiencia del previsor. Un pronóstico que no está bien balanceado, por el contrario, es el resultado de forzar en forma inadecuada todas las fuentes de información (Fig 1b) para que embonen. Por ello es necesario reconocer que en esta etapa de la prognosis, los métodos para pronosticar el tiempo con precisión sin modelos numérica son de hecho bastante limitados. Para pronosticar correctamente el tiempo, las ecuaciones físicas que rigen el calor, el movimiento y la humedad tienen que ser resueltos a través de un proceso conocido como el modelado dinámico. El matemático L.F. Richardson fue el primero en realmente intentar resolver el pronóstico de esta forma, y le tomó dos años de cálculos de mano para analizar a seis horas un solo caso.

Así es cómo el previsor humano se queda con un pequeño repertorio de técnicas subjetivas de pronóstico, las cuales están basadas en simplificaciones y generalizaciones de los procesos que ocurren en la atmósfera. Estas técnicas incluyen la continuidad, la extrapolación, las técnicas de patrón, los diagramas de árbol, los diagramas de flujo y las reglas de oro (reglas empíricas). Aunque éstas fueron usadas ampliamente hasta los años 60s, son en su mayoría obsoletas hoy en día para pronósticos de escala sinóptica debido a la naturaleza confiable y precisa del modelado numérico. En la mesoescala, donde los modelos están apenas mostrando un grado habilidad para el pronóstico de tiempo, las técnicas subjetivas que resultan de una buena síntesis mental de los procesos de observación, análisis y diagnostico descritos arriba, constituyen todavía en nuestros días una pieza complementaria importante en el desarrollo del pronóstico de tiempo en estas escalas.

Un área donde los humanos sobresalen es en el pronóstico usando diagramas termodinámicos. Si los patrones no son demasiado complejos y el pronóstico es limitado a varias horas en el futuro, una cantidad importante de pronósticos precisos pueden realizarse usando un diagrama termodinámico Skew Log-P. Esto es debido a que los movimientos de burbujas de aire se suponen que son primordialmente verticales. Así, el proceso de convección asociado se apega fuertemente a una serie de supuestos clave, y el diagrama termodinámico indica fácilmente el resultado en términos de fenómenos meteorológicos.

Los modelos numéricos han madurado considerablemente desde su primera aparición. La evolución se ha dado en los sistemas altamente sofisticados de pronóstico. Por su propio diseño, los modelos numéricos por lo general sobresalen en los patrones de gran escala, pero no logran resolver los procesos en pequeñas escalas de tiempo y espacio. Por consiguiente, una parte importante de la tarea del meteorólgo es la aplicación de modelos conceptuales de procesos de mesoescala a la imagen dada por el resultado del modelo. Por ejemplo, un modelo numérico no indica a dónde se encuentra la rama de convección fría dentro de un sistema baroclínico, pero un previsor puede interpretar los campos, buscar las características y comparar los resultados del modelo con los datos de radar para ver si podría haber una mayor influencia sobre la precipitación de lo esperado.

Otra área donde los humanos se destacan, además de los trabajos a pequeña escala, es en los eventos que ocurren en el momento. Es evidente que sería absurdo utilizar modelos para predecir el tiempo que ocurra en un minuto. Basta con que uno analice las observaciones de superficie para hacer eso. Sin embargo, para pronosticar el tiempo a veinte minutos a partir de este momento, un previsor puede analizar todos los datos observados e integrarlos con su conocimiento personal de la meteorología de mesoescala local. Este tipo de predicción de corto alcance es una técnica conocida como pronóstico a tiempo real o nowcasting. Durante las primeras horas, por lo general resulta ser mucho más preciso que los modelos numéricos.

Otro déficit de los modelos numéricos es que no proporcionan el contexto necesario que se puede fácilmente obtener de un análisis exhaustivo y diagnóstico. Por ejemplo, una salida de modelo puede optar por no trazar ninguna precipitación en un área dada. Un previsor que ha diagnosticado los sondeos así como los campos de niveles bajos de humedad, reconocerá el potencial de precipitación para desarrollar y entender qué factores pueden conducir al desarrollo de convección y porqué los modelos podrían tender hacia una visión pesimista. Este tipo de comprensión conduce a un pronóstico mucho más preciso y refinado.

9.3. Conceptos de modelos numéricos. Aunque las ecuaciones de movimiento para la atmosfera y el océano se elaboraron a principios del siglo 20 constituyendo así la base para la predicción matemática del clima, el poder informático simplemente no estaba disponible en aquel tiempo. Los investigadores imaginaban un gran centro de pronósticos lleno de matemáticos que trabajaban en equipo, subdividiendo las partes del rompecabezas atmosférico, haciendo cálculos con las reglas de cálculo y papel, y volviendo a montar los resultados para hacer un pronóstico. Aunque esta idea nunca se consolidó, el desarrollo de las primeras computadoras en los años 40 permitió que se pudieran implementar tareas de manera automática. Los esquemas de predicción numérica se desarrollaron rápidamente y para 1958 el primer pronóstico numérico fue diseminado a los usuarios.

9.3.1. Modelos Dinámicos V.S. Modelos Estadísticos. Los modelos dinámicos simulan la atmosfera físicamente, es decir, echan mano de las ecuaciones que gobiernan los cambios en el flujo del aire, la energía y la humedad (las llamadas ecuaciones “primitivas”) y las resuelven usando diversas técnicas de análisis numérico. También incluyen parametrizaciones de procesos físicos (como la convección) que por sus escalas espaciales y temporales (v.gr. pequeños torbellinos turbulentos de 1 a 10 cm de diámetro, tornados de 10 a 50 m de diámetro, tormentas locales de 1 a 5 km de extensión) no es posible representar o simular. Por otra parte, los modelos estadísticos relacionan las propiedades un sistema con otro sin ocupar ninguna ecuación de la física. Un tipo de modelo estadístico es el llamado modelo “análogo” donde una situación histórica con características similares es usada para hacer un pronóstico. Algunos modelos son una mezcla de modelos dinámicos y estadísticos. Tal es el caso de los llamados MOS (model output statistics) que se basan en modelos dinámicos pero que hacen pronósticos estadísticos a partir de las salidas de los modelos dinámicos. Muchos modelos de huracanes son también estadísticos o híbridos ya que normalmente en el caso de huracanes se dispone de pocos datos observacionales dentro de la tormenta que contengan detalles finos de la convección y que no pueden ser modelados de manera adecuada por un modelo dinámico con las técnicas numéricas de hoy en día.

9.3.2 Dominio computacional. El dominio de un modelo dinámico puede ser tanto global como regional o de área limitada. El dominio global cubre el planeta entero. El modelo de área limitada solo considera una región particular de la tierra como México por ejemplo. El problema con modelos de área limitada es que los sistemas meteorológicos que quedan fuera no pueden ser pronosticados a las escalas espaciales que corresponden al dominio de área limitada. Este problema se alivia hasta cierto punto alimentando en las paredes laterales del modelo con información que proviene de modelos globales. Sin embargo, los pronósticos confiables a escala continental rara vez muestran habilidad significativa mas allá de 48 horas.

9.3.3 Modelos en diferencias finitas y modelos espectrales. Un modelo en diferencias finitas es el modelo más sencillo de visualizar. Los datos son mapeados a una matriz o arreglo de puntos de malla y las ecuaciones “primitivas” que gobiernan el movimiento, la energía y la masa se aplican a estos puntos de malla para producir un mapa de pronostico con todas las variables meteorológicas. El otro tipo de modelo es el modelo espectral. Aquí, la idea es representar todas las variables como una suma de ondas o funciones periódicas (v.gr. senos y cosenos) para toda la esfera que representa el planeta. Después, las ecuaciones gobernantes se aplican a estas representaciones y se proyectan las soluciones del pronóstico a una malla regular. La mayoría de estos modelos espectrales se aplican a dominios globales y solo existen un par de modelos espectrales de área limitada en existencia. En la actualidad la mayoría de los modelos operacionales y de investigación son del tipo de diferencias finitas o alguna variante de esta técnica numérica (volumen finito, elemento finito etc..).

9.3.4 Coordenadas verticales. El desempeño de un modelo depende también del tipo de coordenada vertical que usa. La coordenada vertical más familiar es la coordenada que los meteorólogos usan: la coordenada de presión. Este sistema de coordenadas es usado por modelos simplificados de las ecuaciones primitivas. También se han usado coordenadas verticales basadas en la temperatura potencial: coordenadas isentrópicas. Ambas coordenadas tienen puntos buenos y puntos malos. Los buenos son que simplifican la complejidad matemática de las ecuaciones primitivas y permiten una interpretación sencilla de algunos procesos físicos. Por ejemplo las ecuaciones primitivas escritas en términos de coordenadas de presión permiten interpretar al flujo atmosférico como incompresible y las ecuaciones escritas en términos de coordenadas isentrópicas permiten interpretar de forma sencilla fenómenos tales como intrusiones de aire de la atmosfera libre en la tropopausa durante un evento de frente frio. Sin embargo un punto malo, común a estas dos coordenadas, es que tienen la tendencia a cortar el terreno. Por ejemplo, la superficie de presión constante de 900 hPa necesariamente corre por debajo del Valle de México que está situado aproximadamente a unos 2200 m sobre el nivel del mar. Esto es debido a que en la Cd. De México las presiones medidas van de 750 a 800 hPa en promedio. Estas situaciones provocan un gran desafío numérico si se insiste en usarlas en su forma original. Una variante de la coordenada de presión es la llamada coordenada sigma (σ). La coordenada σ pertenece a una familia de coordenadas que siguen o envuelven las características orográficas del terreno. En la superficie misma el valor de σ es la unidad y permanece constante en tiempo. A otros niveles en altura su valor decrece hasta cero y a medida que se aleja del suelo se va haciendo más horizontal y más parecida a una superficie de presión. De esta forma, los meteorólogos han podido controlar el problema numérico que trae la intersección con el suelo. Los modelos actuales como el RUC, GFS, ECMWF y el WRF usan variantes de este sistema de coordenadas.


9.4.   Ligas


9.5. CUESTIONARIO



9.6. Referencias