O ENIAC e a primeira previsão do tempo – Parte 2



Hoje vamos continuar a falar sobre a previsão do tempo numérica até o desenvolvimento dos supercomputadores. Essa é uma série de posts que começou na semana passada (veja a parte 1) e eu ainda não sei quantos posts teremos. Quando for post final, vocês serão avisados.

Então vamos continuar.

O ENIAC foi o primeiro computador criado para várias finalidades, por isso é considerado o primeiro computador. Cortesia de Shutterstock

Período entre Richardson e o ENIAC : 1920-1950

No post anterior vimos eram as previsões do tempo antes dos computadores e sobre como a Meteorologia não era exatamente uma ciência exata, dependendo em muito da experiência e da intuição do previsor. Claro, conhecer climatologia da região e peculiaridades sobre a localidade ajudavam a prever o tempo para aquele local. E é dessa forma que ainda hoje muitos agricultores preveem o tempo: usando como base todo conhecimento empírico obtido por viver anos e anos no mesmo local e dependendo da terra para sobreviver. Vimos também como Richardson e outros mostraram que era possível prever o tempo usando equações que descrevem a atmosfera e a Meteorologia passou a ser uma ciência exata. Porém entre o trabalho de Richardson e o ENIAC temos aí um período de quase 30 anos.

Antes da era dos computadores, a previsão do tempo era imprecisa. A análise do estado geral da atmosfera não era uma tarefa fácil, principalmente devido a falta de uma rede ampla de observações e nesse momento. As observações eram esparsas e irregulares, principalmente na alta atmosfera e sobre os oceanos.

O trabalho de Richardson e dos outros mencionados anteriormente era considerado muito teórico e muito pouco era utilizado cotidianamente no trabalho dos meteorologistas da época. Embora muito da física já fosse compreendido, não era prático e nem viável ficar fazendo tantas contas para as operações do dia a dia. Lembre-se, não havia computadores então muito provavelmente a previsão feita para daqui 6h, por exemplo, não ficaria pronta em um tempo hábil.

A previsão do tempo antes dos computadores era algo muito casual, impreciso e pouco confiável. Os previsores usavam técnicas simples de extrapolação, conhecimento da climatologia local e palpite baseado em intuição. A previsão do tempo na verdade estava mais para arte do que para ciência. As observações de pressão e outras variáveis eram plotadas em mapas de maneira simbólica e então linhas eram traçadas de modo que os padrões dos sistemas meteorológicos iam aparecendo: as altas pressões, baixas pressões, cristas, cavados, etc. O previsor tinha que ter uma excelente memória, como comentamos anteriormente, pois isso o ajudava a comparar a situação de um determinado momento com outro do passado. Era um trabalho extremamente empírico e o previsor ia melhorando sua performance com a experiência ao longo de vários anos de trabalho. Para ser justa, ainda hoje é assim, embora bem menos porque com a presença do computador é possível arquivar informações do passado e obtê-las de maneira bem rápida para fazer as devidas comparações.

Algo que marcou certamente o período de 1920-1950 foi a Segunda Guerra Mundial e isso impactou no desenvolvimento da Meteorologia. Bom, recentemente escrevi  sobre uma estação meteorológica nazista encontrada no Ártico e mencionei como as operações militares dependem também da Meteorologia para para que sejam bem sucedidas. Em escolas do Exército, da Marinha e da Aeronáutica inclusive há cursos de Meteorologia, já que esse é um saber estratégico. O caso mais icônico certamente é a Operação Overlord – a invasão do Dia-D, que foi discutida pelo Vinícius nesse post.

Durante a Segunda Guerra Mundial, o meteorologista sueco Carl Gustav Rossby (falei dele aqui) era instrutor em treinamentos dados para meteorologistas norte-americanos. Esses treinamentos deram tão certo que a comunidade meteorológica cresceu nos EUA durante esse período: de 400 profissionais foi para 6000 profissionais {x}. E muitos desses novos formados eram altamente capacitados em matemática e física, o que certamente possibilitou o desenvolvimento da previsão do tempo numérica.

O ENIAC

Acho que vale a pena ler esse post, antes de prosseguir.

O ENIAC (acrônimo para Eletronic Numerical Integrator and Computer) foi comissionado pela U.S. Army (Exército dos Estados Unidos) para calcular a dinâmica de projéteis. Os principais designers do ENIAC foram John Mauchley e Presper Eckert. No entanto, reza a lenda que Mauchley não tinha todo esse interesse militar, na verdade ele tinha um “plano secreto” de usar o ENIAC para fazer previsão numérica do tempo.

A construção do ENIAC foi concluída em 1945 e foi o primeiro computador eletrônico para propósitos gerais a ser construído. E ele era gigante, como mencionei nesse post:

O ENIAC (Electronic Numerical Integrator And Computer) foi o primeiro computador criado para várias finalidades, por isso é considerado o primeiro computador.  Ele pesava 27 toneladas, tinha dimensões aproximadas de  2.4 m × 0.9 m × 30 m, ocupava uma área de 167 m2 e consumia 150 kW de eletricidade.

Além das informações acima, o ENIAC contava com 18.000 válvulas termiônicas (era assim na era pré-transistor). Ele era colossal. Para inserir informações no ENIAC, usava-se cartões perfurados e da mesma maneira a informação era devolvida (o output). Ou seja, nada de monitores e nada de entrada de dados do jeito que estamos habituados atualmente.

John Von Neumann (o marido da Klara Dan Von Neumann) percebeu que a previsão do tempo seria um problema prático de interesse científico e que o ENIAC poderia contribuir com a resolução das equações que descrevem a atmosfera. John Von Neumann tinha contato com Rossby, que provavelmente o estimulou e deu subsídios teóricos para que sua ideia pudesse ser colocada em prática.

John Von Neumann então ajudou a criar um Projeto de Meteorologia no Institute for Advanced Study em Princeton e recrutou Jule Charney para liderar o projeto. Foram feitos os principais arranjos e organizações para que uma equação relativamente simples, a equação da vorticidade barotrópica (que os meteorologistas aprendem na graduação, no curso de Meteorologia Dinâmica) fosse resolvida no ENIAC. E aqui entra o papel de Klara Dan Von Neumann, que era uma das principais programadoras do ENIAC.

Os modelos barotrópicos (que usam a equação da vorticidade barotrópica, que mencionei anteriormente) tratam a atmosfera como uma camada única, como uma média de todas as variações verticais. E claro, isso faz com que o tempo de computação seja menor. E mesmo assim, levou mais de 24h para que o ENIAC fizesse uma previsão para 24h. Para fins mundanos, a previsão do ENIAC não servia para nada, pois de nada adianta prever algo que já passou. Porém para fins científicos, era um progresso espetacular, uma promessa de que no futuro esse tempo de computação poderia ser reduzido. E claro, como sabemos hoje em dia, foi o que aconteceu.

Foram feitas então 4 previsões para as próximas 24h e foi constatado que era possível prever movimentos atmosféricos de grande escala da média troposfera com uma razoável semelhança com a realidade.

As condições iniciais para esse modelo barotrópico foram fornecidas pelo U. S. Weather Bureau, todas preparadas manualmente. Imagine só inserir todas essas informações em cartões perfurados, era um trabalho enorme e um trabalho para várias pessoas! Por isso imagino que várias pessoas acabaram esquecidas, porém contribuíram grandemente para esse enorme salto na previsão do tempo.

Esses testes deram origem ao icônico artigo Numerical Integration of the Barotropic Vorticity Equation,  de autoria de Jule Charney, Ragnar Fjörtoff (meteorologista norueguês do Det Norske Meteorologiske, Oslo, Norway) e John Von Neumann. Klara, infelizmente ficou fora desse artigo que é conhecido por muitos estudantes de Meteorologia (lembro de tê-lo estudado no último ano do meu curso, na disciplina de Métodos Numéricos de Previsão do Tempo).

O sucesso das previsões do ENIAC deixaram toda a comunidade científica (em especial os meteorologistas) totalmente animados. Nos anos seguintes, vários modelos meteorológicos foram desenvolvidos. E claro, naturalmente a coisa toda foi se aperfeiçoando. Logo surgiram os modelos baroclínicos (que levam em conta vários níveis ou várias camadas na atmosfera) e todos eles eram baseados no sistema quasi-geostrófico. Mais tarde, modelos usando equações primitivas foram se desenvolvendo, dando forma ao que utilizamos hoje.

Nos posts seguintes, falaremos de como as coisas evoluíram nas décadas seguintes. Como eu disse para vocês, minhas pesquisas deram origem a um material bastante extenso, então decidi ir “quebrando” o texto. Espero que estejam gostando dessa série.

 

Bibliografia 

Além dos links mencionados ao longo do texto, recomendo os seguintes links com materiais que utilizei nessa pesquisa.