, trouxemos algumas considerações sobre quão difícil é estimar exatamente este parâmetro, como também fizemos uma breve discussão da sua real significância para definir qualquer coisa que seja em climatologia, especialmente quando tratamos do planeta inteiro, como pretende a proposta hipotética.
Além disso, também fizemos uma breve explanação dos três modos, digamos, de se obter “informações” sobre temperatura, empregados no último meio século que envolveram: 1) as possíveis séries de dados das Estações Meteorológicas de Superfície (EMS); 2) as séries de estimativas de temperaturas obtidas na Era dos Satélites, que tiveram por início sistemático o ano de 1978, mas que militarmente já operavam neste propósito desde 1972; e 3) as supostas temperaturas que seriam registradas no decorrer do tempo, obtidas por modelos computadorizados de clima. Portanto, deste último saiu a ressalva de afirmarmos que são informações e não exatamente dados para todos os três casos envolvidos, pois a última série envolve cenarização ou conjecturas.
Pois bem, tudo começou com uma postagem do Prof. Ph.D. William M. Briggs em seu sítio do Instituto Independente, em 24 de janeiro de 2024, onde acalmou bem os ânimos, dizendo: “Boas notícias! O clima é muito melhor do que o previsto. Agora podemos nos acalmar!”. Briggs é bacharel, não só em meteorologia, mas também em matemática. É mestre cientista em meteorologia e Ph.D. em matemática, além de autor de diversos livros, incluindo Quebrando a Lei das Médias: Probabilidades e Estatísticas da Vida Real, e Incerteza: A Alma da Modelagem, Probabilidade e Estatística. Também é dele, junto de Soon e Legates, a façanha de derrubar o falso consenso trazido por Bedford e Cook de que 97% dos cientistas teriam culpado a humanidade pela existência de um suposto “aquecimento global”.
A publicação de Briggs quis acalmar a imensidão de pessoas que tem se alarmado com a absurda e inexistente crise climática ou “emergência climática” que se baseia em um fadado e único parâmetro, já exaustivamente explicado e desqualificado: a “temperatura do ar média global”. Além de explanar isto de forma quase anedótica, ressaltou temas mais sérios, como a definição de políticas públicas energéticas globais, baseadas nesta extremamente abstrata variável meteorológica que, como já ressaltamos, não indica ou define nada sobre o clima, ainda mais algo que envolva todo o planeta.
A comemoração de Briggs está baseada no recente artigo científico publicado pelo aniversário dos 50 anos da The Heritage Foundation. Trata-se do artigo do professor Ph.D. Roy W. Spencer intitulado “Aquecimento Global: Observações X Modelos Climáticos”. Nele, Spencer realizou uma comparação justamente dos três conjuntos que mencionamos na primeira parte deste artigo, relacionando, ano a ano, os padrões apresentados pelos dados disponíveis de toda a série de registros das Estações Meteorológicas de Superfície, os quais trariam uma relevância bastante similar ao mundo real, tendo em vista que foram medições diretas de temperatura do ar; a série dos registros de temperaturas estimadas por sensoriamento remoto dos satélites, a qual engloba o resultado dos processos dentro da troposfera; e a última série, o que os modelos climáticos simularam que iria ocorrer com esta mesma variável.
Vale lembrar que Spencer realiza pesquisas científicas sobre como cientista pesquisador principal na Universidade do Alabama em Huntsville (UAH) e que foi cientista sênior de estudos climáticos na Nasa. Como meteorologista por formação, publicou pesquisas sobre uma ampla variedade de problemas climáticos e meteorológicos, mas a sua especialização, junto de John Christy, também do UAH, foi monitorar as temperaturas estimadas pela agitação das moléculas pelos processos meteorológicos atuantes na troposfera. Ambos são considerados os desenvolvedores desta metodologia, amplamente empregada pelos sensores embarcados nos satélites orbitais. Spencer fez mestrado e doutorado com o Prof. Verner Suomi, o “Pai da Meteorologia por Satélites”.
Os resultados do estudo mostram que o aquecimento global é uma falácia
E, afinal, quais foram os resultados após 50 anos de dados obtidos por essa metodologia satelital, quando comparados aos valores de temperatura do ar de superfície das estações meteorológicas e o que os modelos climáticos computacionais “decidiram” que seria? Pois bem, aqui está a nossa primeira resposta trazida por Spencer: “O aquecimento do sistema climático global ao longo do último meio século foi, em média, 43% inferior ao produzido por modelos climáticos informatizados utilizados para promover mudanças na política energética”.
O que Spencer declarou, usando os dados e as informações já publicadas, em outras palavras, é que os modelos climáticos computacionais têm, sistematicamente, “esquentado” muito mais a Terra do que de fato ela esquentou! E esta bobagem computadorizada, a simulação da Terra da fantasia, tem direcionado todas as políticas públicas energéticas em escala global! Não só isto, como também pretendem definir políticas públicas de espectro mais amplo, como o uso da natureza, a produção industrial e, a mais alarmante de fato, a produção de alimentos, sempre envolvendo todo o planeta e suas nações.
Spencer pesquisou 36 modelos, o grupo conhecido como núcleo duro, ou os que teriam mais “fiabilidade”. Todos eles aqueceram em demasia o planeta, não correspondendo com a realidade observada e é este o principal aspecto do que envolve a aplicação de modelos. Eles precisam ser validados com a realidade e não estamos falando apenas de clima, mas de qualquer tipo de modelo criado pelo homem, pois modelos são sempre representações simplificadas e imperfeitas de uma realidade muito mais complexa, fora do alcance da percepção humana.
Então, se o modelo não condiz com o que se observou no mundo real, claramente ele precisa ser repensado, reajustado ou até mesmo descartado. Como os modelos climáticos trabalham com forçantes radiativas, sendo o gás CO2 o seu principal protagonista e simulam, através dele, um “efeito estufa”, algo que não é verificável como fenômeno físico atuante na atmosfera, claramente todos eles têm errado sistematicamente. Ademais, são mais de 120 modelos em atuação no presente estado da arte climática, como seus usuários mesmos os definem. Eles simulam cenários de todos os tipos, mas sempre baseados na premissa errada, especialmente porque todos os modelos não sabem simular os entes naturais mais importantes para o clima e sua influência, como o Sol, os oceanos, as nuvens e os vulcões e suas interconexões, por exemplo.
Spencer, que entra na categoria dos “céticos moderados”, diz que, em teoria, embora a causa do aquecimento relativamente benigno da temperatura do ar no planeta possa ser atribuído inteiramente à produção humana de CO2 por queima de combustíveis, ele ressalta que essa afirmação não pode ser comprovada pela ciência. Isto deixou um buraco enorme na dita “certeza científica”, derrubando os 95% de probabilidade de sua origem ser antrópica, como alega o IPCC, mídia e ONGs engajadas no discurso ambientalista infundado, cujo propósito foi utilizar isto como justificativa para se obter uma legislação internacional sobre o carbono.
O ponto-chave do relatório de Spencer
Uma das partes notórias do relatório de Spencer, quando tratamos de validar os modelos climáticos computadorizados, é que eles não conseguem simular as causas do conhecido Período Quente Romano, há cerca de 2 mil anos,; o Período Quente Medieval, por volta de mil anos; e a recente Pequena Idade do Gelo, de poucos séculos atrás. Em outras palavras, além dos modelos não conseguirem identificar as causas naturais dos eventos, pois não conseguem compreendê-las em seu âmago (mecanismos, causas, consequências) ainda descartam que isto possa estar exatamente ocorrendo no período final do século 20 e início do 21.
Por isto que devemos lembrar que a saída do século 19 já sinalizou o “aquecimento” que tanto alardeiam, pois encerrava-se um período frio. Assim, se pegarmos a menor e maior temperatura do ar registradas em toda a série, elas diferem de 1,5oC, ou seja, se os pontos extremos da série já têm essa variação, todo o resto da história termométrica está dentro desta faixa e, portanto, não há nada de crítico aqui. São apenas as flutuações comuns do clima, muito mal sinalizadas pela temperatura, diga-se de passagem.
E por que desacreditamos em tais modelos? Literalmente Spencer relata o que se explicou muitas vezes:
“O grande número de modelos climáticos produziu taxas de aquecimento global que variaram em cerca de um fator de três entre elas (1,8oC a 5,6oC, em Gerald A. Meehl e outros) como resposta a uma duplicação do CO2 atmosférico (2 vezes a taxa de CO2). Em 2023, a atmosfera da Terra estava a cerca de 50% do caminho para duplicar o CO2. Surpreendentemente, este intervalo para o fator de três das projeções de aquecimento não mudou nos mais de 30 anos de melhorias no modelo climático. Isto prova que as previsões dos modelos climáticos não são, como muitas vezes se afirmam, baseadas em física comprovada. Se fossem, todos produziriam aproximadamente a mesma quantidade de aquecimento.”
Em outras palavras, a tal física não comprovada é justamente tratar a atmosfera da Terra (troposfera) como uma estufa, especificamente onde o CO2 é seu agente precursor. Como sempre alertamos, quando os modelistas chegam à conclusão de que as temperaturas só aquecerão 1,0oC ou menos, eles têm seus trabalhos descartados, mas quando elas sobem bastante, lá estarão as provas do “aquecimento global” causados pelos humanos. Como podem ter resultados tão díspares utilizando as mesmas metodologias? Pura seleção de ajustes!
Assim, quando colocamos os três conjuntos em comparação, em primeiro lugar em grande aquecimento estão os modelos climáticos computadorizados, que esquentam o planeta muito mais do que ele mesmo. Em segundo lugar, em quase empate com os satélites, estão as medições de temperatura das séries temporais de superfície que tomam esta posição muito mais por causa de interferências urbanas sobre os instrumentos e sítios das estações do que uma alteração significativa climática propriamente dita. Elas também não cobrem uma amplitude maior do globo terrestre, especialmente regiões frias. Finalmente estão as medições de satélites que, desde 1973, fazem inferências da temperatura do ar utilizando os processos meteorológicos da troposfera.
Nestes 50 anos, as estações meteorológicas, embora apresentem uma sensibilidade maior (medições in situ – no local), ficaram muito próximas da variação apresentada pelas medições de satélites que registraram um valor levemente mais baixo. Em geral, isto se deveu a quatro fatores: a redistribuição de energia entre trópicos e polos, pois esta apresenta fases temporais de longa duração; um ligeiro melhor rastreamento dos satélites sobre os trópicos que os polos; uma cobertura maior de tomada de dados das regiões frias, quando comparada aos dados das EMS; e pela maior interferência nas medições da superfície dos oceanos e desertos.
A manipulação de dados
Lembrando que não estamos considerando outras polêmicas muito bem fundamentadas, como a manipulação de dados das séries das estações meteorológicas, tanto durante o período de aquisição, quando de consolidação de dados, bem como o encerramento de milhares de séries de dados após o ano de 1990 por todo o mundo, incluindo o Brasil da era Collor. Com essa manobra, os satélites passaram a ser os principais instrumentos de avaliação destas temperaturas, retirando o acesso à informação direta de qualquer cidadão. Seus dados são armazenados em instituições espaciais nacionais, onde o acesso aos registros primários é bastante tortuoso e não há garantias de que não sejam retrabalhados antes de serem divulgados, especialmente quando avaliamos os discursos de vários dos diretores destes programas espaciais, todos alinhados à causa climática ambiental. Sim, eles têm nosso voto de desconfiança, mas todos esses assuntos necessitam de uma explicação mais densa para melhor embasamento. Contudo, fica claro que o controle desta informação está monopolizado e passou a ser utilizado como arma geopolítica há tempo.
Finalmente, chegamos aos resultados. A variação dos valores no mundo real continua sendo esdrúxula. Se na mudança da fase fria do século 19 para a fase “quente” do fim do século 20 tivemos uma amplitude máxima de 1,5oC, o cerne da variação total das estações meteorológicas está em torno de 0,7oC em 50 anos. Os satélites, neste mesmo período de Jubileu de Ouro (1973-2023), oscilaram entre 0,6 a 0,9oC, mas os modelos concentraram seu núcleo de simulações, iniciando, no mais conservador, em 1,5o e chegaram a extrapolar os 3,0oC, quando não muito mais (de 5,6 a 8,0oC para 2100). Em outras palavras, o mundo “aqueceu” menos de um terço do que os modelos alarmistas disseram que iria acontecer.
Só por este fato, deveríamos desqualificar imediatamente esta dita “ciência climática” que teima em nos empurrar sua hipótese, através de simulações realizadas em modelos climáticos, sem a devida comprovação científica empírica. Também caem em descrédito pessoas como António Guterres, atual secretário-geral da ONU e ex-primeiro-ministro de Portugal, quando faz suas declarações alarmistas de que vivenciamos uma “ebulição climática”, ao mesmo tempo em que é fotografado vestindo um casaco pesado e sobretudo típico de invernos rigorosos do Hemisfério Norte, em especial este de 2023-2024.
Além de todas estas explanações, ainda nos perguntamos como, após 50 anos, a sociedade se subjuga a esta impostura climática, travestida de compromisso ambiental que tem tratado a humanidade como uma ameaça ao planeta? Como isto ainda ecoa por todos nós como um problema, especialmente inventando que estamos no tal “ponto sem volta”, quando a ciência climática real nos tem mostrado que nunca existiu tal situação na história geológica do planeta? Contudo, nesta disputa Realidade versus Ficção, entendo que a principal pergunta que insistem em não fazer é: se a Terra esquentou menos que os modelos “previram”, quem está errado, o planeta ou os modelos?
Fonte: revistaoeste