• Branca Ícone LinkedIn
  • Branco Facebook Ícone
  • Branca ícone do YouTube
  • Branca Ícone Instagram

CONTATO

© 2019 Saturno V Todos os direitos reservados. O Saturno V não comercializa nem distribui cotas de fundos de investimento ou qualquer outro ativo financeiro, fornecemos licença de uso do sistema automatizado. 

UMA ABORDAGEM CIENTÍFICA ÀS QUEIMADAS NA AMAZÔNIA

Por Hindemburg Melão Jr

 

Hoje o amigo André Gambaro publicou uma excelente postagem com análise feita por Cristiano Oliveira a respeito das recentes queimadas na Amazônia. Esta é a melhor análise que vi até o momento sobre a recente questão das queimadas na Amazônia. O texto integral de Cristiano de Oliveira, com gráficos e tabelas, pode ser encontrado em seu perfil:  
  
André Gambaro é sócio do Saturno V desde 2009, Mestre em Matemática Aplicada pela Unicamp, especialista em Algoritmos para Otimização, foi gerente e consultor sênior na Ernst & Young. 
  
https://www.facebook.com/andre.gambaro.7 
   
Cristiano de Oliveira é professor universitário, está concluindo seu doutorado em Economia pela UFRGS e obteve seu mestrado em Economia pela FGV, é atualmente Chief Economist no banco Fibra e já atuou como Chief Economist nos bancos Safra e Schahin. 
 
https://www.facebook.com/cristiano.oliveira.7528 
   
Transcrevo a seguir o texto de Cristiano (texto em preto) com meus comentários (meus comentários em azul). 
 
 
QUEIMANDO OS NÚMEROS – por Cristiano Oliveira

Eu sou leigo em questões ambientais. Mas, como cidadão que acompanha os meios de comunicação e as redes sociais estou ciente de que há uma campanha para salvar a Amazônia das queimadas, que segundo estas postagens, teria alcançado níveis inéditos neste ano. Quando li isso, pensei que seria uma hipótese relativamente fácil de se testar se houvessem dados disponíveis e que se isto está sendo afirmado por “especialistas” é porque eles devem acompanhar a série e devem ter evidências robustas para as suas afirmações, que aparentemente geraram as manchetes que já atravessaram o mundo. Esta situação como todos sabem pode inclusive ter consequências econômicas, tais como sanções por parte de países desenvolvidos. Logo, fica evidente que se trata de um assunto sério com consequências ambientais e econômicas relevantes. 
 
No entanto, surgiu na minha linha do tempo do Facebook uma série mensal com os focos de queimadas monitorados pelo INPE. Como trabalho com séries de tempo não resisti a tentação de fazer uma breve análise com estes dados. Já adianto que vou utilizar conceitos que leigos em econometria de séries de tempo desconhecem. Mas, quero ser mais formal do que o que vem sendo escrito nos jornais. Para quem não conhece econometria, recomendo focar nas conclusões.

Os objetivos da análise são modestos. O primeiro deles é saber se a série é estacionária ou não. Isto permite saber como a série (focos de queimadas) reage a choques. Se a série é estacionária, choques não possuem efeitos permanentes, assim, mesmo que estivesse ocorrendo um pico de queimadas neste momento, a série retornaria para a sua média daqui alguns períodos. 
 
Se a única informação disponível sobre a série temporal fossem os dados brutos, sem conhecer a proveniência e a natureza desses dados, não haveria como fazer tal inferência. Mas sabendo que se trata de número de focos de incêndios numa floresta, então não se pode assegurar que “choques não possuem efeitos permanentes”, tal como foi afirmado acima. 
 
Nos casos de órbitas planetárias, por exemplo, ou de asteroides, ou de cometas, pode-se observar movimentos sazonais muito regulares durante longos períodos (milhões de anos), mesmo sofrendo várias perturbações. De repente ocorre uma perturbação, e mesmo que não seja maior que a média das perturbações anteriores, isso pode fazer com que um asteroide que possuía órbita fechada (elíptica) escape (passe a ter órbita hiperbólica) do sistema estelar ao qual ele “pertencia”. Ou um cometa que tinha órbita aberta (hiperbólica) pode ser “capturado” e passar a descrever uma órbita fechada. 
  
Os asteroides em ressonância de 1:1 com alguns planetas, conhecidos como “quase-sattelites”, são exemplos mais marcantes, que podem descrever órbitas aproximadamente estáveis durante centenas de milhares de anos, até que, repentinamente podem mudar dramaticamente de trajetória e deixar de manter ressonância de 1:1 com o planeta. 
  
Em processos estocásticos, pequenas perturbações podem causar grandes mudanças na evolução do sistema. As órbitas planetárias são exemplos muito claros disso, porque durante milhões de anos podem descrever movimentos sazonais e causar a ilusão de que isso nunca mudará, mas eventualmente, uma perturbação pode evoluir para um cenário muito diferente. 
  
Por isso não se pode afirmar que após a ocorrência de um outlier numa série temporal, seja ela estacionária ou não, o comportamento da série voltará a assumir aproximadamente os mesmos parâmetros anteriores à perturbação. Antes de se chegar a tal conclusão, seria necessário ter mais informações sobre o sistema. 
 
Nesse caso específico, estamos lidando com uma floresta que cobre uma área finita e que desempenha um papel relevante na preservação do equilíbrio ecológico de um planeta também finito. Por isso, dependendo da magnitude da redução na área dessa floresta e da rapidez que isso acontece, pode não ser possível restabelecer as condições anteriores, a menos que haja intervenções estratégicas para isso. 
 
Digamos que o ritmo de desmatamento seja de 1% ao ano e a regeneração da floresta seja algo como 1,010101% ao ano. Se a floresta tivesse exatamente 5.000.000 km^2 e perdesse 1%, ficaria com 4.950.000 km^2. Em seguida, após se regenerar 1,010101% ela voltaria exatamente ao tamanho anterior, porque 1,010101% de 4.950.000 km^2 representa os mesmos 50.000 km^2 que haviam sido desmatados. Com isso, se conserva o equilíbrio a longo prazo, mantendo aproximadamente mesma superfície total. Pode haver pequenas oscilações nestes 1% e 1,010101%, desde que a média a longo prazo seja adequada para manter o equilíbrio. 
 
Agora suponhamos que em meio a esse ciclo ocorra uma perda de 3%. Isso fará com que a superfície total fique menor e a regeneração anual deixe de ser suficiente para restabelecer o tamanho original. Além disso, como a superfície ficará menor, se o ritmo de regeneração se mantiver o mesmo, isto é, de 1,010101% ao ano, como agora o tamanho é 97% do anterior, isto é, 4.850.000 km^2, então os 1,010101% ao ano de regeneração representa 48.989,9 km^2 por ano, que é insuficiente para repor os 50.000 km^2 desmatados por ano. Isso significa que no ano seguinte a floresta ficará ainda menor, porque o ritmo de desmatamento continuou 50.000 km^2 por ano, e no ano seguinte será ainda menor, e assim sucessivamente. Nesse cenário haverá uma redução progressiva na superfície da floresta, a menos que seja adotada alguma estratégia para reduzir o ritmo de desmatamento até que a área reduzia tenha tempo suficiente para se restabelecer, ou adotar alguma estratégia para acelerar o ritmo de regeneração, ou alguma medida equivalente. Se nenhuma medida for adotada, a floresta prosseguirá diminuindo inexoravelmente até a extinção. 
 
Outro ponto muito importante a ser considerado é que não há diferença se a média de desmatamento do último ano ou do último mês é menor que a média histórica. O que importa é se o ritmo de desmatamento está respeitando o ritmo de reflorestamento, para evitar que seja causado um desastre ecológico de proporções planetárias. Um evento isolado, como este ocorrido em 16/8/2019, não deve ser motivo para pânico, nem usado como instrumento de manipulação política para qualquer dos lados, mas um episódio assim é importante lembrar que talvez o ritmo de desmatamento esteja excedendo o ritmo de reflorestamento, e alertar que algo precisa ser feito para conter esse processo, de modo a configurar um ritmo sustentável de exploração dos recursos, assegurando o desenvolvimento industrial e tecnológico, mas sem comprometer o Meio Ambiente de forma irreversível. 

  
Antes disso, é importante salientar que eu retirei a sazonalidade da série utilizando a metodologia do X12 ARIMA (é a mesma utilizada para o PIB americano). 
  
Visitei o link do INPE citado no artigo, baixei os dados e fiz uma análise que me pareceu razoavelmente adequada para atenuar a sazonalidade: em primeiro lugar, usei os logs dos números de focos de queimadas, em vez de usar os próprios números. Em seguida, calculei média e desvio-padrão dos logs mensais. Depois subtraí de cada data a média histórica do respectivo mês e dividi pelo desvio-padrão para o respectivo mês. Não é um método muito adequado, por vários motivos, mas minimiza algumas distorções que poderiam ocorrer se fossem utilizados os números de focos, em lugar dos logs desses números. O resultado é o gráfico abaixo: 
 
G1

 

Esse gráfico apresenta algumas similaridades e algumas diferenças em comparação ao apresentado por Cristiano Oliveira, em parte porque ele selecionou o período de 2003 a 2019, enquanto usei todo o histórico disponível no INPE desde 1998: 
  
G2

 

No primeiro gráfico, podemos observar uma aproximada estacionariedade entre 1998 e 2001, seguida por uma tendência de alta entre 2001 e 2004, uma tendência de baixa de 2004 a 2008, e finalmente uma aproximada estacionariedade de 2008 a 2019. 
 
No segundo gráfico, podemos observar uma tendência de baixa de 2003 a 2008 e uma aproximada estacionariedade de 2008 a 2019. Neste segundo gráfico a hipótese de uma tendência quadrática desde 2003 até 2019 não pode ser descartada, em parte devido aos outliers ocorridos em agosto e setembro de 2010, mas quando se elimina estes outliers, fica claro que a hipótese de estacionariedade é comparativamente mais adequada para o intervalo de 2008 a 2019. 
 
Nesse aspecto, os dois gráficos estão semelhantes no mesmo período. Porém quando se considera os picos, há uma diferença muito grande entre o primeiro e o segundo gráfico. No primeiro gráfico podemos observar que em março de 2019 foi atingido um pico histórico, o maior dos últimos 15 anos. No segundo gráfico esse mesmo pico de março de 2019 fica abaixo de outros mais recentes. Essa diferença se deve ao fato de que a abordagem que dei ao problema é mais útil para inferências relacionadas à probabilidade de ocorrências de eventos acima de determinada magnitude. A abordagem do Cristiano é mais útil para inferências em números absolutos.  
 
Um detalhe importante a observar é que a evolução no número de focos de queimadas ao longo do tempo não parece ser independente do tempo, portanto, não se trata de uma série estacionária nem de uma série em tendência determinística. Os números de queimadas de dois meses consecutivos (mesmo depois do ajuste sazonal) são muito mais semelhantes entre si do que se forem comparados dois meses sorteados ao acaso. Isso provavelmente se deve ao fato de que variações climáticas, especialmente de umidade e temperatura, não ocorrem abruptamente. Em geral, essas mudanças são graduais, e o número de focos de incêndios provavelmente se correlaciona com estas mudanças. Esse detalhe aparentemente pequeno cria uma série de dificuldades na abordagem estatística do problema, porque séries não-estacionárias são mais difíceis de serem analisadas, por isso geralmente as séries originais passam por transformações que as torna estacionárias pelo menos até segunda ordem, para que então sejam tratáveis por maior número de ferramentas estatísticas. Mas, nesse caso, o que se observa é que mesmo depois das transformações que tentam suprimir a sazonalidade, os valores das variáveis próximas no tempo mostram-se mais dependentes entre si do que variáveis mais afastadas no tempo. Essa é uma propriedade que não deveria estar presente numa genuína série estacionária, portanto, ainda que testes de estacionariedade tenham indicado (dentro dos limites de senbilidade que tais testes permitem) que essa seja uma série estacionária entre 2008 e 2019 e com tendência determinística entre 2003 e 2008, na verdade ela não atende aos quesitos necessários para que seja classificada como estacionária nem como sendo uma tendência determinística. 
 
Uma tendência determinística deveria ser homoscedástica e os valores da variável deveriam oscilar gaussianamente em torno de uma reta com inclinação constante, ou em torno de uma curva na forma de segmento de parábola. Como os dados não são suficientemente numerosos e acurados para que se possa distinguir entre um segmento de parábola e qualquer outra curva, esse quesito não tem tanta importância. Mas o ponto crucial é que numa série estacionária os valores de duas variáveis consecutivas no tempo precisam ser tão diferentes entre si quanto os valores de duas variáveis sorteadas ao acaso em quaisquer pontos do tempo. Mas isso não acontece com o número de queimadas. Além disso, as oscilações para cima e para baixo não se repetem a intervalos regulares, o que dificulta tentar minimizar esse efeito por meio de transformações que não criem novos vieses. 
 
Embora seja um problema conceitualmente importante o fato de a série não ser verdadeiramente estacionária nem uma tendência determinística, isso não compromete significativamente o resultado das análises. Isso apenas dificulta a determinação precisa das datas nas quais começam e terminam as tendências, que poderiam ser identificadas com incerteza de poucos meses (2 a 4 meses), mas devido a isso acabam sendo identificadas com incerteza de vários meses (8 a 15 meses). Também é importante frisar que isso nada tem a ver com estacionariedade estrita. A estacionariedade estrita ocorre quando todos os momentos da distribuição dos valores das variáveis são iguais aos de uma distribuição normal, o que quase nunca se observa no mundo real. O problema nesse caso é outro. O problema é que as variáveis consecutivas não são independentes mesmo depois de se tentar suprimir a sazonalidade, e o nível de dependência entre as variáveis é notório.  
  

Esta série, como era de se esperar, tem um forte componente sazonal com picos nos meses de agosto e setembro de cada ano. 
 
De fato, a sazonalidade é muito nítida, conforme se pode observar no gráfico abaixo, o que torna os dados quase intratáveis se a sazonalidade não for suprimida: 
 
G3

 

Fiz o teste aumentado de Dickey-Fuller (ADF) e a especificação que melhor se ajustou (menor critério de informação) é de que se trata de uma série estacionária na tendência. 
  
Entre os testes de estacionariedade, o Dickey-Fuller é um dos mais simples, menos informativos e mais sujeitos a apresentar resultados enviesados, conforme analisaremos a seguir. Uma das limitações desse teste é assumir que se tem uma sazonalidade invariável, o que é uma hipótese razoável nesse caso específico, mas poderia não ser, tal como ocorre com os ciclos de manchas solares, por exemplo, que duram aproximadamente 11,2 anos, mas essa duração pode apresentar oscilações. Outra limitação é que Dickey-Fuller verifica se a série inteira atende aos critérios testados, mas não estratifica a série em trechos, alguns dos quais podem atender aos critérios, enquanto outros trechos podem não atender. Por isso teria sido preferível o teste Priestley-Subba Rao ou wavelets, que em vez de determinar se a série temporal inteira é estacionária, avalia localmente quais intervalos se comportam como estacionários e quais apresentam sinais de tendência, além de não assumir nenhuma sazonalidade a priori, tentando extrair essa informação dos próprios dados. 
 
Muito mais útil do que simplesmente classificar dicotomicamente como “estacionária” ou “não-estacionária” seria medir a intensidade e a amplitude da tendência. Uma tendência com inclinação muito íngreme não deve ser tratada da mesma maneira que uma tendência quase paralela ao eixo das abscissas. Também pode acontecer de uma tendência muito íngreme ter baixa significância estatística, se a dispersão nos dados for muito larga, enquanto uma tendência bem menos acentuada pode ter alta significância se a dispersão dos dados for estreita. Por isso a medida de inclinação das tendências, a variação da inclinação ao longo do tempo e a significância da inclinação seriam informações mais completas e mais úteis do que simplesmente classificar uma serie (ou o trecho de uma série) como estacionária ou não-estacionária. No Mercado Financeiro essas informações são cruciais para tomadas de decisão. 

  
Isto significa que esta série, no período estudado, a partir de janeiro de 2003, flutua em torno de uma tendência, talvez para a surpresa de muitos, negativa. 
  
Na verdade, a tendência ocorre entre 2003 e 2008. Depois disso, entre 2008 e 2019, não se pode rejeitar a hipótese de que a série seja estacionária. Quando se coloca esses dois intervalos juntos, o trecho de 2003-2008 “contamina” o conjunto e faz com que o resultado global seja uma tendência, mas na verdade são dois intervalos com características distintas que deveriam ser tratados separadamente. 
  
Também não entendi porque Cristiano selecionou o intervalo de 2003 a 2019, se o INPE disponibiliza dados desde 1998. Quando se inclui o histórico inteiro, desde 1998 até 2019, não se detecta nenhuma tendência marcante ao usar o teste de Dickey-Fuller, citado pelo autor. Mesmo que seja utilizado um teste sensível a localidades, verifica-se que em alguns trechos há estacionariedade, enquanto em outros há tendência, conforme já comentei ao analisar os gráficos G1 e G2. 
  

Traduzindo para os leigos em estatística e econometria, o número de focos de queimadas tem se reduzido a cada ano e um número maior de queimadas em um ano não altera esta tendência (determinística) no período avaliado.  
  
Na verdade, não há indício claro de tendência nos últimos 11 anos, mas mesmo que houvesse, um surto no número de queimadas poderia afetar irreversivelmente a evolução da série temporal, e mesmo que o impacto imediato fosse pequeno, se alterasse o equilíbrio entre desmatamento e reflorestamento, e se nenhuma medida fosse adotada para reparar o dano, o quadro poderia evoluir para uma catástrofe ecológica, exaurindo progressivamente a floresta. 
 
Quando se considera o número de queimadas a cada mês em comparação à média do mesmo mês, o que se observa é que, embora haja sinais de que esteja se configurando uma tendência de alta, ainda não está muito acima da média histórica, e houve períodos recentes (2002-2010) em que os números de focos de queimadas nos meses mais críticos estiveram muito acima da média dos respectivos meses, conforme gráfico abaixo: 
 
G4

 

Considerando o número de focos de queimadas entre janeiro e agosto de cada ano, o nível atual é o maior desde 2010. Embora esse gráfico seja de pouca utilidade, por não trazer informações estatísticas relevantes para análise, é importante citá-lo porque está circulando um gráfico que compara o número total de queimadas durante os anos inteiros de 1999 a 2018 com o ano incompleto de 2019 (só até o mês incompleto de agosto), que é uma grosseira distorção. 
 
G5

Dado que a série é estacionária, é possível encontrar um processo estacionário que seja capaz de se assemelhar ao processo gerador dos dados. Ou seja, construir um modelo que seja capaz de imitar o processo verdadeiro e que permita, entre outras coisas, se fazer previsões. Acredito que seria bom ter algumas variáveis independentes para explicar a trajetória dos focos de queimadas, mas, como eu não tenho conhecimento o suficiente para selecioná-las e paciência para encontrá-las, eu parto para uma análise mais simples: tento ajustar um modelo ARIMA. 
  
O uso de ARIMA para previsões de curtíssimo prazo pode ser adequado em Meteorologia, assim como em processos estocásticos nos quais haja componentes inerciais que tendem a manter a direção. Para médio prazo e até mesmo para curto prazo (1 semana) não seria adequado. Em casos mais complexos, como o Mercado Financeiro, o uso de ARIMA é tão inadequado que as previsões feitas dessa forma não diferem de sorteios aleatórios. Na situação específica das queimadas, as previsões podem ser razoáveis na maioria dos casos triviais, embora estejam sujeitas a erros incomensuráveis se ocorrerem outliers muito pronunciados. 
  

Nesta metodologia somente a própria série já é suficiente para compreender o comportamento dela. Costuma funcionar bem para o propósito de se fazer previsões. O modelo que melhor se ajustou foi um ARMA (1,3) com tendência e alguns choques positivos em janeiro de 2003, dezembro de 2004, agosto de 2007 e 2010. Estas “dummies” são importantes para garantir a normalidade dos resíduos, uma das hipóteses da estimação. O modelo também gera resíduos não autocorrelacionados. Abaixo eu mostro os resultados deste modelo e seu ajustamento aos dados. Deixo o julgamento da qualidade do ajustamento para vocês, mas, para quem conhece o assunto o erro absoluto médio foi de 3227 focos de queimadas. Sugestões para um melhor ajuste são bem-vindas. 
  
No sentido de maximizar a aderência do modelo aos dados experimentais, o uso de ARIMA ou ARFIMA com períodos muito curtos podem ser satisfatórios para esses dados. Mas seria desejável que o INPE disponibilizasse dados com resolução diária, em vez de mensal, em cujo caso seria possível usar médias com períodos mais longos e provavelmente alcançar melhor qualidade de ajuste, além de ter maior sensibilidade a outliers, como o supostamente ocorrido no dia 16 e nas datas próximas. Para a modelagem da curva, Talvez o uso de estimadores robustos com biweight de Tukey ou ondas de Andrews fosse um pouco melhor para modelar as regiões próximas à tendência central, mas seria pior para modelar as regiões próximas aos picos e vales. Para a finalidade de facilitar a visualização, o uso de ARIMA me parece uma escolha suficiente. 
 

O último passo foi testar se houve uma mudança estrutural a partir de janeiro de 2019 que levou a uma mudança na trajetória da série. Eu faço um teste simples incluindo variáveis “dummies” que captam mudanças no intercepto e na inclinação da série. Ou seja, tento descobrir se houve um deslocamento abrupto ou uma mudança na tendência que justifique as manchetes ou uma preocupação além do que o assunto por si só já merece. Conforme pode ser observado, nenhuma das dummies é significativa estatisticamente quando incluídas juntas ou separadas no modelo (eu não mostro todos os resultados aqui, mas, posso enviar para quem quiser). Logo, com os dados disponíveis não é possível afirmar que houve neste ano qualquer tipo de mudança na trajetória da série que vem reduzindo em média algo entre 90 e 95 focos de queimadas por mês desde 2003.

-Enfim, o que estes dados e estes modelos mostram é que há uma tendência de queda nos focos de queimadas no Brasil desde 2003 e que não houve um aumento significativo neste ano considerando as informações disponíveis até este momento. 
  
De modo geral, há algumas pequenas divergências na interpretação dos dados, na metodologia e nas ferramentas estatísticas adotadas, mas a conclusão final é basicamente a mesma, sob o ponto de vista estatístico: não há evidência de que em 2019 houve um aumento ou redução relevante no número de queimadas em comparação ao histórico pregresso. Nesse ponto Cristiano e eu concordamos. Por outro lado, há alguns pontos fundamentais que precisam ser considerados: 
 
1. O efeito cumulativo de queimadas pode evoluir para um resultado trágico, se um evento aparentemente inofensivo (ou pouco ofensivo) causou um desequilíbrio entre o ritmo de desmatamento e o ritmo de reflorestamento, se esse equilíbrio não for restabelecido rapidamente. Os ruídos nos dados disponíveis impossibilitam detectar efeitos muito sutis por meio da abordagem que foi utilizada, de modo que se houver uma taxa de desmatamento ligeiramente maior que a de reflorestamento, essa assimetria pode não ser detectada. Seria imprescindível conhecer a evolução da área total da floresta ao longo dos anos e décadas para que se pudesse não apenas verificar a dimensão do evento ocorrido em 16/8, mas também (e principalmente) para apurar se está ocorrendo a referida assimetria e, em caso afirmativo, quais providências precisam ser tomadas. 
  
2. Um outlier com duração de poucos dias pode não ser suficiente para alterar sensivelmente a barra mensal de número de focos de queimadas, e passar quase despercebido nesse estudo, mas se a frequência desses outliers, ou a magnitude desses outliers, ou ambos, se mantiverem acima da média histórica, isso pode gerar efeitos catastróficos a longo prazo. Por isso seria interessante ter acesso a dados do INPE com resolução diária para verificar como foi a situação próxima à data e durante a data de 16/8/2019. Embora a flutuação estatística em dados diários seja muito grande, se houver um evento particularmente notável no dia 16/8 em comparação ao histórico diário das últimas décadas, tal fato precisaria ser conhecido porque pode prover um dado potencialmente relevante para ser analisado. 
  
3. Pelo que entendi, o INPE conta o número de focos de queimadas, em vez de contar a área atingida. Embora haja correlação positiva entre essas duas variáveis, o número que mais nos interessaria é a área atingida. Como um único foco gigante poderia dizimar a floresta toda, ou grande parte dela, então o número de focos acaba não provendo informação suficiente para uma análise rigorosa.  
  
Enfim, infelizmente os dados disponíveis ainda não permitem que se chegue a resultados conclusivos e continua havendo ampla margem para que ambos os lados recorram ao fanatismo para defender suas crenças pessoais e seus interesses partidários. Em meio a essa multidão de falácias, é sempre agradável encontrar um artigo como este, solidamente amparado em fatos numéricos e com uma abordagem científica. Ainda que não estejamos em pleno acordo sobre a interpretação final, foi o melhor texto que vi até o momento sobre esse assunto. 
  
Também gostaria de dizer que, embora os resultados sejam inconclusivos em relação ao impacto de longo prazo, está claro que se houver um surto de eventos como este, entraremos numa situação emergencial em que serão exigidas medidas severas para proteger o planeta. Isoladamente, esse evento não é razão para pânico, mas deveria disparar um sinal de alerta, assim como deveriam ter sido disparados alertas quando ocorreram picos similares ou até maiores durante governos anteriores.  
  

  
PS.: Caso alguém queira maiores detalhes ou as saídas e testes dos modelos que estimei, basta pedir no privado.

Fonte dos dados:http://queimadas.dgi.inpe.br/queimadas/…/estatistica_paises…