Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
UNIVERSIDADE CÂNDIDO MENDES
INSTITUTO A VEZ DO MESTRE
A importância do planejamento energético e do
advento tecnológico na minimização do aquecimento
global
Autor:
Leandro Trinta de Farias
Orientadora:
Maria Esther de Araújo Oliveira
Rio de Janeiro
Setembro de 2010
ii
UNIVERSIDADE CÂNDIDO MENDES
INSTITUTO A VEZ DO MESTRE
A importância do planejamento energético e do
advento tecnológico na minimização do aquecimento
global
OBJETIVO:
Este trabalho tem por escopo dissertar acerca
do aquecimento global, suas causas e
conseqüências, com foco no setor energético, seus
efeitos prejudiciais e as alternativas que podem
equacionar este problema.
GESTÃO AMBIENTAL
Leandro Trinta de Farias
iii
AGRADECIMENTOS
A Deus, por todas as dádivas e bênçãos dadas em
minha vida, desde minha infância até os dias de
hoje.
À minha família, aos meus amigos e a todos que
participaram de alguma forma neste trabalho.
À ANP e, em especial, à Superintendência de
Biocombustíveis e de Qualidade de Produtos pelo
incentivo e oportunidade que me foram dados.
iv
DEDICATÓRIA
Dedico este trabalho, com amor:
A Deus, aos meus pais, à minha noiva, às nossas
famílias e aos amigos, pela amizade, colaboração,
força nas horas de dificuldades e carinho.
v
RESUMO
O presente trabalho visa expor o Aquecimento Global, suas causas e
consequências, e apresentar algumas medidas mitigatórias, com ênfase no
setor energético. Desde o século XIX, o homem tem emitido uma quantidade
significativa de dióxido em carbono na atmosfera, em virtude da queima de
combustíveis fósseis. Essa atitude irresponsável tem intensificado o efeito
estufa, um fenômeno natural de nosso planeta que é responsável pela
temperatura amena da Terra, e vem contribuindo para elevação da temperatura
média da superfície terrestre. Os impactos decorrentes dessa degradação
ambiental são preocupantes do ponto de vista social, ambiental, econômico e
ético e prejudicarão de forma significativa as gerações futuras. Pode-se citar
como tais impactos, o degelo das calotas polares, a elevação dos oceanos, a
perda de biodiversidade, a modificação das correntes marítimas, bem como
outras que caracterizarão um “novo mundo” febril. É imprescindível que a
humanidade repense sua forma de ver nosso planeta e inicie ações para
equacionar esta questão. É muito importante que governos e sociedade
atentem para a situação e busquem o desenvolvimento de matrizes
energéticas cada vez mais limpas, eficientes energeticamente e renováveis,
observando sempre os critérios de sustentabilidade. Ademais, vale ressaltar
que é preciso dar celeridade às atitudes mitigatórias descritas, uma vez que a
irreversibilidade da atual conjuntura pode estar próxima.
Palavras-chave: Aquecimento Global, Mudanças Climáticas, Efeito Estufa,
Dióxido de Carbono, Energia, Fontes Energéticas Limpas, Matriz Energética.
vi
METODOLOGIA
Com relação ao procedimento metodológico de elaboração desta
monografia, vale mencionar:
i. Em uma etapa inicial, foram definidas a composição dos tópicos e a
ordem com que os mesmos encontram-se dispostos, com o intuito de haver um
melhor entendimento por parte do leitor. Pretendeu-se abordar os referidos
tópicos na seguinte disposição:
§ Os principais conceitos pertinentes à questão do aquecimento global,
com o intuito de demonstrar por meio de registros antigos e
paleoclimatológicos as causas destas mudanças climáticas.
§ Os impactos globais evidenciados hoje e àqueles a serem observados
a curto, médio e longo prazos, bem como apresentar quais os estragos
mais significativos e prioritários.
§ A captura de carbono será tratada como uma das soluções aplicáveis à
redução do efeito estufa;
§ As fontes mais limpas de energia e o aumento na eficiência em
energética serão abordadas como possíveis soluções à emissão de
gases causadores do efeito estufa, indicando as vantagens e
desvantagens de seu uso.
ii. Um segundo passo consistiu na avaliação das informações obtidas nas
diversas fontes consultadas, com base na pertinência dos itens propostos
acima. Nesta etapa também foi realizada a distribuição do material encontrado
segundo a ordem proposta anteriormente;
iii. Em seguida, foi realizada a elaboração da monografia, por meio de
estudo e avaliação dos temas pertinentes e com base em informações
levantadas das referências bibliográficas.
vii
SUMÁRIO
INTRODUÇÃO ................................................................................................... 9
CAPÍTULO I
AQUECIMENTO GLOBAL: SURGE UMA NOVA TERRA ................................ 14
CAPÍTULO II
OS IMPACTOS DE UMA TERRA FEBRIL ........................................................ 65
CAPÍTULO III
A AURORA DAS NOVAS TECNOLOGIAS....................................................... 94
CONCLUSÃO ................................................................................................ 135
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................... 139
ÍNDICE ........................................................................................................... 146
ÍNDICE DE FIGURAS .................................................................................... 147
ÍNDICE DE TABELAS .................................................................................... 150
FOLHA DE AVALIAÇÃO ................................................................................ 151
viii
9
INTRODUÇÃO
Nas últimas décadas o homem tem constatado um fenômeno climático
responsável por diversas alterações em nosso planeta: a elevação da
temperatura dos mares e da atmosfera. Este acontecimento provoca mudanças
danosas e significativas, algumas até irreversíveis, nos mais variados
ambientes da complexa superfície terrestre, que, até o momento, corresponde
ao único local do universo capaz de abrigar vida. Seria o homem capaz de
mudar este cenário?
Este aquecimento global é descrito por muitos cientistas, com base em
medições realizadas em diversos pontos da Terra. Não há, aparentemente,
controvérsia na ciência acerca de sua existência. Entretanto, acerca de suas
causas, há duas principais linhas de pensamento bem distintas: a causa natural
e a causa antropogênica.
A primeira hipótese defende o aquecimento global como conseqüência de
fenômenos da natureza, os quais contemplam, por exemplo, a influência dos
ciclos de atividade solar na temperatura dos oceanos. Deste modo, como os
oceanos são os responsáveis pela regulação do clima de nosso planeta, a
elevação de temperatura verificada pela ciência ocorre. Conforme esta teoria,
após alguns anos, essa intensa atividade solar irá reduzir e, como resultado, a
temperatura dos oceanos e, consequentemente da atmosfera, irá decrescer.
A hipótese antropogência considera o aquecimento global como causa da
ação do homem sobre a natureza. Nesta, há o entendimento de que as
emissões de gases gerados pelas atividades humanas na atmosfera estariam
agravando o efeito estufa natural da Terra e, dessa forma, provocando o
aquecimento constatado. Diferentemente da anterior, esta teoria defende que,
se não houver medidas drásticas de mitigação das emissões gasosas, a
situação irá agravar nos próximos anos.
10
Entretanto, independente da causa, o homem tem emitido diariamente
uma grande quantidades de gases causadores de efeito estufa, em grande
parte proporcionada pela queima de combustíveis para geração de energia,
que, no mínimo, potencializam o aquecimento global, caso não seja esta a
causa.
Diante do exposto, este trabalho aborda como área de estudo os
impactos ambientais causados pela geração de energia e visa apresentar ao
leitor, como tema principal, o agravamento do efeito estufa como resultado da
emissão de carbono devido à utilização de fontes energéticas poluidoras e as
principais formas de mitigação.
Assim, diante do fato de que a produção de energia é um importante
contribuinte para a emissão de gases causadores de efeito estufa na atmosfera
e que, além disso, esta atividade é imprescindível para a sociedade moderna,
principalmente com o advento da tecnologia, fica a pergunta: É possível mitigar
o aquecimento da atmosfera sem prejudicar a geração de energia?
Com o intuito de responder esta pergunta, o mundo científico aliado ao
mercado de energia vem buscando novas tecnologias para, pelo menos,
minimizar a liberação desses gases poluentes na atmosfera e, dessa forma,
conter, ou reduzir, o aquecimento global.
Deste modo, a principal motivação para elaboração deste trabalho é
apresentar ao leitor a importância da redução do quantitativo de carbono
lançado na atmosfera. Esta ação poderá propiciar que as gerações futuras
sofram menos com os efeitos causados pelo aumento da temperatura prevista
para os próximos anos. Desses efeitos pode-se citar, por exemplo, a elevação
dos oceanos, a mudança das correntes marítimas, o aumento de áreas
desérticas, a extinção de espécies, a redução na produção de alimentos em um
mundo cada vez mais povoado, entre outras conseqüências dráticas.
Para atingir este objetivo, é essencial o desenvolvimento de uma matriz
energética mais eficiente, economicamente viável e que tenha maior
11
participação de fontes energéticas mais limpas, isto é, não-emissoras de gases
que contribuam para o efeito estufa.
Deste modo, no caso de ser verdadeira a teoria de aquecimento natural,
seria possível reduzir os impactos e, no caso de ser a causa antropogênica,
seria possível, até mesmo, retornar aos níveis anteriores de temperatura.
O principal escopo deste trabalho é dissertar acerca do aquecimento
global, suas causas e conseqüências, bem como as emissões de gases
causadores de efeito estufa, com foco no setor energético, seus efeitos
prejudiciais e as alternativas que podem equacionar este problema.
Adicionalmente, como objetivos específicos, citam-se:
§ Dissertar sobre o aquecimento global constatado pelos cientistas, onde
serão abordados os principais conceitos sobre o tema, sua evolução
histórica, suas causas, seus impactos ambientais, econômicos e
sociais, bem como as perspectivas futuras para o mesmo;
§ Informar sobre o contínuo uso das fontes fósseis na geração de
energia, desde a revolução industrial até os dias atuais, bem como
sobre a emissão de carbono decorrente de seu uso;
§ Comentar sobre as tecnologias referentes à captura do carbono gerado
pela queima das fontes fósseis, suas perspectivas, potencialidades e
limitações;
§ Identificar novas alternativas, mais limpas, para produção de energia,
indicando o bônus e o ônus de seus usos, bem como avaliar quão úteis
são estas na redução do efeito estufa.
Ademais, ao longo deste trabalho, serão levantadas hipóteses,
fundamentadas por meio da literatura estudada, que buscam explicar o
fenômeno, antecipar suas causas ou levantar soluções. Seguem elencadas
algumas dessas hipóteses:
i. Nos últimos anos, foi comprovado cientificamente que há uma elevação
na temperatura média verificada na superfície da Terra. Atualmente, os
12
cientistas consideram duas teorias para a causa do fenômeno: a natural e a
antropogênica.
§ A antropogência, defende que o aquecimento decorre do acúmulo de
gases poluidores na atmosfera, dentre estes o gás carbônico liberado
pela queima de combustíveis fósseis ao longo de 200 anos de
revolução industrial, que agrava o efeito estufa da Terra;
§ A teoria do aquecimento natural baseia-se no aumento das atividades
solares verificado nos últimos anos como causa da elevação na
temperatura dos oceanos e, conseqüentemente, da atmosfera.
ii. Embora seja poluente, a queima de fontes fósseis não pode ser
interrompida, visto que seria inviável economicamente e tecnologicamente sua
total substituição. Por isso, é verificada a necessidade de minimizar suas
emissões por meio de aumento da eficiência dos motores, fornos e outros
equipamentos que queima combustíveis fósseis, bem como da captura de
carbono nas grandes fontes fixas emissoras, de modo a impedir seu
lançamento na atmosfera;
iii. A disseminação de novas tecnologias não-emissoras de gases de
efeito estufa é de fundamental importância na mitigação do aquecimento da
atmosfera. Para isso, é necessário haver incentivos ao advento tecnológico e
investimentos para implantação das mesmas;
iv. Um planejamento energético com maior participação de fontes mais
limpas é uma ferramenta governamental de considerável importância na
redução da parcela poluente da matriz energética de um país.
Finalmente, é oportuno mencionar sobre a delimitação do estudo. O
espaço físico a ser estudado neste trabalho é em nível global, uma vez que os
impactos do aquecimento da atmosfera são de ordem global porque atinge
todos os países, independentemente de sua localização ou do quantitativo de
suas emissões.
13
A temporalidade deste trabalho abrange principalmente o presente,
embora em alguns momentos acontecimentos passados ou previsões futuras
são mencionadas.
14
CAPÍTULO I
AQUECIMENTO GLOBAL: SURGE UMA NOVA TERRA
Quando a Voyager I distanciou-se 6,4 bilhões de quilômetros da Terra,
sua lente voltou-se para o Sistema Solar e, em 14 de fevereiro de 1990,
fotografou a imagem que ficaria conhecida como “Um Pálido Ponto Azul”. Esta
foto, que foi selecionada como uma das dez melhores fotos espaciais de todos
os tempos, retrata nosso planeta como um pequeno ponto azul na imensidão
do Universo e motivou o renomado cientista Carl Sagan a dizer:
“Não há, talvez, melhor demonstração das tolas e vãs soberbas humanas
do que esta distante imagem do nosso miúdo mundo. Para mim, acentua a
nossa responsabilidade S para protegermos e acarinharmos o ponto azul
pálido, o único lar que tenhamos conhecido.”
Até hoje, essa imagem é considerada um dos símbolos da fragilidade
das condições naturais de nosso planeta frente aos impactos provocados pelo
ser humano. Tais condições podem sofrem grandes mudanças em decorrência
de atitudes irresponsáveis da nossa sociedade, as quais nossa civilização pode
não resistir. Essa imagem mostra que, apesar de imensa aos nossos olhos, a
Terra, aquele “pequeno pontinho”, é o único local conhecido em todo o
Universo passível de ser povoado pela humanidade e, por este e outros
motivos, deve ser respeitada e preservada.
Este ser humano (homo sapiens), que habita este planeta há pouco mais
de 100.000 anos (Smithsonian, 2010c), o que não é nada quando comparado à
idade geológica da Terra de 4,6 bilhões de anos (Smithsonian, 2010b), já
realizou muitas façanhas, desde a descoberta do fogo até o domínio da
Astronáutica.
Ao longo desta caminhada (Foley, 2010), a humanidade tem consumido
continuamente os recursos naturais, rejeitando, sem tratamento, seus resíduos
15
e mudando-se quando o local anterior não permite mais uma vida agradável.
Até a Idade Moderna, o impacto causado por este comportamento humano era,
até certo modo, passível de ser absorvido pela natureza. Nos séculos
subseqüentes, o mundo industrializou-se e, hoje, nos deparamos com um
crescimento exponencial (Miller, 2007) da população mundial, bem como um
consumo por habitante cada vez maior. Segundo Miller (2007), o uso do
“capital natural” nesta “Era Exponencial” se dá de forma não-sustentável e seus
efeitos resultantes, que são refletidos na natureza, poderão afetar as gerações
futuras.
Conforme relatado por Foley (2010), foi estabelecido um grande trabalho
de colaboração internacional que determinou dez “processos ambientais
básicos que, se ultrapassados, podem ameaçar a sustentabilidade da Terra”.
Dentre esses constam a perda de biodiversidade, o uso ineficiente da água, a
redução do ozônio estratosférico, a poluição química, a acidificação oceânica, a
mudança climática, entre outros. Em especial esses dois últimos, conforme o
estudo, são provocados pelo mesmo motivo: o aumento da concentração de
carbono (ou melhor, dióxido de carbono – CO2) na atmosfera.
A acidificação oceânica (Foley, 2010) ocorre devido à dissolução do CO2
na superfície dos oceanos sob a forma de ácido carbônico (H2CO3). Esta
solubilidade é proporcional à concentração desse gás na atmosfera e, como
esta vem aumentando continuamente, sua dissolução também aumenta.
Segundo informado na referência supracitada, o oceano possui um pH
(potencial hidrogeniônico) de aproximadamente 8,2, “mas os dados mostram
que esse valor já caiu para quase 8 e continua baixando”. Esta acidificação é
responsável pela redução da quantidade de aragonita (carbonato de cálcio),
que é um composto fundamental para a vida de muitos seres marinhos que a
utilizam para compor esqueletos, conchas e carapaças. Assim, pode haver um
enfraquecimento severo dos ecossistemas e das teias alimentares e provocar
perdas de biodiversidade.
A mudança climática, ou aquecimento global, consiste na elevação da
temperatura média na superfície da Terra, que tem sido registrada pela ciência.
16
Algumas fontes (Philipon, 2010; Foley, 2010; Crossette, 2009; Essick, 2009;
Lemonick, 2009; Arini, 2008; Miller, 2007; Rifkin, 2003) indicam que este evento
tem sido provocado pelo acúmulo de gases causadores de efeito estufa, como
o CO2, o CH4 (metano), entre outros, na atmosfera.
Entretanto, apesar de muitos cientistas serem favoráveis ao fato de que a
elevação da temperatura na superfície da Terra seja decorrente das emissões
de carbono realizadas pelo homem, ainda há controvérsias a respeito desta
teoria. Há aqueles (Veiga, 2008; Pinotti, 2007) que consideram a possibilidade
de a ocorrência de um fenômeno natural e não antropogênico. Um estudo mais
detalhado pode ser verificado na seqüência deste trabalho.
1.1. Efeito estufa natural
O cientista suíço Horace Benedict de Saussure (1740 – 1799) foi o
primeiro a observar (Proclima, 2010b) que o vidro é capaz de reter na forma de
calor a energia provinda dos raios solares. Ao dispor caixas com tampas de
vidro e um termômetro no centro, ele percebeu que a temperatura registrada no
interior era maior do que a externa, vide Figura 1.1.
Figura 1.1 – Instrumento montado por Horace Saussure: a) foto por Hesco (2010); b)
representação da incidência dos raios solares (desenho de Alliedsolar, 2010).
Espelho
Sol
Raio solar
Termômero
a) b)
17
O vidro é um material transparente e, assim, permite a passagem dos
raios solares. Ao entrar, esses raios são refletidos de volta para o exterior pelas
paredes internas da caixa. Entretanto, ao sair, uma parte dos raios
(principalmente os comprimentos menos energéticos, como a radiação
infravermelha) são refletidos de volta e absorvidos na forma de energia térmica.
Como o vidro é um bom isolante térmico, este calor gerado fica retido e permite
uma temperatura maior no interior. Este efeito pode ser aproveitado em lugares
frios quando se necessita manter uma temperatura adequada para o cultivo de
plantas tropicais, onde são utilizadas construções chamadas estufas.
Em 1824 (Proclima, 2010a) o cientista francês Jean-Baptiste Fourier
(1772 – 1837) publicou sua teoria sobre o “milagre” da manutenção da
temperatura da superfície da Terra em níveis passíveis da existência de vida.
Esta teoria indicou que caberia à atmosfera o papel de reter parte do calor
emitido pelo Sol, como uma “grande estufa”, e, dessa forma, sua superfície não
se torna fria como o espaço mesmo que seja durante à noite.
Em seguida, (Proclima, 2010a; Faleiros, 2009), o físico irlandês vitoriano
John Tyndall (1820 – 1893) revelou, em 1861, que alguns gases são capazes
de reter, na forma de calor, uma parte da radiação advinda do Sol, tal como o
vidro permite a manutenção da temperatura na estufa. Neste estudo, Tyndall
incidiu fontes de radiação infravermelha em um tubo de vidro preenchido por
diferentes concentrações de vapor de água e gás-de-carvão (mistura rica em
dióxido de carbono e metano). Foi verificado que a energia térmica dentro do
tubo aumentava junto com a concentração dos gases utilizados. A descoberta
de gases passíveis de reter calor do Sol foi considerada importante para
fundamentar as teorias do francês Jean-Baptiste Fourier sobre a manutenção
da temperatura da Terra. A publicação do estudo de Tyndall é considerada
como o marco inicial nos estudos do efeito estufa.
Após os estudos de Tyndall (AIP, 2009a; Costa, 2003), o cientista sueco
Svante Arrhenius (1859 - 1927) foi atraído pelo mistério da formação das eras
glaciais do passado. Qual o mecanismo que proporcionava à Terra a existência
de climas tão variados, amenos em alguns momentos e muito frios em outros.
18
Em 1896, Arrhenius determinou, após finalizar uma série de cálculos
trabalhosos, que, caso a concentração de dióxido de carbono da atmosfera
caísse pela metade, a temperatura média na Europa seria reduzida para 4 a 5
°C, ou seja, ocorreria uma nova idade do gelo. Porém, quais forças motrizes
seriam as responsáveis pela absorção deste gás? A explicação foi possível por
meio de seu amigo, o geólogo sueco Arvid Högbom (1857 - 1940), que realizou
um compilado das fontes emissoras e sumidouros deste gás, desde as
emissões vulcânicas até a absorção pelos oceanos.
Segundo Pinotti (2007), a manutenção da temperatura na superfície da
Terra é conseqüência de um complexo e dinâmico balanço de energia: a
energia advinda do Sol e do interior do planeta contra a perda decorrente da
diferença de temperatura entre a superfície e o espaço. A energia que o Sol
emite é sob a forma de radiação eletromagnética e a originada na própria Terra
é decorrente do decaimento radiativo natural de elementos radiativos, como o
Urânio, por exemplo, e da energia mecânica remanescente da formação do
planeta. Esta última pode ser verificada por meio do magma quente existente
abaixo da crosta terrestre e da deriva continental, a qual também é responsável
pela atividade vulcânica e terremotos.
Com relação ao aquecimento proporcionado pelo Sol, vale ressaltar que
este se mantém mais tempo na atmosfera mais inferior devido ao efeito estufa,
como mencionado anteriormente. A radiação emitida pelo Sol consegue
penetrar na atmosfera da Terra, por ser esta razoavelmente transparente, e
atinge os oceanos e continentes. Uma parte desta energia radiante é refletida
novamente para o espaço, o que torna a Terra ou os demais planetas visíveis,
e a outra é absorvida pela superfície na forma de calor. Este aquecimento da
superfície é retransmitido na direção do espaço na forma de radiação
eletromagnética infravermelha, porém uma certa quantidade de energia contida
nessa radiação é absorvida pelos gases causadores de efeito estufa e são re-
emitidos por esses com um comprimento de onda maior (menos energéticos,
de forma que são mais facilmente absorvidos) em todas as direções, inclusive
a superfície terrestre. Este último fluxo de energia radiante é o principal
19
responsável pela manutenção da temperatura. As Figuras 1.2 e 1.3
apresentam, respectivamente, uma comparação entre uma estufa e a Terra,
mostrando os fluxos de energia presentes na atmosfera.
Figura 1.2 – Esquema que retrata o
isolamento da energia térmica em estufas
de vidro, de forma que a temperatura de seu
interior permaneça suficientemente
agradável. Estufas como estas são
adotadas no cultivo de espécies tropicais
em regiões frias (Zugman e Martins, 2010).
Figura 1.3 – Representação dos fluxos de energia na atmosfera da Terra (Gazzoni e
Estevão, 2010). A figura representa os percentuais médios de emissão, transmissão e
absorção da energia radiante emitida pelo Sol (fluxos da esquerda) e da Terra (fluxos
da direita).
20
1.2. A atmosfera e os gases causadores de efeito estufa (Miller, 2007;
Pinotti, 2007)
A atmosfera da Terra é um dos pilares à manutenção da vida em nosso
planeta. De todos os planetas conhecidos pelo homem, este é o único que
possui oxigênio molecular. Esse gás formou-se entre 2 e 2,5 bilhões de anos
atrás, no Eon Proterozóico (Smithsonian, 2010b), quando os primitivos seres
unicelulares fotossintetizantes surgiram e consumiram o gás carbônico
existente na atmosfera até então liberando o oxigênio. À época, a presença
deste gás causou a primeira grande extinção registrada, uma vez que este
produto era nocivo a muitos dos seres existentes. Esse fato abriu espaço para
a evolução de uma nova forma de vida, os anaeróbios, que utilizavam o
oxigênio na respiração. Como o oxigênio é muito oxidante, fatalmente o mesmo
deixaria de compor a atmosfera, caso a renovação realizada pelos seres
fotossintetizantes deixa-se, por algum fortuito, de existir.
O oxigênio molecular, junto ao nitrogênio molecular, um gás inerte,
ocupam nada menos do que 99% em volume do ar que nos rodeia
(especificamente, 78% de nitrogênio e 21% de oxigênio). O restante é formado
por 0,01 a 4% de vapor de água, nos pólos frios e secos e nos trópicos quentes
e úmidos, respectivamente, e de outros gases, cujos teores são inferiores a 1%
em volume. Na Tabela 1.1 verifica-se a composição da atmosfera, em base
seca.
Tabela 1.1 – Composição da atmosfera terrestre, em base seca (Pinotti, 2007). Os
valores indicados referem-se aos valores pré-industriais.
Substância Concentração Unidade
Nitrogênio (N2) 78,08 % em volume
Oxigênio (O2) 20,95 % em volume
Argônio (Ar) 0,93 % em volume
Gás carbônico (CO2) 280 ppm (µL/L)
Neônio (Ne) 18,18 ppm (µL/L)
Hélio (He) 5,24 ppm (µL/L)
21
Substância Concentração Unidade
Metano (CH4) 0,7 ppm (µL/L)
Óxido nitroso (N2O) 0,3 ppm (µL/L)
Ozônio (O3) 0,04 (troposfera) e 12 (estratosfera) ppm (µL/L)
A composição da atmosfera modifica-se conforme a localidade. Pode-se
notar que o teor de água varia com a longitude, uma vez que os locais mais
frios são mais secos que os locais mais quentes. Além disso, tem-se o ozônio
que forma-se a partir do oxigênio molecular quando este é submetido às
radiações ultravioletas advindas do Sol e, por este motivo, concentra-se nas
camadas mais superiores da atmosfera, conforme a reação:
3 O2 + UV àààà 2 O3
Assim, além de possibilitar a respiração dos seres vivos, o oxigênio, por
meio da reação indicada, permite a absorção da radiação ultravioleta e protege
as camadas inferiores de seus efeitos nocivos. Tem-se, deste modo, outro
favorecimento da atmosfera à manutenção na vida na Terra.
Como já foi mencionado antes, o efeito estufa natural promove a
manutenção da temperatura na troposfera e favorece a existência de vida e
água líquida. Os dois principais gases causadores deste fenômeno são o gás
carbônico e o vapor de água. Ambos esses gases tem sua concentração
regulada por meio dos ciclos do cabono e hidrológico, respectivamente. Além
disso, o metano e o óxido nitroso também contribuem para o efeito estufa
natural.
Como foi descrito em 1.1, a absorção e emissão de radiação
infravermelha é fundamental para que o efeito estufa ocorra. A radiação
infravermelha é uma onda eletromagnética com comprimento de onda entre 1
µm e 1 mm (freqüência entre 400 THz a 300 GHz, respectivamente),
localizando-se entre o espectro da luz visível e as micro-ondas, vide Figura 1.4.
22
Figura 1.4 – Espectro eletromagnético (SBF, 2010).
A radiação infravermelha interage com a matéria modificando o nível
vibracional das ligações químicas. As moléculas são compostas de alguns
átomos presos entre si por ligações químicas. Tais ligações não são estáticas,
porém vibram como se fossem “molas”. Ao absorver um fóton (unidade
quântica de uma onda eletromagnética), uma dada ligação química entre dois
átomos aumenta a freqüência da vibração. Esta situação excitada (nome
utilizado para indicar um nível diferenciado de energia na física quântica) não é
tão estável e retorna ao estado original, emitindo, dentre outros, um novo fóton
de radiação infravermelha ou fornecendo energia cinética à molécula
(translação e/ou rotação). Esta maior movimentação das moléculas é percebida
pelos nossos sentidos como o aumento de temperatura.
Com relação à atmosfera, seus principais componentes, o oxigênio e o
nitrogênio (Ophardt, 2003) são praticamente transparentes à radiação
infravermelha (absorvendo na região de micro-ondas ou ultravioleta) e, por
isso, não influenciam no efeito estufa da atmosfera. Entretanto, os
mencionados anteriormente, absorvem radiação infravermelha e, apesar de
sua concentração tão reduzida, são consideráveis responsáveis pelo efeito
estufa. Na Figura 1.5 pode-se notar os espectros de absorção de alguns gases.
23
Figura 1.5 – Espectro de absorção de alguns gases (Takle e Seagrave, 2006).
Verifica-se que, dos gases apresentados, o oxigênio molecular é o único que
praticamente não absorve na região do infravermelho.
1.3. Os registros da atividade humana
O trabalho do cientista Svante Arrhenius de 1896, já mencionado
anteriormente, (Proclima, 2010a; Proclima, 2010b; AIP, 2009a; Costa, 2003) foi
muito importante para esclarecer informações importantes acerca do efeito
estufa natural da Terra. Adicionalmente, este permitiu levantar, pela primeira
vez, a possibilidade de que a temperatura média da Terra tivesse alguma
influência do carbono emitido pelo homem por meio da queima de combustíveis
fósseis. A ajuda do cientista Arvid Högbom, seu amigo e especialista no ciclo
do carbono, foi fundamental para o cálculo dos montantes de emissões de
dióxido de carbono por fontes industriais e veículos. Como resultado,
constatou-se que as atividades humanas eram equiparadas às emissões
naturais de gases causadores de efeito estufa.
À época (AIP, 2009a), entretanto, Arrhenius e Högbom estimaram que as
emissões de carbono antropogênico somente iriam impactar de forma
considerável na temperatura da Terra após 3.000 anos. Entretanto, os
Espectro de absorção para os principais gases causadores de efeito estufa na atmosfera da Terra
Comprimento de onda (micrometros)
A
bsor
tivid
ade
24
cientistas estavam considerando as taxas de emissão existentes em 1896.
Anos depois, em 1908, Arrhenius publicou um livro sobre o assunto e, como
neste ano as emissões eram maiores com relação a 1896, os cálculos foram
corrigidos para alguns séculos e não mais em milênios. Ainda assim (Costa,
2003), um eventual aquecimento global de origem humana seria algo muito
remoto e um assunto pouco atrativo.
Durante os anos seguintes (API 2009; Costa, 2003) o assunto foi pouco
considerado, uma vez que muitos cientistas consideravam que as
simplificações do sistema climático consideradas no estudo de Arrhenius e
Högbom foram simplistas demais e não refletiam a realidade. Uma mudança
climática tão intensa em uma escala de tempo humana não seria plausível.
Somente em 1938 (API, 2009) foi verificado um trabalho relevante acerca
do assunto, neste ano o engenheiro inglês especialista em tecnologia a vapor
Guy Stewart Callendar (1898 - 1964) estudou a velha idéia. Um apaixonado por
metereologia, Callendar compilou medições de temperaturas realizadas entre
1890 e 1935.
Desde a invenção do termômetro (AIp, 2009b), muitos amadores ou
profissionais registraram a temperatura de diversos pontos do mundo. Na
época de Callendar havia muitos dados a serem trabalhados, porém foi uma
tarefa dificultosa eliminar os dados considerados não-confiáveis e comparar os
resultados com características e condições climáticas semelhantes. Um dos
motivadores de Callendar foi, possivelmente, a suspeita que havia desde o final
do século XIX da ocorrência de um aquecimento. À época, as medições mais
confiáveis estavam localizadas no leste dos Estados Unidos e na Europa
Ocidental.
Callendar (AIP, 2009b) realizou um minucioso esforço para compor um
entendimento confiável da tendência do clima mundial e, ao final do estudo, ele
confirmou haver uma elevação das temperaturas médias anuais em torno de
0,5°C. Esses dados foram importantes para ressuscitar a velha teoria levantada
por Arrhenius, muitos anos antes, sobre o efeito estufa. A dificuldade maior do
25
estudo consistiu no fato de que havia muitos dados em muitas flutuações, de
forma que seria possível obter todos os tipos de tendências. Por este motivo,
muitos acreditavam que o clima estava confortavelmente uniforme.
Vide Figura 1.6 alguns gráficos obtidos por Callendar.
Figura 1.6 – Curvas de temperaturas anuais compiladas no trabalho de Guy Callendar
(AIP, 2003).
Além de trabalhar com as medições de temperatura (AIP, 2009a),
Callendar também levantou os dados de concentração de CO2 do mesmo
período e concluiu que estas também aumentaram. Este aumento, afirmou,
pode ter sido a causa do aquecimento verificado. Segundo suas estimativas,
poderia haver um aumento de 2°C na temperatura média da atmosfera caso a
concentração de CO2 duplicasse. Em referência à absorção dos oceanos, um
ponto de apoio importante para os que refutavam a teoria de Arrhenius, apesar
da enorme quantidade de água destes, somente sua superfície é importante na
absorção de CO2 e esta, devido aos elevados níveis emitidos, poderia saturar.
Essas explicações não convenceram totalmente a comunidade científica.
Os trabalhos de Callendar atraíram a atenção nas décadas de 1940 e
1950, apesar de muitos não terem dado crédito. Apesar desses trabalhos não
terem contribuído para provar o aquecimento global antropogênico, eles foram
26
fundamentais para reconsiderar a questão esquecida durante anos na
obscuridade.
Neste contexto, o cientista aunstríaco Hans Suess (AIP, 2009a) estudou a
madeira de árvores antigas. Segundo este estudo, publicado em 1955, as
camadas mais recentes dos troncos, eram pobres em carbono-14. Isso é um
indicativo de que a celulose tinha, nos últimos anos, sido formada por meio de
fotossíntese que utilizou gás carbônico com baixa quantidade deste isótopo de
carbono. Este isótopo do carbono compõe todos os organismos vivos de forma
constante, uma vez que a matéria viva é gradativamente regenerada.
Entretanto, em matéria orgânica antiga, com idade inferior a 50 mil anos, como
o caso dos combustíveis fósseis, sua presença não pode ser mais detectada
porque o carbono 14 decai completamente para sua forma mais estável, o
nitrogênio 14. Assim, o trabalho de Suess comprovou que o carbono da
atmosfera está menos rico em carbono 14, fato decorrente da quantidade de
carbono oriundo da queima de combustíveis fósseis, isentos de tal isótopo.
Contudo, ainda era preciso confirmar se o dióxido de carbono nas
camadas da atmosfera seria capaz de impactar a temperatura da Terra.
Somente determinações em cada ponto do espectro infravermelho e das
diversas camadas da atmosfera poderiam solucionar esta dúvida. Com o
advento da tecnologia dos computadores, tais cálculos puderam ser realizados.
Coube ao cientista canadense Gilbert Norman Plass (1920 - 2004) esta
descoberta em 1956. Segundo Plass, caso as emissões continuassem nos
níveis da década de 50, o aumento da temperatura na Terra seria de 1,1°C por
século.
Em 1957 (Costa, 2003) seria efetuada uma descoberta que impactaria a
comunidade científica acerca da concentração de dióxido de carbono na
atmosfera. O americano Roger Revelle e o austríaco Hans Suess, após
estudos realizados no Scripps Institution of Oceanography dos Estados Unidos,
publicaram na revista científica Tellus o trabalho entitulado como “Carbon
dioxide exchange between the atmosphere and ocean and the question of an
increasing atmospheric CO2 during past decades” (Tradução: Trasnferência de
27
dióxido de carbono entre a atmosfera e o oceano e o seu acúmulo na
atmosfera.), no qual foram apresentadas evidências convincentes do motivo
pelo qual os oceanos, apesar de sua capacidade 50 vezes maior de
armazenamento de CO2, não absorviam todo o carbono da atmosfera. A
absorção oceânica ocorre em um ritmo mais lento do que imaginado antes,
devido a ocorrência de um efeito natural retardador do processo. Logo, se o
gás carbônico não está sendo absorvido pelos oceanos, este está cumulando
na atmosfera.
Desde a comprovação de que a absorção oceânica do carbono
atmosférico é lenta (AIP, 2009a), a elevação do seu teor na atmosfera, como
sugerido por Callendar, era possível. Entretanto, ainda não havia metodologias
suficientemente precisas que medissem o dióxido de carbono na atmosfera.
Um grupo escandinavo estabeleceu estações de medição deste gás no norte
da Europa. Porém, devido ao excesso de ruído das análises, nada pode ser
definido. Era preciso análises em muitos locais e durante muitos anos e sem
ruído.
Este desafio foi assumido pelo cientista americano Charles David Keeling
(1928 - 2005) que procurou medir em seu laboratório na Califórnia (AIP, 2009a)
a concentração de CO2 na atmosfera sem ruído, no qual obteve sucesso. As
novas técnicas de infravermelho foram um dos fatores decisivos nesta tarefa.
A história de Keeling tem início (Scripps, 2010b) nos primeiros trabalhos
iniciais desenvolvidos por este. Com intuito de avaliar o equilíbrio entre o
carbonato das águas superficiais, o calcário e o CO2 atmosférico, foi
necessário o desenvolvimento de instrumentos precisos o suficiente para medir
a quantidade de gás carbônico extraído do ar. Devido às emissões industriais
de Passadena, Califórnia, onde era localizado seu laboratório, haviam
variações significativas nos resultados obtidos. Assim, foi preciso transferir seu
equipamento para Monterrey, onde, seus estudos indicaram resultados
interessantes. Foi demonstrado haver um padrão noturno com concentração de
CO2 maior do que durante o dia, muito provavelmente devido á respiração das
plantas.
28
Conforme Scripps (2010b), as medições realizadas em 1956 chamaram a
atenção de Roger Revelle do Scripps Institution of Oceanography que
contratou Keeling para efetuar medições de gás carbônico na atmosfera em
pontos estratégicos do mundo. O objetivo principal de Revelle (AIP, 2009a) era
estabelecer uma “linha de base” de CO2 para os demais valores ao redor do
mundo. Após 20 anos, novas medições seriam realizadas e, dessa forma,
poderia ser obtida a tão esperada comprovação do acumulo desse gás na
atmosfera. Os resultados de Keeling superaram estas expectativas, visto que,
por meio de seus instrumentos, pode ser realizada uma série de medições nos
dois pontos escolhidos: o topo do vulcão Mauna Loa (Havaí, no meio do
Oceano Pacífico) e em Pristine (Antartida). Como eram locais isolados das
principais fontes do mundo, foi proporcionada a obtenção de um nível de base
estável.
Em 1960, (Scripps, 2010b; AIP, 2009a) com apenas dois anos completos
de dados, o trabalho de Charles Keeling foi publicado na revista científica
Tellus com o título “The concentration and isotopic abundances of carbon
dioxide in the atmosphere” (Tradução: A concentração e abundância isotópica
de dióxido de carbono na atmosfera).
Neste trabalho pode ser verificada a descrição do chamado “respirar
sazonal da Terra”, que corresponde à variação cíclica anual que a
concentração de gás carbônico na atmosfera apresenta. Conforme palavras de
Keeling (Scripps, 2010b): “We were witnessing for the first time nature's
withdrawing CO2 from the air for plant growth during summer and returning it
each succeeding winter” (Tradução: Estávamos assistindo pela primeira vez a
retirada do CO2 do ar pelo crescimento das plantas durante o verão e
retornando durante o inverno).
Em outras palavras, após o inverno no Hemisfério Norte (dezembro a
março) os gases gerados pelo homem, devido ao uso mais intenso de
aquecedores, acumulam-se na atmosfera e as maiores concentrações são
verificadas. Após o verão no Hemisfério Norte (junho a setembro), entretanto,
com as temperaturas mais amenas, as plantas apresentam maior crescimento
29
e, por isso, absorvem mais carbono, promovendo o ponto mínimo de
concentração. Vale ressaltar que a influência do Hemisfério Norte sobrepõe a
do Hemisfério Sul, porque no primeiro situam-se cerca de 80% (Webciencia,
2008) das terras emersas do planeta e, dessa forma, a influência humana e
das plantas é maior. Vide Figura 1.7.
Figura 1.7 – Conforme Scripps (2010b), extraído de obra publicada por Charles
Keeling, mostrando os pontos de máximo e mínimo.
Este trabalho foi o primeiro de uma série de artigos publicados com base
nos resultados de um programa de medições dirigido por Keeling. As medições
continuaram, sem interrupção, desde a década de 1950 (Scripps, 2010a) até os
dias de hoje, estendendo-se por cinco décadas, e representa um dos mais
importantes registros geofísicos já levantados pelo homem. Este compilado é
chamado na comunidade científica como “Curva de Keeling”.
A “Curva de Keeling” (Figura 1.8) é considerado (Scripps, 2010a) um dos
ícones mais conhecidos que ilustra o impacto da humanidade sobre o planeta.
Em 1974 o observatório de Mauna Loa deixou de ser administrado pelo Scripps
Institution of Oceanography e ficou sob responsabilidade do National Oceanic
and Atmospheric Administration (NOAA, 2010), mais especificamente, dentro
do Programa Global de Monitoramento de Dióxido de Carbono deste órgão. A
cada ano os registros do observatório de Mauna Loa (responsável pela
Variação na concentração do dióxido de carbono no Hemisfério Norte.
30
composição da “Curva de Keeling”) anunciam um aumento nas concentrações
de dióxido de carbono na atmosfera.
Figura 1.8 – Mostra a “Curva de Keeling” (NOAA, 2010), indicando os períodos de
administração do SIO e do NOAA no observatório de Mauna Loa.
Quanto aos registros de temperatura desta época (AIP, 2009b), desde
1940 foi registrado que haveria um resfriamento do planeta. Como o aumento
na quantidade de CO2 na atmosfera já era reconhecido, bem como sua
capacidade de provocar efeito estufa, estas temperaturas mais baixas foram
um desafio. O climatologista americano John Murray Mitchell Jr (1928 - )
explicou este fato como sendo decorrente de atividades vulcânicas mais
intensas, as quais expeliam fuligem e bloqueavam parcialmente os raios
solares. Neste período os estudos passados que mostravam um aquecimento
foram questionados. Entretanto, alguns registros do Hemisfério Sul
continuaram registrando elevação na temperatura média. Esse resfriamento foi
uma arma muito forte para os céticos em relação ao efeito estufa defenderem
que o aquecimento evidenciado por Callendar e outros era somente fruto de
medições realizadas em centros urbanos, que promovem um certo
Mauna Loa média mensal de dióxido de carbono
31
aquecimento devido à absorção de calor efetuada pelo concreto, asfalto,
redução da cobertura vegetal, entre outros fatores.
Neste momento da história (AIP, 2009b), inúmeras estações ao redor do
mundo realizavam medições de temperatura. Os dados coletados eram muitos,
porém obtidos por diversos padrões diferentes e com muitos graus de
confiabilidade diferentes. A compilação desses dados era uma tarefa árdua. Na
década de 1980, destacam-se dois grupos, um americano e um inglês, que se
comprometeram em realizar esta tarefa e, com base nos dados mais
confiáveis, desenvolver trabalhos que permitissem determinar um perfil anual
da temperatura média da Terra nos últimos cem anos.
O grupo americano (AIP, 2009b) é sediado na cidade de Nova Iorque e
foi fundado pelo Goddard Institute for Space Studies (GISS) da National
Astronautic and Space Administration (NASA). Até hoje, este centro de
pesquisas é liderado por James Hansen (1941 - ). O primeiro relatório de dados
sobre temperatura global do GISS foi publicado em 1987 e seus números estão
baseados em um compilado de estações metereológicas entre os anos de
1880 e 1985. Vide Figura 1.9 os registros deste importante centro de
pesquisas.
32
Figura 1.9 – Registros de temperatura anual conforme dados do GISS (Hansen, 2010).
Nota-se um contínuo aquecimento.
O segundo grupo foi fundado pelo governo britânico e corresponde ao
British Government’s Climatic Research (CRU), o qual é localizado na
University of East Anglia (UEA). Liderado inicialmente por Hubert Lamb (1913 -
1997), também utilizou dados obtidos por meio de estações metereológicas
para elaborar seus registros de médias de temperatura, os quais se iniciam em
1860, 20 anos antes do americano. Vide Figura 1.10. o perfil anual de
temperatura média elaborado por este centro de pesquisas.
Índice de temperatura global (terra e oceano)
Média de 12 anos
33
Figura 1.10 – Registros de temperatura anual conforme dados do CRU-UEA (Jones,
2010).
Após as publicações destes grupos (AIP, 2009b), os registros de
temperatura tornavam-se cada vez mais importantes e os trabalhos de Nova
Iorque e East Anglia já não eram suficientes. Assim, novos centros de
pesquisas foram fundados para desenvolver novas curvas de temperatura
média global. Destaca-se, entre esses, os trabalhos do Natinal Climatic Data
Center (NCDC) do National Oceanographic and Atmospheric Administration
(NOAA) que reuniu e organizou os dados de registros militares acumulados
desde a década de 1940, bem como outros.
Os três grupos citados, são os responsáveis pelas principais compilações
de temperatura atmosférica da superfície da Terra (AIP, 2009b) e, apesar de
terem sido coletadas de forma completamente independente, apresentam a
mesma tendência de aquecimento a partir do século XIX. Esse é um fato muito
importante que dá mais credibilidade à ideia de que a temperatura de nosso
planeta está realmente se elevando a cada ano. Vide Figura 1.11 uma
sobreposição dos perfis anuais estabelecidos por estas entidades.
Alteração na temperatura global
34
Figura 1.11 – Perfil anual com as variações médias de temperaturas da atmosfera
(valores em graus Celsius) na superfície da Terra, determinadas por GISS, NCDC e
CRU (AIP, 2009b).
Segundo AIP (2009b), tais dados confirmam a ocorrência de um período
de resfriamento entre os anos de 1940 e 1950, porém curto quando comparado
o aquecimento evidenciado de 1910 até a atualidade. Pode-se ver, ainda, que
o trabalho publicado por Callendar, em 1938, coincide com um pico de máximo
anterior ao resfriamento iniciado em 1940. Os registros confirmam um
aquecimento de aproximadamente 1ºC desde 1850 (mais de 150 anos), o que
para alguns tem sido maior do que o que seria evidenciado no caso de uma
causa puramente natural.
Os resultados levantados por GISS, indicados por AIP (2009b), revelam
que o resfriamento da década de 1940 pode ter sido provocado não só por
poeira emitida por atividades vulcânicas, como também por um aumento nas
emissões antropogênicas de aerossóis de sulfato. Com o crescimento do
mundo após a Segunda Guerra, entretanto, as emissões de carbono voltaram a
se intensificar o aquecimento foi retomado.
35
Além das medições de superfície, também foram obtidas, desde 1979,
medições por meio de satélites em órbita da Terra, as quais correspondiam a
camadas superiores da atmosfera. Segundo AIP (2009b), essas medições
vieram a causar mais problemas do que soluções. Contrariando os cálculos de
modelos matemáticos da época, que esperavam um aquecimento também
nesta altitude, um arrefecimento foi registrado pelos satélites. Esta informação,
assim como o resfriamento da década de 1940, foi um ótimo argumento para
os céticos na existência de um efeito estufa e um desafio para o consenso
global de aquecimento. Em 1999 foi realizada uma revisão completa dos dados
adquiridos e, pelo resultado obtido, haviam alguns erros sistemáticos nas
medições dos satélites. Ao serem corrigidos esses erros, algum aquecimento
era verificado. Os modelos não estavam tão errados, porém o aquecimento
estava muito aquém do que estavam prevendo.
Os registros de temperatura e de concentração de dióxido de carbono na
atmosfera superficial da Terra no último século intensificaram o entendimento
do clima em nosso planeta, como também, foram responsáveis por uma maior
disseminação da ideia de aquecimento global decorrente das atividades
humanas no meio científico. Além desses, outras informações advindas da
Paleoclimatologia e da modelagem matemática completam o entendimento
humano de nosso planeta. Estes serão abordados nos próximos tópicos deste
capítulo.
1.4. Utilização da matemática para explicar o clima da Terra.
O advento computacional das últimas décadas foi fundamental para
resolver soluções matemáticas complexas, cuja resolução seria impossível com
as limitações humanas de cálculo. Esses benefícios podem ser verificados na
modelagem aplicada às mais diversas áreas da ciência, tais como a
fluidodinâmica, o estudo molecular, a termodinâmica, a cinética química, a
previsão do tempo, entre outros. A climatologia também foi beneficiada com
este desenvolvimento tecnológico.
36
Conforme descrito por Miller (2007), modelos matemáticos foram
desenvolvidos para simular computacionalmente as interações entre a luz do
Sol, as nuvens, os continentes, os oceanos, as correntes marítimas, as
camadas de gelo e a concentração de gases causadores ou redutores de efeito
estufa. Os efeitos passados são utilizados para compor tais modelos que são
utilizados para prever futuras alterações na temperatura média do planeta. O
sistema semelhante ao indicado na Figura 1.3 é o mais comum a ser
considerado na modelagem climática.
Conforme primeiramente explicado por Arrhenius em 1896 (Lemonick,
2009), ao queimar milhões de toneladas de combustíveis fósseise emitir seus
gases para a atmosfera, haverá um aquecimento. Apesar de ser transparente à
luz visível, o CO2 é opaco à radiação infravermelha e contribui para o
aquecimento do planeta. Entretanto, a relação Temperatura x Concentração de
CO2 na atmosfera não é tão linear. A Terra é um corpo com uma superfície de
diversas cores, contendo montanhas, oceanos, florestas, capas de gelo, entre
outros, e, por isso, não apresenta um aquecimento constante junto ao aumento
de emissões de carbono. Isso dificulta a previsão das mudanças climáticas.
O sistema geofísico terrestre é deveras complexo para uma previsão
matemática simples (Lemonick, 2009), sendo necessárias equações com
muitas variáveis, das quais umas dependem das outras. Os oceanos absorvem
calor e retardam o aquecimento da atmosfera, bem como aprisionam CO2. Os
seres fotossintetizantes (plantas e algas) aprisionam o gás carbônico, também,
porém liberam com a morte desses seres ou, em longo prazo, depositam-se no
solo continental ou oceânico permitindo a formação de calcário. Quanto mais
quente o planeta, maior será a evaporação oceânica e, a água liberada, pode
contribuir para absoção da radiação infravermelha ou bloquear parte dos raios
solares sob a forma de nuvens. Atividades vulcânicas expelem gases que
causam efeito estufa, porém também liberam partículas que, assim como as
nuvens, bloqueiam parte da radiação.
Deste modo, os resultados obtidos pelos cálculos matemáticos não são
exatos. Eles apresentam erros, pois necessitam contemplar todos os cenários
37
possíveis. Assim, das respostas obtidas, são mais importantes as classificadas
como (Miller, 2007): as muito prováveis (com probabilidade maior do que 90%)
e as prováveis (com probabilidade entre 66% a 90%). As menos prováveis são
desconsideradas.
Após 1988 (Miller, 2007), o ano de maior temperatura média registrada na
década de 1980, vide Figura 1.11, muita preocupação acerca da contribuição
humana no aquecimento global foi verificada. À época, alguns cientistas
assumiram publicamente, inclusive, que estávamos à beira de um alerta global
com efeitos ecológicos e econômicos desastrosos. Em parte, essas
preocupações foram motivadas pelos modelos climáticos simulados por
computador. Porém, seriam esses modelos confiáveis?
Segundo Riebeek (2005), os dados advindos da Paleoclimatologia (vide
tópico 1.5) são cada vez mais completos e permitem um entendimento maior
das variações climáticas, de modo a possibilitar previsões futuras mais
precisas. No GISS encontra-se um moderno datacenter, que ocupa um prédio
inteiro, destinado a calcular como as alterações nos continentes, oceanos e
atmosfera afetam o clima. No interior destes computadores roda o mais
sofisticado modelo tridimensional da Terra que conta com 65.000 volumes de
controle e requer mais de 80 milhões de cálculo por hora.
Entretanto, apesar de tanta tecnologia e o desenvolvimento de modelos
capazes de representar com maior exatidão possível o clima da Terra, testes
mais rigorosos eram necessários (Miller, 2007). A erupção do Monte Pinatubo
em 1991 permitiu uma excelente chance para confrontar os dados simulados
com os reais. Nesta erupção uma quantidade de dióxido de enxofre e cinzas a
uma altura 35 km (estratosfera) acumulando na atmosfera e bloqueando a
radiação solar que atinge a superfície de nosso planeta. Em 1991, o cientista
James Hansen, da NASA, previu, por meio de simulação computacional no
datacenter do GISS, que o clima da Terra ficaria mais frio 0,5ºC por 15 meses.
Suas previsões, conforme Miller (2007), estavam corretas. O resultado positivo
desta simulação foi fundamental para que o meio científico tivesse maior
credibilidade acerca destas modelagens, bem como também o meio político.
38
Vide Figura 1.12 a simulação computacional de Hansen que descreve a
trajetória das cinzas do monte Pinatubo. Na Figura 1.13, pode-se verificar a
semelhança entre os resultados obtidos por meio da simulação e reais.
Figura 1.12 – Esta simulação computacional (NASA, 2003) mostra a dispersão das
cinzas do Monte Pinatubo na atmosfera (da esquerda para a direita e de cima para
baixo). Cor vermelha indica altitude elevada e cor azul indica altitude mais baixa.
39
Figura 1.13 – Curvas referente (Riebeek, 2005) às variações de temperatura e coluna
de vapor de água: observadas (azul) e calculadas por simulação (vermelho).
O Modelo de Hansen, bem como outros modelos, há o indicativo de que o
aumento mais provável de temperatura neste século ficará entre 2,5ºC e 3,5 ºC
(Miller, 2007).
Segundo AIP (2009b), modelagens de computador mais sofisticadas
indicam que o padrão observado atualmente para o aquecimento global é mais
propício a um aumento no efeito estufa decorrente do acúmulo de gases na
atmosfera do que se fosse causado por fontes externas, por exemplo,
variações na atividade solar. Como dito na referência “é provável que estas
mudanças seja causadas parcialmente por uma atividade humana, apesar de
que as incertezas permanecerem”. Em um relatório de 1995, sob
responsabilidade do cientista Benjamin Santer (1955 -) do Lawrence Livermore
Laboratory, havia sido encontrada a “impressão digital” que confirma a
existência do efeito estufa. Esse trabalho foi muito criticado por céticos.
Entretanto, em 2006, com o desenvolvimento de modelos computacionais mais
precisos, este julgamento foi confirmado, uma vez que as modelagens
Ano
Variação de Temperatura (ºC)
Variação de coluna de vapor de água (ºC)
40
indicaram que havia apenas 5% de chances de o aquecimento globar ser
decorrente de outras atividades que não a humana. Este ficou conhecido como
o Modelo de Santer.
1.5. Paleoclimatologia: resgate do passado da Terra (Riebeek, 2005).
O primeiro homem que levantou a hipótese de que no passado a
paisagem europeia era coberta de grandes geleiras não foi um cientista. Seu
nome era Jean Pierre Perraudin (1767 - 1858) e sua teoria decorreu da
observação de formações rochosas existentes ao redor de sua casa, localizada
nos Alpes Suiços. A ideia anterior defendia que tais formações eram
decorrentes da água do grande dilúvio, porém Perraudin não estava
convencido desta explicação. A água não carrega rochas tão pesadas em
distâncias tão longas, mas o gelo poderia.
Em 1815, Perraudin apresentou sua teoria ao meio científico e, a
princípio, as mesmas não foram bem aceitas. Todavia, com o tempo, alguns
cientistas começaram a estudar as marcas deixadas por erosão na região
descrita por Perraudin. Foi Louis Agassiz quem descreveu, em 1837, a primeira
teoria sobre o assunto baseada em princípios científicos e denominou como
“Era do Gelo” esses períodos da história natural da Terra em que grandes
geleiras estenderam-se do Polo Norte para cobrir Europa e América do Norte.
Coube a Agassiz levantar evidências científicas acerca da ocorrência de
glaciações e instigou a imaginação do público sobre a existência de uma “Terra
Gelada”. Apesar disso, esta teoria somente foi aceita plenamente após 1870.
A existência de Eras do Gelo foi a primeira prova de que o clima da Terra
pode mudar bruscamente ao longo de milênios. Entretanto, as causas do início
e do fim destes períodos ainda era uma incógnita. A teoria de Arrhenius, com
auxílio de seu amigo Högbom especialista no ciclo de carbono (vide 1.3), que
uma Era Glacial era decorrente de níveis baixos de dióxido de carbono na
atmosfera devido a reduzida capacidade da atmosfera, neste caso, de reter o
calor advindo do Sol. Em contrapartida, um acúmulo das emissões naturais
deste gás provocaria um período de aquecimento que reduziria as geleiras
41
existentes no período glacial. Por meio desta teoria, Arrhenius foi o primeiro a
dizer que o homem, com suas emissões devido à queima de combustíveis
fósseis, causariam uma “Era de Calor”. Assim, seria a humanidade responsável
pelo aquecimento global? Ou, conseguiremos resistir às adversidades
climáticas? Essas perguntas tem levado os cientistas a desenvolver um campo
inteiramente novo da ciência: a Paleoclimatologia.
A Paleoclimatologia consiste no estudo do clima da Terra em períodos
passados, inclusive anteriores à “Aurora do Homem”. A palavra é derivada do
grego “paleo-” que significa “antigo” e o termo clima (NOAA, 2009b). A
esperança da ciência é entender o que motivou as glaciações e aquecimentos
do passado e, com isso, entender o futuro.
Como não havia termômetros antes do século XIX, o resgate das
informações necessárias não é simples. Em um passado não tão distante,
onde se é possível recorrer aos registros históricos, evidências como secas,
epidemias, anos de ótima colheita, frio intenso, entre outros, são utilizadas para
obter uma estimativa. Um passado mais distante, entretanto, é necessário
utilizar “impressões digitais” naturais para descrever tais períodos. É comum
utilizar vales secos de rios em desertos, fósseis aquáticos em terrenos secos,
estruturas especiais físicas ou químicas na crosta terrestre, nível dos oceanos
passados verificados por meio de sísmica, entre muitos outros meios, os quais
são descritos na sequência.
a) Registros na superfície dos continentes: por serem mais evidentes,
os primeiros registros de mudança climática no passado vem da própria terra.
A própria teoria de Perraucin e Agassiz nasceu de uma análise das marcas
deixadas pela erosão causada pelo gelo durante a última glaciação. Outro caso
muito comum é a existência de um solo amarelado no Hemisfério Norte, vide
Figura 1.14, o qual pode ter se originado do pó formado sob a pressão de
deslocamento das grandes geleiras. Há evidencias deste tipo de solo originado
em diversos períodos do passado, o que mostra ter havido uma série de
glaciações e não somente um evento isolado.
42
Figura 1.14 – Depósitos compostos por fina poeira amarela provavelmente produzida
devido ao atrito das geleiras de um período glacial com o solo. Este tipo é muito
comum no Hemisfério Norte.
Outra evidência interessante, decorre de algumas cavernas localizadas
no subsolo de grandes desertos dos Estados Unidos. Nestas é verificada a
formação de diversas estalagmites e estalactites. Apesar de tais formações
serem muito comuns em cavernas, sua formação em grande quantidade abaixo
de desertos é pouco comum. Isso porque sua formação depende de solos
úmidos decorrentes de regiões com pluviosidade relativamente constante, o
que não acontece em desertos. Logo, esta é uma evidência de que no passado
os desertos não faziam parte da paisagem norte americana e, portanto, o clima
era menos seco. Além disso, vale ressaltar que o crescimento destas
formações se dá por meio da formação de camadas, vide Figura 1.15, que
gradativamente depositam-se na sua superfície. Quanto maior a umidade do
solo superior à caverna, maios rápida o crescimento destas formas. Os
cientistas realizam a datação destas camadas por meio de radioisótopos de
Urânio-Tório e utilizam a largura das camadas para determinar a umidade
daquele período, vide Figura 1.16.
43
Figura 1.15 – Detalhe de uma estalagmite
mostrando uma sequencia de camadas utilizadas
para datar o tempo.
Figura 1.16 – Análise Paleoclimatológica do crescimento de estalagmites e estalactites
para revelar o perfil de chuvas de anos atrás. Este gráfico mostra a largura das
camadas de crescimento de uma formação com aproximadamente 450 anos.
b) Registros no fundo dos oceanos: as correntes marítimas carreiam
por todos os oceanos e mares uma enorme quantidade de sedimentos
oriundos de continentes, os quais são trazidos pelo vento, leitos de rios, erosão
da costa marítima, entre outras fontes. Assim, dia após dias um novo material
deposita-se na superfície do solo marítimo e camadas com antiguidades
diferentes são formadas. Quanto mais profundo, mais antigo é o depósito, que
pode ter meses, anos, séculos, milênios de vida. Deste modo, ao perfurar o
solo marinho com sondas de perfuração científicas, de forma semelhante às
perfurações petrolíferas, vide Figura 1.17, para coletar amostras do solo que
presenciaram eras passadas e traze-las à superfície para análise. Os cientistas
utilizam estas amostras para obter informações úteis que permitem determinar
o clima passado.
Anos atrás (aproximado)
44
Figura 1.17 – O navio JOIDES Resolution cruza os oceanos coletando amostras de
solo oceânico ao redor do mundo. Sua capacidade de perfuração é de poços com
2.000 m abaixo de lâminas d’água de 8.000 m.
As amostras destas camadas profundas contêm microfósseis da vida
marinha do passado. Estes permitem determinar quais as condições
climatológicas de uma dada região dos oceanos e mares da época em que
eram vivos. Ocorre que a ciência detém conhecimento de quais espécies são
comuns em determinados climas, ou seja, águas mornas, águas frias, entre
outras condições.
Os sedimentos também permitem uma avaliação bastante importante
pela ciência. A partir destes pode-se determinar a existência da foz de um
grande rio (como a foz do Rio Amazonas ou do Rio Gangues), o carreamento
pelo vento de areia de desertos (hoje, as areias do Deserto do Saara são
carreadas pelos ventos e depositam-se no Mar Mediterâneo) ou conhecer de
qual continente foi originado o depósito e, dessa forma, determinar a direção
das correntes marítimas e ventos. Vide Figura 1.18 o perfil de anomalia na
temperatura, comparada às temperaturas atuais, no período da última
glaciação.
45
Figura 1.18 – Mapa da temperatura dos oceanos durante o último período glacial
baseado na análise de amostras do subsolo oceânico. Este mapa mostra a diferença
de temperatura entre agora e o passado. Nota-se que na Era do Gelo, o Atlântico
Norte era o local mais frio, o que evidencia redução drástica da corrente do Golfo.
c) Registros enterrados no gelo: de forma similar ao solo oceânico, a
superfície de gelo contido nos Polos Norte e Sul, bem como sobre grandes
montanhas de gelo eterno, renova-se a cada dia. As camadas mais antigas são
sobrepostas pelas mais novas e tendem a afundar por meio do peso das
camadas superiores. Assim, perfurações verticais nestas camadas revelam
gelo depositado a até milhares de anos no passado. Quanto mais profunda a
camada, mais antigo é o depósito. Um verdadeiro testemunho de tempos idos.
Este tipo de pesquisa é antigo (os primeiros poços são do final da década
de 1960) e já foi realizado no gelo do Ártico (Groelândia e Alasca) e Antártico.
Por ser mais profundo e antigo, o continente Antártico permite a obtenção de
registros de muitos anos passados (750.000 anos atrás contra 110.000 anos
atrás). Além dos Polos, as neves eternas da Cordilheira dos Andes (América do
Sul), do Monte Kilimanjaro (África) e do Himalaia (Ásia) também já foram
exploradas. Na Figura 1.19 observa-se algumas fotos da extração das
amostras de gelo de uma expedição na Groelândia. Pode ser observado a
sonda de perfuração, a retirada da amostra e o acampamento dos cientistas.
Anomalia na temperatura dos oceanos (ºC)
46
Figura 1.19 – Mostra algumas fotos sobre a perfuração do gelo da Groelândia, as
amostras de gelo e o acampamento da equipe.
Para determinar o clima passado, os cientistas utilizam brocas especiais,
utilizada para perfurar um longo poço até a profundidade desejada e coletar
amostras para trazer à superfície, vide Figuras 1.20 e 1.22. A análise destes
testemunhos de gelo são as melhores ferramentas dos cientistas para
conhecer o clima da Terra no passado. Por meio destes, é possível determinar,
entre outras informações, a temperatura média anual da superfície, a
composição atmosférica (concentração de nitrogênio, oxigênio, dióxido de
47
carbono e outros gases), a precipitação média e a atividade vulcânica por meio
da quantidade de cinzas. De todas essas informações, as principais são o perfil
de temperatura e de concentração de CO2 de anos atrás. A concentração de
gás carbônico é obtida por meio de células no gelo, vide Figura 1.21, que
aprisionam o ar atmosférico na época em que a camada encontrava-se na
superfície e funcionam como registros fósseis da atmosfera passada. No caso
da temperatura, por outro lado, esta pode ser obtida por meio da quantificação
da razão dos isótopos leve e pesado de oxigênio das moléculas de água do
gelo.
Figura 1.20 – O aumento gradual do peso das camadas superiores comprime a neve
em gelo e esta pressão aumenta junto com a profundidade. Na figura observa-se a
foto de três testemunhos de profundidades diferentes: a 53054 metros a neve é
comprimida a cristais granulares (topo); a 1,8 km a compactação do gelo é maior
(meio) e a 3 km o gelo mistura-se a rochas e areia colorindo o testemunho (baixo).
Figura 1.21 – Células de ar atmosférico idêntico
ao da época em que foi soterrado pelo gelo.
Tornam-se verdadeiros testemunhos da
atmosfera passada, de onde pode-se extrair
concentração de CO2 e outros gases (NASA,
2010).
48
Figura 1.22 – Cientistas medem a temperatura da capa de gelo polar utilizando um
termômetro convencional dentro do poço perfurado. Como um isolante térmico, o gelo
preserva, de forma grosseira, a temperatura da época em que a camada foi
acumulada. O calor proveniente de profundidades maiores do que 1.500 metros há um
aquecimento proveniente do contato com o solo. Este perfil ajuda a calibrar a medição
de temperatura utilizando isótopos de oxigênio.
O oxigênio é uma das mais importantes peças na descoberta do passado
climático da Terra. São dois os isótopos mais comum do elemento oxigênio: o
oxigênio-16 (com 8 prótons e 8 neutrons), o mais comum isótopo da natureza,
e o oxigênio-16 (com 8 prótons e 10 neutrons). A razão entre a quantidade dos
dois isótopos no oxigênio que compõe a molécula de água (H2O) varia com o
clima da Terra, vide Figura 1.23. A determinação desta razão nos sedimento
marinhos, amostras de gelo ou fósseis mostra diferenças com relação a uma
razão padrão adotada pelos cientistas (água oceânica a uma profundidade
entre 200 e 300 m).
Temperatura média moderna
Pequena idade do gelo
Interglacial
Era do gelo
Aquecimento do solo
Temperatura média (ºC)
49
Figura 1.23 – A concentração de 18O decresce com a temperatura. O gráfico mostra a
diferença na concentração de 18O na precipitação anual comparada com a média
anual de temperatura de cada localidade. Nos Polos a diferença de percentual chega a
- 5%.
Os processos naturais existentes na Terra contribuem para uma variação
na razão entre as quantidades de água composta pelos dois isótopos de
oxigênio. A água formada por oxigênio-16, por ser mais leve, possui uma taxa
de evaporação maior do que a água com oxigênio-18, mais pesada, e, deste
modo, nas regiões equatoriais, onde há maior evaporação, o oceano é mais
rico em água com oxigênio-18 e o ar em água com oxigênio-16. Conforme o
mesmo princípio, a água com oxigênio-18 condensa mais facilmente por ser
mais pesada. Assim, como o ar, ao longo do seu movimento em direção aos
Polos motivada pelas convecções naturais da Terra, tende a resfriar e, dessa
forma, perder unidade na forma de precipitações, torna-se mais rico em água
50
com oxigênio-16 quando chega ao seu destino final. Isso porque, a água com
oxigênio-18, por possuir uma taxa de condensação maior, fica nestas
precipitações que ocorrem pelo caminho. Deste modo, como o ar que chega
aos Polos e está rico em água com oxigênio-16 produz neve, o gelo polar é rico
nesta forma leve de oxigênio. Vide Figura 1.24 um esquema deste fenômeno.
Figura 1.24 – Identifica a perda gradual de 18O por meio do movimento do ar do
Equador aos Polos. A figura encontra-se como extraída da fonte, em inglês.
Durante Eras do Gelo, temperaturas mais amenas estende-se até o
Equador e as precipitações ricas em água com oxigênio-18 ocorrem em mais
baixas latitudes. Por isso, os oceanos ficam muito mais concentrados em água
com oxigênio-18 comparado ao padrão universal e os Polos, ao contrário, ficam
mais pobres de água com este isótopo mais pesado do oxigênio comparado a
condições climáticas mais amenas. Assim, uma concentração maior de
oxigênio-18 nos sedimentos oceânicos e menores no gelo polar, comparado
aos valores atuais, nos dá o indicativo de uma Era Glacial. De forma similar, há
indicação de um período de degelo.
Deste modo, a Paleoclimatologia utiliza a razão entre os isótopos de
oxigênio contido em água presa nas geleiras para estabelecer um perfil de
51
temperatura de milhares e milhões de anos atrás. Neste ponto, somente as
geleiras polares são eficientes, uma vez que as geleiras de montanhas de
neves eternas não resultam em resultados muito precisos.
Outra forma de medir a razão entre os isótopos de oxigênio são os
fósseis de conchas, corais e pequenos animais e plantas marinhas. Estes são
tipicamente compostos de carbonato de cálcio (CaCO3) ou sílica (SiO2).
Quando estes seres estão vivos eles renovam os constituintes de seu corpo
com os componentes encontrados na água do mar. Assim, sua constituição de
oxigênio-16 e oxigênio-18 será similar à do mar. Este fato também pode ser
utilizado pelos paleclimatologistas para definir o clima da Terra no passado,
vide Figura 1.25.
Figura 1.25 – Crescimento anula de recifes de coral podem ser utilizados para
determinar o perfil de temperatura dos oceanos ao longo dos anos.
d) Registros nas árvores e nos corais: diferentemente dos registros nas
rochas, solo oceânico e gelo, que permitem determinar mudanças climáticas de
longo prazo, os registros encontrados nos anéis de caules de árvores e nos
recifes de corais permitem avaliar mudanças climáticas de curto prazo.
Em 1890, Andrew Ellicott Douglass (1867 - 1962), um astrônomo do
Observatório Loweel do Arizona, tentou entender como os ciclos solares
afetavam o crescimento das plantas. Em sua pesquisa, ele descobriu que a
Ano
52
largura dos anéis nos caules de pinheiros, vide Figura 1.26, depende da
quantidade de chuvas. Douglass conseguiu determinar um calendário de
chuvas desde 700 d.C. até os dias de hoje, por meio destes anéis. Na década
de 1950, outro astrônomo chamado Edmund Schulman (1908 - 1958),
continuou a pesquisa de Douglass, porém utilizando pinheiros Britlecone para
levantar um calendário mais antigo que o de seu sucessor. Como resultado, foi
obtido um registro da pluviosidade desde 6.000 a.C, vide Figura 1.27, até hoje.
Atualmente, há estudos europeus que retrocedem até 9.000 a.C. o clima na
Europa.
Figura 1.26 – A variação na largura dos anéis do caule de um pinheiro Bristelcone
corresponde à mudança anual de temperatura e pluviosidade.
Figura 1.27 – Variação da pluviosidade na Califórnia meridional, obtida por meio dos
anéis de pinheiros Bristelcone.
Nas colinas brancas da Califórnia meridional vivem os seres vivos mais
antigos conhecidos pelo homem, os chamados pinheiros Bristlecone, Figura
1.28. Estes são árvores de caule retorcido de clima seco cujas árvores mais
anciãs brotaram a 4.700 anos atrás, ou seja, quando a civilização grega estava
Ano
média do século XX
53
começando a se estabelecer e os egípcios começaram a erguer as magníficas
Pirâmides de Gizé. O solo ao redor destas árvores é descoberto de gramíneas
ou outras pequenas plantas devido às condições adversas da região. Há
carência de qualquer outra forma de vida, o que permite a estas árvores
viverem isoladas por muitos e muitos anos. Os caules destas árvores, como de
muitas outras, apresentam anéis quando cortados seccionalmente. Cada anel
representa um ano de vida da árvore e dá aos cientistas ideia das condições
climáticas em várias ocasiões.
Figura 1.28 – Pinheiros Bristelcone da Califórnia meridional, os seres vivos mais
antigos do mundo.
Das profundidades oceânicas até as árvores terrestres, passando pelo
gelo e pelas formações rochosas, a Paleoclimatologia revela as mudanças
climáticas que causaram cicatrizes em nosso planeta. Por meio desta ciência,
os quebra-cabeças do passado climático da Terra começam a ser desvendado.
Cabe aos cientistas explicar as evidências encontradas e convertê-las em
informações de quando e como as mudanças climáticas ocorreram.
A importância da paleocilmatologia vai além do conhecimento do clima no
passado. Ela nos dá ferramentas necessárias para prever (NOAA, 2009B)
alterações no sistema climático futuro. As medições instrumentais de
temperatura revelam um aumento na temperatura média da Terra de 0,5 ºC de
54
1890 até o presente. Entretanto, este registro já seria muito recente se
compararmos a história do homem na Terra, quanto mais com relação à
história da Terra. Por meio das medições instrumentais, fica impossível
determinar se este aquecimento decorre das atividades humanas ou é
decorrente de fenômenos naturais. A Paleoclimatologia amplia este
conhecimento para centenas ou milhares de anos no passado e permite uma
análise muito maior do que apenas 140 anos.
A causa do aquecimento global evidenciado nos últimos anos ainda é
uma controvérsia (NOAA, 2009B). Alguns cientistas defendem que tratar-se de
um agravamento do efeito-estufa decorrente das atividades humanas. Outros,
todavia, tem sugerido fatores naturais como a causa deste aquecimento, tais
como atividade vulcânica e um aumento na atividade solar. A
Paleoclimatoloogia permite estudar as variações climáticas do passado,
quando o homem ainda não influenciava na natureza, e, dessa forma, permite
que a ciência tente entender o mecanismo que aquece a Terra hoje.
1.6. Evolução do clima na Terra.
Variações do clima do planeta são mais comuns do que pensava-se em
tempos atrás (Miller, 2007). Em grande parte da idade da Terra (4,7 bilhões de
anos) houveram modificações devido às atividades vulcânicas, intensificação
das atividades solares, deriva dos continentes, choque com grandes meteoros,
entre outros fatores.
Só nos últimos 900 mil anos (Miller, 2007), inúmeros períodos de
aquecimento e resfriamento foram verificados na atmosfera superficial da
Terra. Em cada Era Glacial, a cobertura de gelo dos Polos estendeu-se por
grande parte da superfície terrestre durante aproximadamente 100 mil anos.A
humanidade, entretanto, tem tido sorte, uma vez que nos últimos 12 mil anos (o
que engloba todo o período de domínio da agricultura pelo homem) nosso
planeta passou por um período de estabilidade na temperatura muito favorável
aos seres vivos.
55
Entretanto, em virtude de diversas publicações científicas, citadas neste
trabalho, foi constatado no século XX que nosso planeta estaria passando por
um período de mudanças climáticas e que a concentração de gases
causadores de efeito estufa, potenciais causadores de aquecimento, estaria
acumulando na atmosfera devido às ações humanas.
Conforme Figura 1.11 (tópico 1.3) apresenta-se o perfil de variação da
temperatura média na superfície da Terra no Hemisfério Norte nos últimos 140
anos, obtido por intermédio de medições instrumentais em três importantes
centro de pesquisas do clima: CRU, GISS e NCDC. Tais registros revelam um
aquecimento de aproximadamente 1ºC desde o início das medições.
Adicionalmente, ao verificar a Figura 1.8 (do mesmo tópico), constata-se que a
concentração de CO2 vem aumentando gradativamente nos últimos 50 anos de
registro pela “Curva de Keeling”.
Estas informações levantadas foram importantes no estabelecimento de
movimentos recentes da sociedade científica e política para entender e, se
possível, mitigar o aquecimento global. Um movimento importante chamado
Painel Intergovernamental sobre Mudanças Climáticas (IPCC) foi formado em
1988 pela Organização Mundial de Metereologia (Miller, 2007) “para
documentar as mudanças climáticas do passado e fazer projeções de
mudanças futuras”. Sua criação decorreu da percepção de que a ação humana
poderia estar influenciando de forma significativa o clima do nosso planeta e,
por isso, um acompanhamento era necessário. Atualmente, esta entidade
contempla opinião de mais de 2 mil especialistas de diversos países e promove
avaliações regulares sobre as mudanças climáticas publicadas na forma de
pareceres técnicos e relatórios. O primeiro Relatório de Avaliação sobre o Meio
Ambiente (Assessment Report) foi publicado em 1990 e reuniu argumentos em
favor da criação de uma Conferência Internacional para que o tema fosse
amplamente debatido.
Conforme IPCC (2007), a temperatura superficial média mundial
aumentou 0,76 ºC entre 1850 a 2005 (155 anos). Desses, o maior aquecimento
(0,74 ºC) foram registrados entre 1906 a 2005, ou seja, os últimos 100 anos,
56
apesar do período de arrefecimento entre 1940 a 1950. Na Tabela 1.2 pode-se
verificar o reporte do IPCC sobre as taxas de aumento de temperatura nos
últimos 25 anos, 50 anos, 100 anos e 150 anos e percebe-se que quanto mais
próximo do presente, maior é a taxa de aquecimento da atmosfera.
Tabela 1.2 – Taxa de elevação da temperatura superficial média mundial
Período Taxa (º C / decênio)
25 anos + 0,177 ºC ± 0,052 ºC
50 anos + 0,128 ºC ± 0,026 ºC
100 anos + 0,074 ºC ± 0,018 ºC
150 anos + 0,045 ºC ± 0,012 ºC
O IPCC, em seu quarto relatório de 2007 (IPCC, 2007) apresenta o perfil
de anomalia da temperatura anual da superfície marinha do Atlântico Norte
(10ºN – 20ºN), na região em que formam-se as tormentas. Este gráfico
assemelha-se ao da Figura 1.11 (tópico 1.3).
Figura 1.29 – Variação de temperatura nos últimos 140 anos no Atlântico Norte (IPCC,
2007). Verifica-se semelhança com os perfis publicados pelos centros de pesquisas
CRU, GISS e NCDC.
57
Outro registro interessante de temperatura baseado em registros
instrumentais foi publicado pela NASA e consta na Figura 1.30.
Figura 1.30 – Dados de temperatura global da NASA (AIP 2009b) separado por
Hemisfério Sul (azul) e Hemisfério Norte (vermelho). Nota-se maior variação no
Hemisfério Norte.
Entretanto, apesar de estas medições abrangerem um período
considerável quando comparado à vida de um homem, em relação aos últimos
períodos da história natural da Terra, esses dados tornam-se quase
insignificantes. Deste modo, fica a pergunta: Qual a importância do aumento de
temperatura e de concentração de gás carbônico verificado quando comparado
dos últimos milhares de anos? Para responder esta pergunta abre-se mão dos
resultados obtidos pela Paleoclimatologia.
Os estudos paleoclimatológicos (IPCC, 2007) apoiam-se em
representações múltiplas, ou seja, resultados obtidos de diversas formas
(análise do gelo polar, dos sedimentos oceânicos, dos anéis de árvores ou dos
recifes de corais) podem comprovar-se de forma cruzada de forma a reduzir as
incertezas. Vide Figuras 1.31 e 1.32 o perfil de anomalia na temperatura
baseado em diversos estudos paleoclimatológicos.
58
Figura 1.31 – Perfil de Temperatura média anual no Hemisfério Norte entre os anos
800 d.C. e 2000 d.C. compilado pelo IPCC (2007) a partir de trabalhos publicados em
jornais científicos. A linha em preto corresponde às medições instrumentais do CRU e
as demais são levantamentos paleoclimatológicos. A anomalia de temperatura tem
como base o ano de 1990.
Figura 1.32 – Perfil de temperatura média anual no Hemisfério Norte entre os anos
1000 e 2000 compilado pelo IPCC (2001) a partir de diversos trabalhos científicos.
Dados instrumentais (vermelho) e registros paleclimatológicos: dispersão dos dados
(cinza), dados com 95% de confiança (azul) e média anual (preto).
De acordo com o IPCC (2007) a segunda metade do século XX
provavelmente foi mais quente do que os últimos 500 ou 1.200 anos. Por meio
das Figuras 1.31 e 1.32 essa informação fica evidente. Nestes gráficos pode-se
verificar que as medições instrumentais revelam uma curva ascendente a partir
do século XIX. Coincidentemente, ou não, as emissões de gases causadores
59
de efeito estufa decorrentes da Revolução Industrial iniciou aproximadamente a
200 anos atrás.
Os registros da paleoclimatologia revelam que existiu um arrefecimento
da temperatura entre 1200 e 1900, o qual foi chamado de “Pequena Era do
Gelo”. Para alguns cientistas, os registros de elevação de temperatura atuais
decorrem de um aquecimento natural após este período de temperaturas mais
amenas. Neste caso, não haveria intensificação do efeito estufa, porém a saída
da “Pequena Era do Gelo”. Outro argumento para os que defendem um efeito
estufa natural é que durante a Idade Média, entre 1000 e 1300, um período de
aquecimento é verificado. Neste período não haveria queima de fontes fósseis
e, caso a causa antropogênica fosse verdadeira, não deveria ser tão quente
nesta época.
Entretanto, vale ressaltar que essas constatações não são tão simples
assim, uma vez que, conforme as Figuras 1.31 e 1.32 e como já foi
mencionado, as temperaturas médias anuais após 1950 são maiores do que
qualquer outra no último milênio. Mesmo que exista influência de causas
naturais provenientes da saída da “Pequena Era do Gelo”, a parcela
antropogência parece ser importante. Ademais, o aquecimento evidenciado na
Idade Média não atingiu, muito provavelmente, os patamares atuais, uma vez
que não é evidenciado na história nenhum registro de derretimento intenso das
calotas polares como hoje é verificado.
Uma simulação muito interessante foi realizada pela NASA, no qual os
períodos de aquecimento e arrefecimento dos últimos 500 anos foram
apresentados sobre o Mapa Mundi. Vide Figura 1.33.
60
Figura 1.33 – Perfil mundial de temperatura em anos específicos com base em
resultados de simulação (NASA, 2003). O ano de 1870 foi usado como referência
arbitrária. Cor vermelha indica temperatura maior que a referência e azul indica
temperaturas menores que a referência. Nos anos de 1550 e 1670 pode-se verificar
pontos mínimos da “Pequena Era do Gelo”.
Adicionalmente, o entendimento do aquecimento global não depende
somente do perfil de temperatura. A concentração de gases causadores de
1550
1610
1670
1750
1850
1900
1950
2000
61
efeito estufa, como o dióxido de carbono ou o metano, determinados pela
medição instrumental ou pela paeloclimatologia, devem ser levadas em conta.
Conforme relatado por NOAA (2009a), o monitoramento de gases
causadores de efeito estufa tem sido um de seus objetivos. Amostras de ar tem
sido coletada de uma rede mundial de analisadores, provendo um quantitativo
anual de 100 locais diferentes, inclusive por meio de navios. Como resultado
dessas medições instrumentais, verifica-se gráficos como os da Figura 1.34,
dos quais o perfil de dióxido de carbono (chamado Curva de Keeling) já
mencionado neste trabalho.
Figura 1.34 – Médias globais de concentração dos maiores gases de efeito estufa da
atmosfera (NOAA, 2009a). Esses gases contribuem com 96% da absorção de
radiação emitida pelo Sol.
Os perfis da Figura 1.34 demonstram que, assim como para temperatura,
nos últimos 30 anos há um aumento considerável na concentração desses
gases causadores de efeito estufa. Esses dois aumentos evidenciados pelos
cientistas foram os grandes motivadores da teoria que prevê uma causa
antropogência do aquecimento global.
62
Há, entretanto, algumas diferenças entre os termômetros utilizados para
medir a temperatura da atmosfera e o método cromatográfico desenvolvido
para determinar com precisão as concentrações de gases causadores de efeito
estufa, o preço e o desenvolvimento tecnológico. Os termômetros são mais
baratos e conhecidos pelo homem desde o século XIX, o que permitiu
medições bem antigas. Já os cromatógrafos, entretanto, são caros e a
metodologia adotada somente foi desenvolvida após 1960, por Charles
Keeling, para o dióxido de carbono. Assim, a determinação da concentração
desses gases na atmosfera, diferentemente da temperatura, possuem um
histórico de 50 anos (menos do que uma vida humana). Deste modo, neste
caso, a paleoclimatologia possui um papel fundamental.
Por meio do acoplamento das medições instrumentais com os resultados
paleoclimatológicos, pode-se obter uma curva que engloba um período maior
do que aquele contemplado nas medições instrumentais de temperatura. Vide
Figura 1.35.
Figura 1.35 – Perfil de concentração de dióxido de carbono e metano desde 1750,
obtido por meio do acoplamento entre as medições instrumentais e dados
paleoclimatológicos, no caso obtidos por meio de amostras de gelo antártico (NASA,
2010). Observa-se que as medições instrumentais de CO2 iniciam-se em 1950 (Curva
de Keeling) e as de metano anos depois.
63
Por meio dos gráficos da Figura 1.35, pode-se tirara algumas conclusões.
O aumento das concentrações de dióxido de carbono e metano na atmosfera
(NASA, 2010) coincide com o início da Revolução Industrial na Inlgaterra,
aproximadamente em 1750. Isso tem sido adotado por alguns cientistas como
a prova de que o homem tem emitido artificialmente tais gases na atmosfera
como fruto do uso de fontes fósseis como o carvão e os derivados de petróleo
para produzir energia.
A atmosfera hoje (NASA, 2010) contém mais gases causadores de efeito
estufa e, dessa forma, mais radiação infravermelha é absorvida pela atmosfera.
Adicionalmente, assim como realizado para temperatura, vale reproduzir
a concentração de gases causadores de efeito estufa nos últimos 1000 anos.
Por meio do gráfico da Figura 1.36 pode-se verificar este perfil.
Figura 1.36 – Concentração atmosférica dos principais gases causadores de efeito
estufa, ao longo dos últimos 2000 anos (WMO, 2010).
Por meio destes gráficos, nota-se que a concentração de gases
causadores de efeito estufa aumentou vertiginosamente no século XX e
continua aumentando. Este comportamento foi desproporcional quando
comparado com o perfil dos demais anos do período considerado, uma vez que
64
nestes os níveis mantiveram-se equilibrados. Esse é mais um indicativo de que
os últimos 200 anos foram imprescindíveis no aumento da concentração destes
gases causadores de efeito estufa e da temperatura média da superfície
terrestre. A relação entre os dois parâmetros é entendido por muitos cientistas
como a comprovação do efeito estufa antropogênico.
65
CAPÍTULO II
OS IMPACTOS DE UMA TERRA FEBRIL
O clima da Terra passará por drásticas modificações se não houver uma
redução das emissões dos gases causadores de efeito estufa. As
consequências do aquecimento global podem trazer consequências
devastadoras, dizem alguns cientistas, conforme relatado por Arini (2008). Este
autor também faz uma analogia muito interessante entre o aquecimento global
da Terra e uma pessoa em estado febril. A febre ocasiona diversas
modificações fisiológicas no organismo vivo, como alterações nos batimentos
cardíacos, respiração e transpiração e, em sem o devido cuidado, pode levar a
sequelas permanentes ou, até mesmo, à morte. Com a Terra não é muito
diferente. As mudanças climáticas evidenciadas pelas gerações futuras são
muitas. Hoje, temos percepção de alguma alteração, porém, no futuro, isto
tende a intensificar-se.
Conforme apontado pelo IPCC (2007), a ocorrência de um aquecimento
do sistema climático é inequívoco. Neste trabalho, mais especificamente no
Capítulo I, diversos registros deste aumento da temperatura média global e da
concentração de gases causadores de efeito estufa são evidenciados.
Complementando os dados da Tabela 1.2, o IPCC (2007) afirma que os
anos entre 1995 e 2006 (últimos 12 anos com base na data de publicação do
relatório) figura como o mais quente desde 1850 (com base nos registros
instrumentais). Este aumento da temperatura estaria distribuído por todo o
planeta, porém tem sido verificada uma acentuação nas latitudes setentrionais
superiores. Ademais, inúmeras outras fontes confiáveis também confirmam, de
forma segura, que o munda está passando por um período de aquecimento
global intenso (NASA, 2010; WMO, 2010; Foley, 2010; NCDC, 2010; AIP,
66
2009b; Lemonick, 2009; Crossette, 2009; Arini, 2008; Miller, 2007; Pinotti,
2007; Rifkin, 2003; Costa, 2003).
Segundo indicado por Miller (2007), para a ciência a elevação das
temperaturas da troposfera não é a única preocupação, uma vez que as
mudanças climáticas verificadas têm ocorrido de forma muito rápida. Conforme
os registros da paleoclimatologia (ver Capítulo I), os aquecimentos verificados
no passado levaram milhares de anos para ocorrer. Muitos consideram que as
chances deste aquecimento verificado hoje ser o maior dos últimos 1.000 anos
possui uma confiança maior do que 90%.
Essa intensa velocidade com que os processos climáticos estão mudando
(Miller, 2007; Pinotti, 2007) cria uma questão importante para a humanidade
equacionar: Há pouco tempo para mitigar os efeitos do aquecimento global,
uma vez que um dia poderá ser tarde demais. Além disso, outro fator que
complica a solução desta equação é que o carbono permanece na atmosfera
por 100 anos e, por isso, mesmo que suas emissões sejam estabilizadas hoje,
por mais um século sentiremos seus efeitos.
Há uma vasta literatura que trata acerca dos impactos decorrentes do
aquecimento global (Miller, 2007; Pinotti, 2007; IPCC, 2007; NASA, 2010).
Dentre estes impactos, vale citar modificações nos padrões de precipitação,
aumento da taxa de corrosão das costas marítimas, alongamento do período
de plantio em regiões frias, expansão das terras desérticas, derretimento das
calotas polares e demais geleiras e aumento da incidência de algumas
doenças infectocontagiosas tropicais. Muitas destas mudanças já são
percebidas pelos cientistas (NASA, 2010).
Estes impactos causados pelo aquecimento global são muitas vezes
relacionados somente às questões ambientais, porém vale ressaltar que,
muitas vezes, transcendem o viés ambiental e permeiam campos como a
economia ou a ética.
Por exemplo, o derretimento do gelo das calotas polares e a consequente
elevação dos oceanos, considerada por muitos como o maior impacto da
67
elevação da temperatura, permite esta constatação. Primeiro, trata-se de uma
agressão à natureza terrestre, visto que promoverá a perda do gelo polar e
geleiras eternas do alto de montanhas, os quais existem muito antes do
homem caminhar sobre a Terra. Em séculos, tudo será desfeito, provocando
alterações consideráveis na salinidade oceânica ou nas corretes marpítimas,
como outras. A perda do ambiente original de inúmeras espécies polares, como
ursos, pinguins, mamíferos marinhos, entre outros podem não se adaptar às
novas condições e extinguirem-se completamente. Em segundo plano, vale
olhar com atenção à questão da elevação dos oceanos. Em alguns anos,
conforme previsão dos cientistas, ocorrerá o alagamento de inúmeras
metrópoles litorâneas como Nova Iorque, Los Angeles, Rio de Janeiro, Buenos
Aires, Tóquio, Xangai, Sidnei, Bombaim, entre outras. Milhões de pessoas e
empresas perderão seus bens e patrimônio, podendo haver a instauração de
um grande tremor nas economias. Finalmente, vale considerar o aumento da
pobreza mundial e o desaparecimento de diversos pequenos países como
resultado de tais efeitos. É válida a ocorrência de tantos problemas causados
por um crescimento econômico tão irresponsável, baseado na queima
ininterrupta de fontes fósseis? Infelizmente, para alguns governos ou sociedade
a resposta tem sido “sim”.
Foi descrito por Miller (2007) que, em alguns lugares mais frios, o
aumento da temperatura da Terra não terá apenas efeitos nocivos, como,
também, alguns efeitos, até certo ponto, benéficos. Assim, em determinados
locais que possuam invernos rigorosos como o Canadá ou a Sibéria, ficariam
mais quentes, com áreas agricultáveis maiores e com a possibilidade de
cultivar insumos originários de climas quentes como a cana-de-açúcar. Nesses
lugares o índice de mortes por doenças comuns ao frio seria reduzido, porém
não está descartada a possibilidade de haver migração de doenças mais
comuns em climas quentes como a malária ou a dengue, que hoje não é tão
frequente devido às baixas temperaturas, e cujo sistema imunológico de tais
populações pode não estar preparado.
68
Entretanto, outras regiões sofreriam com calor excessivo (Miller, 2007),
principalmente nações pobres localizadas nas regiões tropicais da América,
Ásia e África, devido ao aumento das regiões desérticas, intensificação das
tempestades, escassez de recursos hídricos, redução da produção de
alimentos com elevação dos preços, entre outros, eliminando, dessa forma, os
impactos positivos de um mundo mais quente.
Além disso (Miller, 2007), muitas espécies da fauna e da flora endêmicas
que não consigam migrar para regiões mais amenas ou adaptar-se às
temperaturas mais altas, podem ter sua população drasticamente reduzida ou,
até mesmo, extinta. Muitos parques de preservação, reservas biológicas, áreas
selvagens, entre outros, ficariam ameaçados. Em especial, as espécies mais
afetadas seriam os recifes de corais e as que habitam nos mares polares, nas
áreas costeiras úmidas, na tundra e no cume das altas montanhas.
Entretanto, algumas espécies seriam beneficiadas pelas temperaturas
mais quentes, dentre as quais constam (Miller, 2007) as ervas daninhas de
crescimento rápido (que disputaram as terras com as espécies cultivadas), os
agentes nocivos transmissores de doenças como mosquitos ou moscas e os
micro-organismos causadores de doenças como bactérias, protozoários e
fungos.
2.1. Uma nova Era Glacial: Será o calor capaz de resfriar a Terra?
Como descrito por Pinotti (2007), não há consenso sobre, exatamente,
quais impactos serão ocasionados pela elevação das temperaturas na
troposfera. As possibilidades teóricas são muitas, inclusive existem estudos
que anteveem o início de uma Era Glacial.
Segundo Pinotti (2007) e Miller (2007), na Terra existem circuitos
conectados de correntes marinhas rasas e profundas transmitindo água quente
ou fria para diversos cantos do planeta, vide Figura 2.1. As correntes marítimas
são grandes fluxos de água que cruzam o globo terrestre carreando o calor
69
adquirido nas regiões equinociais para o Atlântico Norte, mais especificamente
para o Ártico, e o frio das regiões setentrionais e meridionais para os Trópicos.
Figura 2.1 – Correntes marítimas (Simithsonian, 2010a). Circulação dos oceanos
motivada pela diferença de massa específica (controlada por temperatura ou
salinidade dos oceanos).
A força motriz das correntes oceânicas são os ventos e a diferença de
massa específica existente devido à variação abrupta de temperatura e
salinidade (Miller, 2007). Quando a água gela, o sal é rejeitado (Smithsonian,
2010). Assim, a camada de água fria localizada abaixo da extensa cobertura de
gelo do Ártico torna-se muito densa (primeiro devido à baixa temperatura e
segundo pela dissolução do excedente de sal advindo da água que foi
congelada). Esta água mais densa afunda e abre espaço para a água mais
quente e leve proveniente dos Trópicos, também chamada de Corrente do
Golfo. A corrente fria densa e salgada flui pela profundeza dos oceanos até
emergir novamente nos Oceanos Índico e Pacífico devido ao aquecimento
promovido pelos Trópicos e, também, pela difusão do excesso de sal contido
em seu interior. Esta corrente mais quente e mais leve retorna ao Ártico pela
superfície, esquentando cada vez mais, e fechando o circuito.
70
Uma vez que o aquecimento global promove o derretimento das calotas
polares (Smithsonian, 2010; Miller, 2007; Pinotti, 2007), uma grande
quantidade de água doce flui para os oceanos, deixando-os menos salgados
devido à dissolução dos íons. Ademais, um mundo mais quente possui
precipitações mais intensas, o que também contribui para a redução da
salinidade oceânica. Além disso, a redução das extensões de gelo do Ártico
reduz a reflexão das radiações solares, favorecendo com que o Oceano Ártico
se aqueça e, dessa forma, pode haver uma diminuição da diferença de
temperatura entre os polos e o Equador. Ambas a diminuição de salinidade e
de diferença de temperatura contribuem para reduzir a força motriz das
correntes marítimas, podendo ocasionar, como já foi mencionado, uma redução
de sua velocidade ou, inclusive, sua interrupção.
Uma vez que tais correntes marítimas exercem uma influencia primordial
no aquecimento do Atlântico Norte (Miller, 2007; Pinotti, 2007), sua falta pode
provocar um resfriamento considerável nos Polos Norte. Assim, as geleiras do
Ártico podem se estender pela América do Norte, Europa e Sibéria. Como a
ampliação da área coberta de gelo permite uma maior reflexão dos raios
solares, ao contrário do derretimento, este processo potencializaria ainda mais
o frio polar. Desta forma, Essa massa substancial de gelo arrefeceria muito a
temperatura na superfície da Terra e encerraria o planeta em uma nova Era do
Gelo.
Entretanto, conforme mencionado por Miller (2007), este resfriamento
abrupto do Polo Norte pode não ser seguido pelas demais regiões do Globo,
uma vez que a atmosfera encontra-se repleta de gases causadores de efeito
estufa. Nas outras partes do mundo acredita-se que, com a estagnação dos
oceanos, haverá muitos distúrbios como inundações, estiagens, fortes
tempestades e aquecimento severo.
Todos os anos gastos pela natureza para construir o equilíbrio perfeito na
superfície terrestre pode ser drasticamente abalado em apenas alguns séculos
de industrialização da sociedade humana.
71
2.2. Quando o gelo vira mar.
Pode-se dizer que dentre todos os impactos do aquecimento global, o
mais conhecido e, considerado por muitos, o mais grave, consiste no gradual
derretimento do gelo compreendido no Ártico, na Antártida e nas neves eternas
das grandes altitudes. Todo ano, toneladas de água, fruto deste degelo
continuado, fluem para os oceanos e mares, de forma a aumentar o volume de
água líquida no mundo e encobrir grande parte das terras emersas devido à
elevação dos níveis oceânicos.
Embora não seja de conhecimento difundido, o aquecimento global
também proporcionará outros impactos importantes além do aumento dos
níveis dos mares. Dentre estes constam: redução da salinidade dos oceanos
devido à água doce proveniente do degelo das calotas polares; modificações
nas correntes marinhas como retardo, mudança de direção ou, até mesmo,
desaparecimento; influência na vida marinha (algumas espécies, assim como
nos continentes, podem não adaptar-se à elevação da temperatura das águas);
entre outros.
As previsões futuras associadas ao degelo e elevação dos oceanos não é
muito agradável (NASA, 2010), visto que estes impactos serão responsáveis
pelo desaparecimento de inúmeras pequenas ilhas espalhadas por todos os
oceanos do mundo, bem como as cidades costeiras de todos os continentes.
Algumas pesquisas indicam que 10% da população mundial residem em
altitudes menores do que 10 m e, se as taxas médias de elevação do nível dos
mares continuarem em 1,8 mm por ano (média verificada entre 1870 e 2000),
levaria aproximadamente 60.000 anos para atingir tal elevação. Parece bem
confortável a situação, porém, na realidade, esta taxa é uma média desde o
século XIX, quando os níveis eram bem menores. As taxas dos últimos 6 anos
indicam um valor de 3,1 mm por ano, o que reduz para 3.300 anos o tempo de
elevação. Mesmo assim continuaria sendo razoável. A questão é que não há
uma estagnação da taxa e sim uma aceleração, o que direciona uma redução
72
deste tempo máximo a medida que o tempo passa. Em algum momento a
perspectiva poderá ser reduzida para 500 anos, 100 anos ou algumas décadas.
A perspectiva do IPPC (2007) para 2099 é de um aumento no nível dos
mares de 60 cm. Parece pouco, porém isso significa intensificação de
maremotos, ondas maiores, destruição nas costas marítimas causadas por
tempestades. As contenções usualmente adotadas pelo homem precisarão ser
revistas porque o mar do futuro será mais elevado que o do passado. Mesmo
uma pequena elevação poderá causar danos potenciais e perdas humanas ou
econômicas grandes.
Conforme verificado nas Figuras 1.11, 2.2 e 2.4, há uma concordância
inegável entre a elevação da temperatura média da superfície da Terra, a
redução da cobertura de gelo do Hemisfério Norte e a elevação do nível do
mar.
Figura 2.2 – Média mundial por ano do nível dos mares a partir de 1870 (IPCC, 2007).
Em vermelho constam valores baseados em reconstruções, em azul medições a partir
de mareógrafos (após 1950) e em preto por meio de altimetria de satélite (após 1992).
O nível de referência foi adotado como a média de 1961 a 1990 e as barras de erro
representam os intervalos de 90% de confiança.
Os registros indicam que desde 1961 os oceanos têm se elevado a uma
taxa média (IPCC, 2007), calculada por mareografia, de 1,8 mm por ano. Se
considerarmos os últimos anos, ou seja, desde 1993, nota-se uma taxa ainda
maior, de 3,1 mm por ano, medida por meio de satélite, o que é um indicativo
73
de uma intensificação recente. Vale ressaltar que taxas maiores de
aquecimento também foram observadas nos últimos anos, como já foi
abordado.
A fim de conhecer melhor a elevação do nível oceânico, foram realizados
estudos que visam determinar a parcela de cada causa. Foi obtido como
resultado, com base nas taxas anuais correntes, que 60% são devido à
dilatação térmica por conta do aquecimento das águas e 40% devido ao
degelo, conforme dados do IPCC (2007).
Além dos oceanos, vale comentar também sobre o gelo que cobre partes
da superfície terrestre. De acordo com indicações do IPCC (2007), o gelo
atualmente cobre cerca de 10% da superfície terrestre, cuja maior quantidade
encontra-se na Antártida e Groelândia. Em meados do inverno, a neve cobre
quase 50% dos continentes do Hemisfério Norte.
As superfícies cobertas de gelo, por serem brancas, são responsáveis
pela reflexão de 90% da radiação advinda do Sol (IPCC, 2007), direcionando
esta parcela da energia radiante de volta ao espaço. No caso dos oceanos e
terras emersas, esse percentual atinge somente 10%. Por este e outros
motivos, as coberturas de gelo são importantes na manutenção da temperatura
da Terra. O derretimento dessas massas geladas impactará enormemente no
clima global do planeta. Isso sem contar pelo fato de que 75% da água doce do
planeta existe na forma de gelo, a qual alimenta muitos rios que abastecem os
continentes e evitam dissolução dos sais minerais contidos nos oceanos.
Segundo Lemonick (2009), o movimento de retração e expansão do gelo
da superfície influencia muito em todo o globo. A medida que as calotas
polares retraem, como tem acontecido hoje, mais superfície escura fica exposta
e, assim, menos radiação é refletida. O processo é então acelerado. Mais gelo
será derretido devido ao aquecimento maior evidenciado e, mais água líquida
será verificada na troposfera, tornando o mundo mais úmido. Um processo
contrário, expansão do gelo, permitiria maior reflexão dos raios solares e,
74
dessa forma, o processo se intensifica. Diferentemente do anterior, este é um
processo seco e menor precipitação e tempestades são evidenciadas.
Segundo Narlock (2009), o Ártico é o melhor indicador do aquecimento
global, por isso é muitas vezes referenciado, uma vez que está é a parte do
planeta mais sensível ao efeito estufa. Esta sensibilidade se dá porque flui para
o extremo norte todos os ventos originários da América do Norte, Europa,
Rússia e China, que contém os países maiores emissores de gases
causadores de efeito estufa do mundo. Essa poluição recebida é tão intensa
que reduz a brancura da neve, prejudicando sua capacidade de refletir os raios
solares e contribuindo para seu aquecimento.
Ao observar por meio de satélite a capa de gelo do Hemisfério Norte
(IPCC 2007), verifica-se que desde o ano de 1966 há uma redução em
praticamente todos os meses do ano, exceto novembro e dezembro que
correspondem ao auge do inverno. Essa diferença entre os meses de inverno e
de verão para observação das calotas polares também foi relatada por Narloch
(2009), vide Figura 2.3. Nos meses de inverno, Ásia e América do Norte ficam
cobertos de neve, camuflando, assim, a redução do “gelo eterno” do Ártico.
75
Figura 2.3 – Nota-se que a redução da calota polar do Ártico nos meses de inverno
representou somente 8%, enquanto no verão ficou em 33%. Isso se deve ao fato de
que, no inverno, as neves que cobrem os continentes camuflam o “gelo eterno”
(Narloch, 2009). Verifica-se na figura imagens de satélite de 1979, primeiro ano do
monitoramento por satélite, e 2008 (30 anos).
Narlock (2009) informou, ainda, que recentemente, o Ártico, pela primeira
vez, deixou de ligar a América do Norte e a Ásia. Foi possível realizar uma
circum-navegação da calota polar ártica. A Figura 2.3 trás uma informação
muito importante, visto que mostra haver, mesmo durante o inverno, uma
redução do gelo polar. Assim, constata-se que a situação agrava-se a cada
ano. A Figura 2.4 apresenta a cobertura de neve do Hemisfério Norte após o
verão, quando a capa de neve encontra-se em um dos seus níveis mais baixos.
76
Figura 2.4 – Cobertura de neve do Hemisfério Norte após o verão, entre março e abril,
baseado em medições instrumentais (antes de 1972) e medições de satélite (após
1972). A curva suave (preto) mostra a média decenal. A faixa amarela representa a
margem de confiança de 5 a 95% (IPCC, 2007).
A Figura 2.5 complementa a Figura 2.4 porque se refere especificamente
ao gelo polar e não à neve do Hemisfério Norte.
Figura 2.5 – Variação do
gelo marinho ártico (acima) e
antártico (abaixo) mostrando a
tendência evidenciada por
satélites no período de 1979 a
2006 (IPCC, 2007). Os pontos
representam os valores anuais e
as curvas azuis indicam a média
decenal. As linhas tracejadas
correspondem às tendências
lineares.
A Figura 2.5. mostra uma redução do gelo marinho ártico desde o início
das medições por satélite. Com base nestes dados, o IPCC (2007) indicou que
houve uma redução decenal média de 2,7% desde 1979. Os dados do último
77
decênio mostram uma situação mais crítica, visto que a média ficou em 7,4%.
Esse agravamento dos últimos anos é condizente com fato de que também são
piores as taxas mais recentes de elevação dos níveis dos oceanos e aumento
da temperatura global. Em relação ao gelo marinho antártico, nota-se,
inclusive, uma tendência positiva sem relevância estatística. A curva linear
calculada encontra-se praticamente sobre a reta de referência (y=0). Isso pode
ser explicado pela maior sensibilidade do Polo Norte frente ao Sul, por vários
motivos já exemplificados, bem como, também, pelo maior isolamento do
continente Antártico às ações humanas, menor aquecimento verificado no
Hemisfério Sul e pelo fato de que a maior quantidade de gelo da Terra
encontra-se no solo da Antártida. Quando o gelo antártico começar a
apresentar degelo nos níveis hoje evidenciados no Ártico, será praticamente
impossível reverter o futuro catastrófico.
Conforme descrito por Pinotti (2007), apesar de as medições por satélites
identificarem uma situação mais estável na Antártida, esta pode estar
registrando, na verdade, a colossal massa de gelo sobre o continente antártico.
Todavia, é registrado algum degelo na Península Antártica, próxima à Terra do
Fogo na Argentina. Segundo esta fonte, há um derretimento acelerado nesta
ponta mais ao norte da Antártida, onde já foram registradas desintegração de
três plataformas gigantes, a de Larsen A (1995), a de Wilkins (1998) e a de
Larsen B (2002).
Estes estudos também mostram que não se trata de um degelo localizado
nos polos, porém se estende por toda a Terra. Como o degelo já pode ser
percebido no Ártico, um sistema particularmente mais estável, a situação do
gelo que recobre inúmeras montanhas é mais crítica. Na Figura 2.6 verifica-se
o estado do cume do Monte Kilimanjaro, na África (Capozzoli, 2009a). Antes
considerado um ícone do continente africano e um exemplo da complexidade
da natureza, o Monte Kilimanjaro, uma ilha de gelo no meio da selva tropical
africana, não terá mais neve daqui a 20 anos caso as taxas de aquecimento
global não sejam reduzidas, segundo os especialistas. Hoje, este vulcão
adormecido, que apresenta uma altitude de 5.982 m, localizado na Tanzânia,
78
possui apenas 15% do gelo que o cobria em 1912 (ano de início das medições)
e, acredita-se que os níveis atuais são os menores dos últimos 12.000 anos.
Figura 2.6 – Redução do gelo que cobre o Monte Kilimanjaro por imagens de satélite
do GISS da NASA (Capozzoli, 2009a).
Outras elevações ao longo do Globo terrestre também estão em situação
problemática (Capozzoli, 2009a), dos quais, algumas altitudes são maiores que
as do Kilimanjaro. Desses, pode-se citar o Himalaia, a Cordilheira dos Andes,
os Alpes Europeus e as Montanhas Rochosas Americanas. Segundo o IPCC
(2007), as observações da profundidade da neve nas montanhas ao longo do
mundo indicam uma redução significativa nos últimos 50 anos.
O IPCC (2007) alerta que o derretimento completo das capas de gelo das
grandes montanhas impacta diretamente a sociedade humana. Muitos corpos
de água, como lagos e grandes rios dependem do degelo natural dessas
geleiras e, com sua perda gradual, haverá, a curto e médio prazo, um
excedente perigoso destes corpos hídricos que causarão destruição e, em
longo prazo, uma escassez intensa.
Além do degelo no Ártico, na Antártida e nas grandes altitudes, um
trabalho que trate deste assunto não pode deixar de comentar sobre o
Permafrost. O Permafrost compreende um terreno congelado no Hemisfério
Norte, mais especificamente na Sibéria, repleto de metano preso no gelo. O
gás metano (Simpson, 209) é produzido em qualquer lugar em que exista
matéria orgânica degradada por micro-organismos fora da presença de
79
oxigênio (fermentação anaeróbia), seja na barriga das vacas, em um biorreator,
abaixo de toneladas de lixo de um aterro sanitário ou sob uma camada de 25 m
de gelo de espessura do Permafrost siberiano. Esta matéria orgânica provém
de plantas e animais mortos, os quais ficam presos devido às tempestades de
neve. Este processo existe há milhares de anos, desde a última glaciação e,
por isso, existe muita matéria orgânica presa no gelo.
De acordo com Simpson (2009), este metano preso no gelo tem sido
liberado para a atmosfera devido ao degelo proporcionado pelo aquecimento
global, vide Figura 2.7. Cada ano uma camada de gelo derrete devido à
elevação da temperatura liberando o metano presa no gelo. Entretanto, apesar
de o metano ser um gás potencialmente causador de efeito estufa (20 vezes
mais que o dióxido de carbono), esta quantidade de metano liberada pelo
degelo pode ser considerada pequena e não preocupava muito os cientistas. O
Permafrost levaria anos para derreter por completo.
Recentemente, os trabalhos desenvolvidos pela pesquisadora Katey
Walter, conforme apresentado por Simpson (2009), revelaram uma situação
diferenciada. O leito, relativamente quente dos lagos decorrentes do degelo,
derrete a terra congelada em seu fundo a dezenas de metros abaixo de sua
superfície. Conforme se dá o derretimento dessas camadas mais profundas e a
temperatura esquenta um pouco mais, os micro-organismos contidos na água
do lago começam a atuar e degradar a matéria orgânica presa no gelo gerando
metano que ainda não havia sido produzido. Essa descoberta aumentou de
forma considerável a preocupação acerca das emissões siberianas de metanol.
Durante o verão, quando os lagos são mais extensos, a liberação deste gás
não é muito percebida, porém, durante o inverno o metano fica retido nas
camadas superficiais de gelo dos lagos e acumula facilitando sua detecção. No
inverno, o acúmulo é tão intenso que ao perfurar a camada de gelo sobre os
lagos, é possível ascender labaredas de 50 cm utilizando o gás metanol
liberado, vide Figura 2.7. Como a maioria das pesquisas são realizadas no
verão siberiano, devido às condições adversas do local, este fato passou
despercebido por muito tempo.
80
Figura 2.6 – Simpson (2009) apresenta um esquema da liberação do metano contido
no Permafrost: (1) ano a ano o gelo derrete liberando pequenas quantidades de
metano e, conforme a água vai penetrando mais no gelo, micro-organismos do lago
consomem a matéria orgânica não degradada e produz uma quantidade ainda maior
de metano; (2) Nos locais em que o Permafrost cobre hidratos de metano (metano e
água congelados) a emissão do gás é menos comum, porém pode haver a formação
de caminhos, devido ao derretimento do gelo, pelo qual o metano pode fluir; (3) Nas
costas marítimas poderá ocorrer uma combinação da liberação de metanol dos
hidratos e da degradação da matéria orgânica.
Figura 2.7 – A cientista Katey Walter descobriu os
acúmulos de metanol nos lagos siberianos que são
capazes de manter acesos labaredas de uns 50 cm
na neve (Simpson, 2009).
81
Assim, cada vez mais as emissões de gás metano, provocada pelo
aquecimento global, tem contribuído ainda mais para intensificar o efeito estufa.
Quanto mais metano na atmosfera, mais quente é a Terra. Isso aliado ao fato
que a redução da cobertura branca das capas de gelo de nosso planeta
permite uma maior absorção dos raios solares, o processo de degelo tem
contribuído cada vez para a causa de sua destruição, o aquecimento global.
Logo, pode chegar o momento em que o processo seja autônomo e nada mais
o ser humano poderá fazer para voltar atrás.
Nossos filhos ou netos habitaram um planeta muito diferente do nosso:
muito quente e com uma cobertura de gelo bastante reduzida ou, até mesmo,
completamente acabada (a única exceção pode ser o extenso gelo antártico
que, talvez, nessa época, esteja seguindo o caminho dos demais). Além disso,
há a elevação do nível dos oceanos. Será que as praias e ilhas que
conhecemos hoje existirão no futuro? Nossos descendentes poderão caminhar
pelo Aterro do Flamengo ou Copacabana? E os países ilhas, sobreviverão ao
futuro?
2.2. Climas extremos, tempestades à vista.
Conforme o último levantamento realizado pelo IPCC (IPCC, 2007;
Pinotti, 2007; Miller, 2007), considerando diversos cenários futuros, a
temperatura média da superfície da Terra aumentará entre 1,4ºC e 5,8ºC no
século XXI. NASA (2010) indica que o aquecimento global sera responsável
por causar maiores e mais destrutivas tempestades, em virtude o aumento
global do volume de precipitações. Pela Figura 2.8 pode-se verificar uma
modelagem da modificação da pluviosidade global. A simulação contempla os
meses de inverno e verão nos Hemisfério Norte e Sul. Verifica-se por meio das
regiões vermelhas que as regiões tropicais, locais de muitos países pouco
desenvolvidos, serão mais secas e terão sua pluviosidade reduzida. Todavia,
nas regiões verdes, zonas frias e polares, haverá um aumento na pluviosidade.
A previsão indicada comprova o que diz Pinotti (2207), em que países tropicais
da América do Sul, África e Ásia poderá haver quebra da produção agrícola
82
devido à escassez e em locais frios como Canadá e Rússia, está previsto um
aumento na produtividade agrícola.
Figura 2.8 – Variação na
pluviosidade global conforme
modelagem da NASA (2010).
Nota-se maior falta de umidade
na região tropical e excesso nas
regiões polares. O período de
1989 a 1999 foi considerado
como base e a previsão é para o
período entre 2090 e 2099.
Mesmo hoje já existem relatos de climas mais secos e úmidos do que o
normal (Pinotti, 2007; NASA, 2010). Em 1998 foi verificada uma intensa onda
de calor na Índia que foi responsável pela morte de muitas pessoas e dois anos
depois, em 2000, foi registrado na Inglaterra um verão com muitas chuvas e
tempestades que provocaram muita destruição.
A umidade atmosférica tem aumentado desde 1976 e está intimamente
relacionada com as altas temperaturas terrestres e oceânicas (IPCC, 2007).
Esta umidade adicional verificada implica em um aumento dos volumes de
precipitações. No futuro, grandes tempestades, alagamentos, furacões, torna
dos, entre outros, serão mais comuns e mais severos dos que os
verificados na atualidade e no passado.
Os registros desde 1900 indicam que a pluviosidade tem aumentado nas
partes orientais do norte da América do Sul e do Norte, Europa Setentrional e
Ásia setentrional e central (IPCC, 2007). Em contrapartida, neste período tem
83
sido verificada uma redução da pluviosidade no sul da África e sul da Ásia.
Ademais, é bem provável que, nos últimos 50 anos, os dias e noites frios tem
sido menos frequentes na maioria das áreas terrestres. Veja a Figura 2.9 o
perfil global de pluviosidade em mm.
Figura 2.9 – Variação da pluviosidade global desde 1900 indica um aumento desde
1950 (BOM, 2005).
A atividade ciclônica tropical tem aumentado no Atlântico Norte desde
1970, conforme indicado por IPCC (2007), porém com escassas evidências em
outras regiões. Além disso, também tem sido verificado que a quantidade e
intensidade de furacões no Atlântico Norte desde 1980 encontra-se acima do
normal.
Outra particularidade importante veio do Brasil. Nosso país sempre foi
considerado um país sem incidência de furacões. Porém, isso deixou de ser
verdade em 2004, quando a Região Sul do país sofreu com a fúria do Furacão
Catarina. É possível que com o aquecimento global, nosso país passe a ser
afetado por ventos e furacões cada vez mais fortes, podendo chegar a cidades
maiores como São Paulo e Rio de Janeiro e demandando maior investimento
do governo em um sistema antifuracão como o existente nos Estados Unidos e
84
Japão. O motivo pelo qual o Brasil não tinha furacões era a temperatura fria da
Corrente das Malvinas que chegava até a Região Sudeste do país deixando
frio o litoral. Com a água mais morna devido ao aquecimento global, a Corrente
das Malvinas perdeu sua força e não resfria tanto o litoral brasileiro que,
estando mais quente, potencializa a formação de furacões.
Outra situação verificada recentemente é a antecipação das primaveras,
a qual é melhor percebida em climas frios que costumam nevar no inverno
(IPCC, 2007). Isso tem impactado de forma significativa no hábito anual de
algumas espécies terrestres ou marinhas, como na agricultura. A gestão
agrícola e florestal em latitudes superiores no Hemisfério Norte tem permitido
um período maior do ano em produção. Porém, esse aquecimento também tem
trazido maiores perigos de incêndio e presença de pragas.
2.3. Biodiversidade: não somos os únicos com direito a Terra.
No final da Segunda Guerra Mundial (Sturm, 2010), em 1944, a marinha
norte americana estava em busca de novas reservas petrolíferas como fontes
futuras de energia, ou seja, segurança energética. O local escolhido foi o norte
do Alasca, que era o território dos Estados Unidos com maior perspectiva de
encontrar o “ouro-negro. Com vistas a suprir a falta de mapas do local, um
avião bimotor foi utilizado para tirar milhares de fotos no chamado North Slope
do Alasca. Hoje, estas fotos, testemunhos vivos do Ártico a 60 anos atrás, são
importantes ferramentas para o entendimento do aquecimento global.
O gelo marítimo contrasta muito com o azul dos oceanos e, dessa forma
permite uma boa avaliação da retração do Ártico pelos cientistas, por meio de
imagens de satélite (Sturm, 2010). Porém, em terra, a análise é mais
dificultosa. Mudanças na vegetação podem levar décadas para serem
detectadas. A substituição de vegetais por outros leva anos e é de difícil
percepção via satélites. Até a década de 1990 haviam especulações sobre a
mudança da tundra, vegetação mais setentrional encontrada, do ártico, porém
não existia uma evidência concreta.
85
Experimentos em estufas (Sturm, 2020), nas altas latitudes do Ártico, já
demonstravam que o aquecimento da tundra era seguido de uma explosão de
biomassa capaz de transformar pequenas bétulas anãs (que normalmente
atingem a altura do joelho) em arbustos de 1,5 m de altura.
As fotos de 1944 (Sturm, 2010) comportam-se como “testemunha ocular”
de um Alasca antes do impulso consumista do pós-guerra. Coube a uma
equipe de cientistas refazerem, em 2000, os mesmos passos dos primeiros
fotógrafos, buscando os mesmos ângulos e paisagens. Os resultados foram
reveladores. Os arbustos individuais apresentavam-se maiores que os das
fotos predecessoras, bem como foram identificados trechos de vegetação com
indivíduos maiores do que 50 cm, o que antes era raro. Em poucas décadas
uma “tropa de choque” de arbustos tem avançado pela tundra colonizando
áreas antes destinadas a pequenas ciparáceas ou musgos. Alguns arbustos
identificados nas fotos pioneiras puderam ser encontrados e estes, que eram
isolados, agora encontravam-se rodeados de novos arbustos menores de
diversas gerações, fato este que foi comprovado em visitas de campo. Alguns
exemplares formavam, inclusive, moitas impenetráveis.
Mais recente é o aprimoramento de imagens de satélites para identificar
este avanço (Sturm, 2010). A tecnologia consiste em avaliar reflexão de
bandas do vermelho e infravermelho próximo. Esta permitiu mais uma prova de
que o verde (indicativo de biomassa recente) está realmente crescendo na
tundra. Na paleontologia há evidencias de acontecimento semelhante no
passado. No final da Era do Gelo, quando houve retração da capa de gelo na
América do Norte, há muitos fósseis de pólens de pequenos arbustos, o que
indica um crescimento desse tipo de vegetação com a saída do gelo. Ademais,
também pode ser verificado, por meio de satélite, um fato curioso. A floresta
boreal em torno da tundra está morrendo. No início não foi identificado o
motivo, uma vez que o aquecimento deveria intensificar o crescimento das
árvores e não mata-las. Hoje, sabe-se que o motivo deste fenômeno é que,
com a elevação da temperatura, os verões são maiores e mais secos e
estariam provocando este efeito adverso. Além disso, a mudança do clima
86
também tem trazido mais insetos e aumentado as incidências de incêndios, o
que também contribuem para o acontecido.
As constatações recentes indicam que a Floresta avança sobre a tundra e
os danos avançam sobre a floresta, ambas na direção norte (Sturm, 2010). Os
cientistas acreditam que existe a possibilidade de, no futuro, a tundra virar uma
floresta boreal e a antiga floresta daria lugar a grandes campos.
Algumas pesquisas indicam que a expansão da vegetação pela tundra
iniciou-se antes da Revolução Industrial, ou seja, por causas naturais.
Entretanto, este aquecimento natural não seria o único fator. Ao invés de
modificar ao longo de séculos e equilibrar, como ocorre sempre com a
natureza, verifica-se uma aceleração muito abrupta do processo, o que é um
indicativo da ação humana.
O efeito do aquecimento sobre a biodiversidade também foi descrito por
Pinotti (2007), que indica haver repercussão direta nos sistemas biológicos
sensíveis. As barreiras de coral, os ambientes marinhos mais ricos em
biodiversidade, são exemplos desse fato. Na Indonésia, por exemplo, estima-
se que 50% já desapareceu por causa de uma combinação de desmatamento,
poluição marinha e aquecimento das águas. Outro caso pode ser verificado na
floresta amazônica, que sofre cada vez mais com as secas do fenômeno
conhecido como El Niño, com as queimas e a expansão agrícola ou da
mineração.
Muitas espécies têm migrado de regiões cada vez mais quentes para
outras mais amenas (Pinotti, 2010), como montanhas ou latitudes mais
extremas. Entretanto, ocorre que a expansão humana (cidades de agricultura)
tem dificultado esta migração. Essa ocorrência pode levar a extinção muitas
plantas ou animais.
Segundo NASA (2010), o aquecimento global já estaria pressionando
alguns ecossistemas. Muitas espécies endêmicas de um clima particular, em
terra ou no oceano, têm sofrido com a mudança repentina da temperatura
terrestre. O verão tem sido mais quente e seco e os dias de inverno cada vez
87
menores. Isso tem contribuído para que animais migratórios iniciem a procura
por comida cada vez mais cedo e, por isso, modificando o ciclo de vida de
inúmeros indivíduos. Essa alteração pode afetar, por exemplo, o período de
reprodutivo de espécies polinizadoras e, em consequência, dificultar a
polinização de flores de forma a prejudicar o desenvolvimento de plantas ou
interferir em toda a cadeia alimentar.
Algumas espécies de plantas tendem a crescer mais do que antes
(NASA, 2010). Pode parecer, a princípio, um efeito positivo, porém isso
demanda mais água de um ambiente que possui verões cada vez mais secos.
Assim, o risco de incêndios tendem a se agravar.
O IPCC (2007) estima que entre 20% a 30% de plantas e animais
encararão a extinção por conta de um aquecimento entre 1,5ºC a 2,5ºC. Como
já foi dito, houve um aumento na migração para os polos e outros lugares de
temperaturas mais amenas e aqueles que não conseguem tendem a adaptar-
se ou extinguir. Isso é verificado para animais marinhos ou terrestres.
É preciso que a humanidade repense o formato da sociedade moderna,
uma vez que não somos os únicos a termos direito sobre a Terra. O ser
humano precisa deixar de pensar que é o único que realmente importa em
nosso planeta e lembrar que somos tão animais como as criaturas que nos
rodeiam. Precisamos deixar de ser tão egoístas.
2.4. “E o feitiço virou contra o feiticeiro!” (provérbio popular)
As mudanças climáticas (NASA, 2010) impactam não somente os
oceanos, capas de gelo ou ecossistemas, porém também os responsáveis
pelas emissões de gases causadores de efeito estufa responsáveis por este
desequilíbrio ambiental: o homem. Serão muitos os impactos que a
humanidade sofrerá decorrentes, em parte, de suas próprias ações.
É oportuno ressaltar que (NASA, 2010), muito provavelmente, os mais
afetados serão todos os que residem ou retiram seu sustento das zonas
costeiras ou pequenas ilhas. Como já foi mencionado no tópico 2.2, os oceanos
88
tendem a elevarem-se alguns metros acima dos níveis atuais, por causa do
degelo contínuo das calotas polares e demais geleiras, provocando perda de
propriedades ou, até mesmo, de vidas. Entretanto, mesmo antes de haver a
invasão da terra pelos oceanos propriamente dita, os oceanos já tem
aumentado algumas dezenas de centímetros, o que já seria prejudicial. Nesses
níveis de elevação é possível verificar aumento nos alagamentos (as marés
ficam mais altas e as águas pluviais não conseguem escoar par ao mar),
aumento nos impactos de tempestades e ressacas (as quais destroem cada
vez mais as zonas costeiras, residências, hotéis, praias, píeres, entre outros),
bem como no aumento da erosão costeira (que provocam redução das áreas
habitáveis).
Um clima mais seco em determinados lugares é esperado para o futuro
(NASA, 2010). Serão mais afetados por este impacto as pessoas mais pobres
que residem em países em desenvolvimento ou subdesenvolvidos. Nestes
casos poderá haver falta de recursos, que hoje já são escassos, para
adaptarem-se às severas condições que enfrentaram no futuro, como, por
exemplo, secas, tempestades, inundações ou falta de alimento para a
população. Em um futuro não muito distante, a água será mais escassa devido
à redução do volume produzido pelas nascentes ou pelo desaparecimento das
geleiras sobre grandes altitudes, fonte de água para muitos cursos de água
volumosos, o que afetará desde a geração de energia até a vida cotidiana das
pessoas.
Ainda com relação à produção agrícola (NASA, 2010), o aquecimento
global ampliará a fronteira agrícola mundial para as latitudes mais altas, como,
por exemplo, Canadá, Rússia e os países nórdicos. Alguns modelos preveem
aumento na produção de alimentos mundial, o que trará redução de preços.
Porém, este cálculo recentemente tem mostrado alguns resultados não tão
otimistas, visto que a produção alimentícia de latitudes menores, os maiores
produtores atualmente, decrescerá. O balanço total previsto não é muito
animador, uma vez que a queda na produção nas regiões mais próximas do
Equador não será suprida pela produção setentrional, havendo, no total, um
89
déficit. Ademais, vale ressaltar que a civilização atual está baseada em uma
distribuição agrícola e da população condizente com as condições verificadas
no último século. As mudanças climáticas trarão modificações mais rápidas do
que a adaptação humana poderá custear.
Além disso, é comentado pela literatura (NASA, 2010; Pinotti, 2007), que
o aquecimento da Terra proporcionará a expansão das zonas tropicais e
prolongará as estações mais quentes, como a primavera e o verão. A princípio,
esta parece ser um efeito positivo quando olhamos de forma superficial, mas
que pode trazer impactos relevantes. O aumento dos dias mais quentes poderá
provocar um clima mais agradável para muitas doenças contagiosas
proliferarem-se, como, por exemplo, a malária ou a dengue. Além das doenças
(IPCC, 2007), o aumento na atividade vegetal no extremo do Hemisfério Norte
tem trazido uma questão não prevista, o aumento de flores tem trazido uma
maior quantidade de pólens no ar e que tem acarretado um aumento na
atividade alérgica. Outra questão preocupante é o aumento verificado de
mortalidade por causa de calor em lugares frios como Europa ou América do
Norte.
Verões mais quentes (NASA, 2010) poderão promover uma intensificação
no número de queimadas na vegetação ressecada pelo Sol. Esse é um
impacto que afeta, não somente a fauna e a flora, que podem desaparecer de
determinadas regiões, como, também, aumento do volume de fumaça e fuligem
que atingirá as zonas habitadas, o que inclui grandes cidades. Casos desses já
foram evidenciados na Califórnia, na Indonésia ou em Cuiabá (Brasil).
2.5. “O futuro: uma terra desconhecida” 1
1 Star Trek VI: The undiscovered world. Paramount Pictures. 1991. Um filme de Nicholas
Meyer.
São inegáveis as modificações climáticas verificadas após a segunda
metade do século XX. Entretanto, apesar de o ser humano ter acumulado um
conhecimento cientifico considerável, a complexidade dos sistemas físicos da
atmosfera da Terra ainda não permite um poder de predição em longo prazo
90
por parte dos cientistas. Muitas peças do quebra-cabeça do clima necessitam
ser encaixadas nos modelos matemáticos para prever os efeitos futuros.
O amanhã das mudanças climáticas precisa ser melhor estudado para
que se tenha respostas às questões ainda não respondidas sobre o
aquecimento global (Pinotti, 2007). A maior delas, provavelmente, é a parcela
humana na conta das mudanças climáticas dos últimos 200 anos. Não se sabe
ao certo qual é a influência do homem na elevação das temperaturas médias
da Terra. Outra dúvida importante é o futuro das emissões de dióxido de
carbono na atmosfera que hoje está na casa dos 23 bilhões de toneladas por
ano e cuja previsão depende de diversos fatores como o crescimento
populacional, o desenvolvimento tecnológico que pode ser positivo ou negativo,
o crescimento das economias, a imposição de restrições legais pelos governos,
o aumento do desmatamento e queimadas devido à agricultura, entre outros
fatores.
Além disso, vale citar outra questão de difícil consenso que é a influencia
da água nas modelagens climáticas. Sabe-se que sua presença na atmosfera
pode intensificar o efeito estufa (a água é um componente forte absorvedor de
radiação infravermelha) ou favorecer a reflexão da radiação solar para o
espaço (por meio das nuvens que bloqueiam grande parte da superfície). A
parcela de cada contribuição ainda não é bem entendida pelos cientistas.
O último relatório do IPCC (2007) indica uma elevação de temperatura,
para os próximos anos um aumento de 3ºC ± 1,5ºC na temperatura média
mundial, a qual seria suficiente (Lemonick, 2009) para provocar sérios impactos
no planeta. Entretanto, há pesquisas lideradas pelo cientista James Hansen
(1941 - ) esse valor estaria mais próximo dos 6ºC. Diz Hansen: “A situação é
muito mais delicada do que suponhamos.”
O diferencial da pesquisa de Hansen, frente às projeções tradicionais,
consiste na utilização de critérios adicionais aos adotados pela modelagem
tradicional chamada “Sensibilidade de Charney” (Lemonick, 2009). Esta forma
de modelagem é mais completa do que a consideração da Terra como uma
91
bola de bilhar, usada no passado, visto que insere no cálculo alguns efeitos de
nuvens, dos oceanos, das capas de gelo, entre outro. Apesar de este modelo
prover um bom entendimento climático a curto prazo, os efeitos de longo prazo
ficam prejudicados, como as alterações nas capas de gelo, redução da
vegetação ou saturação dos oceanos na absorção de CO2 (fator que diminui
quando a temperatura aumenta).
O trabalho de Hansen, como de outros cientistas (Lemonick, 2009), é
acrescentar mais variáveis reais aos modelos climáticos de modo a possibilitar
previsões mais confiáveis. O problema é que esses novos fatores demandam
novas formas de mensuração. A fonte dessas informações é a
paleoclimatologia. Ao longos dos últimos 800 mil anos foram verificadas várias
Eras Glaciais e períodos curtos de aquecimento interglacial, semelhantes às
condições verificadas agora.
Além dos núcleos de gelo e amostras de solo oceânico, mencionados no
Capítulo I, tópico 1.4, também são importantes os estudos das antigas linhas
litorâneas. Conforme a Terra aquece, o gelo retrai, os oceanos avançam sobre
os continentes e nosso planeta reflete menos radiação do Sol, o que acelera o
processo. Ao contrário, em uma Era do Gelo, as capas de gelo expandem-se,
os níveis dos oceanos diminuem e maior radiação solar é refletida (também
acelerando o processo). Esse é um fenômeno importante e que não é
considerado na Sensibilidade de Charney, porém considerados por Hansen.
Com base nestes estudos (Lemonick, 2009), o trabalho de Hansen diz
que se os níveis de CO2 na atmosfera fossem mantidos nos atuais 385 ppm
(µL/L) os oceanos ainda assim subiriam devido ao degelo evidenciado
atualmente. Como a previsão é de aumento nas emissões para os próximos
anos, o degelo poderá ocorrer mais rápido do que se imagina.
Conforme a visão padrão, quando a concentração de dióxido de carbono
na atmosfera ultrapassar um limite de 560 ppm (µL/L), que o planeta atingirá
neste século, o processo de aquecimento será perigosamente acelerado e será
muito mais difícil retroceder os impactos. Para Hansen, este limite seria de 350
92
ppm (µL/L), menor do que a concentração atual, e os efeitos mais graves do
aquecimento global podem ocorrer antes do esperado.
A concentração de 350 ppm (µL/L) também é citada por Foley (2010).
Este artigo baseia-se no estabelecimento de limites naturais de nosso planeta,
os quais devem ser atendidos para que nossa sociedade funcione em um
“espaço operacional seguro”.
Embora alguns cientistas não aceitem na íntegra os estudos de Hansen,
mesmo esses concordam que as mudanças climáticas observadas hoje já são
desastrosas. Um exemplo é (Lemonick, 2009) o degelo de alguns pontos da
Antártida, antes do esperado, ou a descoloração de corais australianos devido
ao aquecimento das águas. O crescimento da população mundial,
principalmente na China e Índia, e o intenso consumo per capita incentivado
pelo capitalismo são vilões de uma perspectiva positiva no futuro.
2.6. A difícil tarefa de lidar com o aquecimento global (Miller, 2007)
A grande dificuldade para Miller (2007) em lidar com o aquecimento
global decorre de questões científicas, econômicas, políticas e éticas
complexas, que podem ser resumidas em alguns pontos chaves, os quais são:
a) As causas: “o problema tem muitas causas complexas”, diz Miller
(2007) e isso prejudica o entendimento da ciência acerca da real causa do
aquecimento. Cada vez mais os leigos, cientistas e políticos acreditam que o
ser humano, com suas emissões, possui um papel fundamental no
aquecimento global, porém o quanto ainda é um valor a ser descoberto;
b) A extensão: O aquecimento verificado nos últimos anos não é um
fenômeno isolado, porém global. Não afeta somente aqueles que são
responsáveis pelas emissões dos gases ou os que lucraram com tais
emissões, porém inclusive os países que nunca viram os benefícios da
industrialização;
c) A irregularidade: O aquecimento global trará, de certo modo,
benefícios para alguns e prejuízos para outros. Deste modo, fica a questão: Até
93
que ponto estas nações “beneficiárias” gastarão somas em dinheiro para
amenizar as dificuldades das nações “deficitárias”?
d) As emissões: Muitos pregam uma redução drástica da queima de
combustíveis fósseis. Estes podem até estar certo, porém mudar uma matriz
energética demanda anos e, no caso do petróleo, carvão e gás que são muito
baratos, poderá levar muitas décadas. Além disso, uma interrupção do
crescimento mundial, na forma como a economia está montada, causará um
imenso impacto social porque levará muitas famílias de volta à miséria. O que é
preciso é uma reavaliação do homem para o conceito da sustentabilidade, mais
intenso do que a visão tangencial evidenciada hoje, antes que seja tarde
demais;
e) A temporalidade: O ser humano, por seu tempo de vida de menos
de um século, respondem bem a problemas de curto prazo, ou seja,
condizentes com uma geração. Porém, o aquecimento global é lento. Afeta
gradativamente e ameaça não o mundo de hoje, porém o de amanhã. Assim,
aqueles que poluem hoje já terão morrido quando os impactos forem muito
maiores e somente os benefícios das emissões são verificados em suas vidas.
A temporalidade nos coloca uma questão ética a respondermos, até que
ponto é certo usufruirmos hoje de recursos naturais (como uma atmosfera com
concentração menor de carbono) que faltarão para nossos filhos ou netos. Ou,
inclusive dos animais que dividem o planeta conosco.
94
CAPÍTULO III
A AURORA DAS NOVAS TECNOLOGIAS
Conforme indicado por Miller (2007), desde 1860 as concentrações gases
causadores de efeito estufa na troposfera aumentaram de forma alarmante.
Este aumento foi muito maior nos últimos 50 anos. Os registros climáticos e
paleoclimáticos do Capítulo I permitem a constatação deste aumento. Hoje a
concentração atinge um valor de 380 ppm (µL/L), um valor somente atingido a
420.000 anos atrás.
Embora a ciência ainda não confirme com absoluta certeza, há muitos
indícios que correlacionam este aumento com o agravamento do aquecimento
global evidenciado desde os últimos 200 anos. Mesmo que já existisse um
aquecimento natural caso não houvesse concentrações tão elevadas desses
gases na atmosfera, esta situação tem sido agravada devido à atividade
humana.
Miller (2007) descreve quatro provas de que as ações do homem tem
impactado na temperatura terrestre:
1) O último século foi o mais quente dos últimos 1.000 anos;
2) A última década foi a mais quente do último século;
3) As geleiras da Terra no Ártico e nas grandes altitudes estão
derretendo, processo que não foi observado antes ao longo da história da
humanidade;
4) As vegetações mais quentes estão avançando em direção à latitudes
maiores.
Esses quatro indícios e os impactos apresentados no Capítulo II,
mostram que a Terra passará por mudanças drásticas nas próximas décadas
caso os níveis de gases causadores de efeito estufa não sejam reduzidos.
95
Assim, urge que a humanidade assuma uma postura menos
conservadora frente o aquecimento global e seus impactos decorrentes. Ações
são necessárias por parte de todas as nações do mundo, principalmente os
países desenvolvidos e em desenvolvimento. São cinco as possibilidades que
surgem diante de nós, segundo Philipon (2010):
1) Ampliar a descarbonização dos combustíveis utilizados no mundo;
2) Reduzir a intensidade energética do crescimento destes países,
aumentando a eficiência energética;
3) Capturar e sequestrar carbono;
4) Recorrer a fontes de energia alternativas e renováveis;
Philipon (2010) acrescenta que, além do impacto das atividades humanas
nos ecossistemas e na atmosfera, existem dois fatos que poderão incentivar a
redução no uso de fontes fósseis para geração de energia pela humanidade.
Uma é a segurança energética, uma vez que, com o esgotamento de algumas
reservas petrolíferas externas à OPEP, o mundo tem ficado mais dependente
do óleo advindo o Oriente Médio e deixa algumas potências econômicas como
os EUA ou Europa reféns de uma área conturbada do mundo. A segunda é o
fato de o petróleo ser uma riqueza limitada. Cada vez mais buscasse o “ouro
negro” em água profundas ou ultraprofundas o que dificulta a ação humana e
permite ocorrência de desastres como o evidenciado em 2010 no Golfo do
México com um poço da empresa British Petroleum (BP). Quando a “Curva de
Hubert” da produção mundial de petróleo atingir o seu ápice, a humanidade
passará por dificuldades.
Entretanto, há um legado do século XX que cada vez mais agrava as
emissões de carbono pela humanidade, o crescimento populacional (Philipon,
2010; Miller, 2007; Pinotti, 2007). Hoje existem 6,7 bilhões de pessoas que
crescerá em uma taxa exponencial para atingir, conforme as estimativas, 9
bilhões de pessoas no final do século XXI. Quanto mais pessoa, mais demanda
por energia e, consequentemente, qualquer tentativa de redução nas emissões
de carbono fica diluído no aumento contínuo da demanda de energia. Se uma
96
redução de, por exemplo, 20% for conseguida, o aumento um aumento no
consumo maior do que este valor estabiliza os valores de emissões mundiais.
Na sequencia deste trabalho seguem algumas iniciativas que podem
facilitar a curto, médio e longo prazo a redução do carbono na atmosfera e,
dessa forma, amenizando o aquecimento global.
3.1. Descarbonização
Foi corretamente descrito por Rifkin (2003) que a “descarbonização” da
energia foi iniciada no século XIX. Esta descarbonização consiste no aumento
da fração do elemento hidrogênio e consequente redução da fração carbono
dos combustíveis utilizados pelo homem ao longo dos anos. Os combustíveis
fósseis são constituídos basicamente de carbono e hidrogênio, cuja proporção
varia de acordo com a fonte energética. Como os gases responsáveis pelo
agravamento do efeito estufa são constituídos de carbono, a redução deste
elemento nos combustível torna-o “mais limpo” e menos propício a contribuir
com o aquecimento global. Ou seja, quanto maior a fração hidrogênio, maior
será a quantidade de água emitida durante a queima e, dessa forma, menor
será a influência do combustível na elevação da concentração de carbono na
atmosfera.
O carvão mineral (Rifkin, 2003), muito utilizado no início da revolução
industrial, é o combustível fóssil que contém a maior fração de carbono (10
destes para 1 de hidrogênio). Assim, são os mais poluentes. Com o passar dos
anos, e o avanço tecnológico, as máquinas a vapor movidas pela queima de
carvão foram substituídas pelos motores a combustão interna no século XIX,
mais eficientes, e que necessitavam de combustíveis líquidos como a gasolina
ou o óleo diesel. Estes derivados de petróleo contém uma proporção de um
átomo de carbono para dois átomos de hidrogênio, sendo, por isso, mais
limpos. Esse foi o primeiro movimento de descabonização verificado.
No final do século XX, a Europa viu-se em um dilema. O petróleo oriundo
do Mar do Norte, que se tornou a principal fonte de derivados após as crises
97
promulgadas pela OPEP na década de 1970, já se encontrava em declínio de
produção (quando os reservatórios de petróleo são explorados de forma muito
rápida, a pressão que eleva o óleo tende a desaparecer e o poço entra em
declínio). A solução foi utilizar outra forma de combustível e a escolhida foi o
gás natural (também uma fonte fóssil) oriunda da Rússia. Além disso, vale
ressaltar que o uso do gás natural foi uma medida importante em alguns países
como a Inglaterra que tinham como objetivo reduzir a participação política dos
sindicatos de mineradores de carvão mineral. Como sempre, o viés político-
econômico é o carro chefe de muitas medidas e, no final, quando possível,
verifica-se o ganho ambiental. O gás natural é basicamente constituído de
metanol (CH4) e etano (C2H6), que possuem uma proporção de 1 átomo de
carbono para, respectivamente, 4 e 6 átomos de hidrogênio. São muito mais
ricos em hidrogênio que os derivados de petróleo. Além disso, deve ser
considerado que a queima de gás natural proporciona menor emissão em
enxofre, material particulado e hidrocarbonetos (gases dispersam melhor na
câmara de combustão que os líquidos e apresentam uma queima mais
completa). Ou seja, trata-se de uma alternativa menos poluente.
Em suma, Rifkin (2003) indica que a cada fonte sucessiva de energia,
uma menor quantidade de carbono é emitida. Segundo indicado, nos últimos
40 anos, a emissão de carbono por unidade de energia primária consumida no
mundo reduziu em uma taxa média de 0,3% ao ano (o que constitui um valor
absoluto aproximado de 40%).
Embora muitos sejam otimistas com relação à melhoria contínua da
eficiência dos combustíveis utilizados pelo homem, Rifkin (2003) alerta: “as
emissões de CO2 continuaram assim mesmo a subir durante o período,
aumentando as temperaturas da superfície terrestre”. Apesar de a mudança do
carvão para o gás natural ao longo dos anos ter sido positiva, é preciso
considerar que o consumo de energia aumentou significativamente no mesmo
período e o volume de fósseis queimados tem aumentado. A melhora na
qualidade dos combustíveis pode ter sido ofuscada pela elevação do consumo.
98
Além da ampliação do consumo, outros fatores dificultam a ampliação do
gás natural na matriz energética mundial. Desses, vale ressaltar, como
principal, a maior disponibilidade de fontes mais poluidoras, como o carvão,
com relação a do gás natural. Pode ser demonstrados dois casos pontuais que
refletem bem esse fato.
A China é o país emergente que mais tem crescido nos últimos anos.
Todavia, sua economia é fortemente baseada na queima de carvão mineral
obtido de minas dentro de seu próprio território. Considerando que as reservas
de gás natural e o petróleo deste país são muito menores do que que as de
carvão, torna-se esta fonte energética mais poluidora a alternativa mais
econômica. Por este motivo, as emissões de carbono mundiais tem sido muito
impactadas pela economia chinesa.
Outro exemplo seria o Brasil. No final da década de 1990 seguiu o
modelo inglês para utilização de gás natural e efetuou diversos investimentos
na construção de gasodutos e implantação de turbinas a gás nas indústrias de
forma a aumentar a participação deste produto na matriz energética. Se por um
lado foi importante esta iniciativa por ampliar as possibilidades da matriz
energética brasileira, por outro lado deixou a economia muito dependente do
gás natural oriundo dos poços bolivianos. Quando o governo do presidente Evo
Morales teve início, a fragilidade desta dependência veio a tona. O aumento do
preço do metro cúbico deste produto fez com que o Brasil fechasse as válvulas
do abastecimento de gás advindos desse país e procurasse uma nova
alternativa para as turbinas utilizadas pelas indústrias, que passaram a ser
movidas novamente por destilados médios de petróleo.
A descarbonização da matriz energética mundial por meio da utilização
de gás natural como fonte primária é uma medida de curto prazo muito
interessante na redução das emissões de carbono. A tecnologia já se encontra
bem estabelecida e a oferta é relativamente suficiente para abastecer uma
parte considerável do mercado global. A Figura 3.1 permite visualizar o lento
aumento do consumo mundial do gás natural como fonte energética. Neste
gráfico pode-se verificar que no ano 2000 foi registrado um consumo de 1953
99
barris de petróleo para cada barril equivalente de gás natural e este número
caiu para 1764 em 2009.
Figura 3.1 – Perfil anual do consumo mundial de barril de petróleo para cada barril
equivalente de gás natural. Nota-se uma redução nos últimos 10 anos (ANP, 2010).
Todavia, o gás natural possui uma desvantagem com relação ao petróleo:
o transporte para centros consumidores a partir dos centros produtores. O
transporte marítimo de óleo cru por meio de navios petroleiros é amplamente
utilizado a décadas e o frete por tonelada é bastante viável. Entretanto, para o
gás natural, o transporte alguns anos atrás somente era realizado por meio de
gasodutos, o que limitava a aquisição por alguns países. Atualmente, tem
crescido no mercado o transporte marítimo de Gás Natural Liquefeito (GNL), o
que tem ajudado a distribuição deste produto em locais mais distantes. O GNL
nada mais é do que o próprio gás natural comprimido e liquefeito em
temperaturas crioscópicas transportado por meio de navios especiais
chamados Metaneiros. Apesar de ser um processo mais dificultoso que o
transporte de petróleo, esta modalidade tem crescido cada vez mais e seu
barateamento tem incentivado o aumento consumo do gás natural.
100
Rifkin (2003) vai além do gás natural, em seu livro A Economia do
Hidrogênio o autor defende a utilização deste combustível, que não contém
carbono, e cuja importância e detalhamento serão tratados no tópico 3.6.
Algumas montadoras já desenvolveram veículos como motores a
combustão interna ou a células combustível que utilizam hidrogênio como
combustível. Porém, qualquer uso do hidrogênio esbarra na dificuldade
tecnológica em produzir de forma eficiente, econômica e ambientalmente
correta deste combustível.
3.2. A nova era automobilística
Philipon (2010) descreve que metade da produção mundial de petróleo é
consumida para a mobilidade de veículos (modais rodoviário, ferroviário,
aquaviário e aeroviário). Este mesmo autor descreve que, anualmente, 5
bilhões de toneladas de CO2 são emitidos na atmosfera por veículos, que
corresponde a 18% das emissões antrópicas deste gás e 9,8% das emissões
antrópicas totais de gases causadores de efeito estufa. Se a tecnologia
permanecer nos moldes atuais, o aumento de veículos esperado para o futuro
vai acarretar em dois impasses: o consumo somente para o setor será
equivalente à produção atual de petróleo e as emissões de carbono
contribuiriam enormemente para o aquecimento global.
Felizmente, a tecnologia veicular tem desenvolvido cada vez mais
avanços tecnológicos que permitem aumentar a eficiência de tais veículos
(Philipon, 2010). Diversas são as soluções que podem ser adotadas para, no
mínimo, mitigar este cenário. Seguem na sequencia algumas dessas
tecnologias:
a) “do poço à roda” (Philipon, 2010)
Uma metodologia de contabilização de emissões de CO2 que tem
ganhado terreno no meio científico é chamada “do poço à roda”. Seu nome
deriva de um jargão do setor que representa a cadeia de suprimento dos
derivados de petróleo: “do poço ao posto”.
101
A forma mais adotada atualmente para medir emissões veiculares é o
CO2 emitido pelo cano de descarga e, em muitos países, este gás já consta na
lista dos poluentes veiculares limitados por regulamentação. Porém, ao utilizar
um determinado combustível, não deve ser somente considerado o carbono
emitido pela sua queima, porém todo o balanço de carbono da produção ao
transporte do combustível. O óleo diesel queimado no caminhão que transporta
o produto ou o CO2 emitido na refinaria deve ser levado em conta.
A título de demonstração, considerando grande parte dos veículos dos
mercados europeu e japonês, o aumento nas emissões de carbono quando
considerado a forma “do poço à roda” ficou entre 20% e 65%.
b) Os avanços da engenharia automotiva (Philipon, 2010)
Nos próximos 20 ou 30 anos, os especialistas acreditam que os veículos
que utilizam derivados de petróleo serão majoritários nas estradas. O Brasil,
neste caso, pode ser considerado como um ponto fora da curva, uma vez que o
consumo de etanol combustível vem superando o de gasolina A desde o ano
de 2008. No mundo, entretanto, a realidade é bem diferente do mercado
brasileiro.
Apesar desses motores de combustão interna sejam muito menos
eficientes que um motor elétrico, por exemplo, a densidade energética do
combustível compensa o seu uso (10 vezes maior que a da bateria elétrica).
Por muito tempo tais veículos dominarão as estradas. Logo, como não se pode
substituir, a curto prazo e em larga escala, tais veículos por outros que
consumam combustíveis menos poluentes, a solução é utilizar a engenharia
automotiva para maximizar a eficiência dos veículos e, dessa forma, reduzir
consideravelmente o consumo de combustível.
As possibilidades de aprimoramento em veículos, de curto prazo, trazidas
pela indústria automotiva são inúmeras. Uma delas, e a mais utilizada hoje, é o
aumento na produção de veículos com menor volume dos cilindros do motor
(costuma-se utilizar 1.0, ou seja 1 L). Essa medida visa aumentar a
quilometragem percorrida por cada litro de combustível, porém acarreta em
102
certa perda de potência no motor. Este tipo de veículo, por ser mais
econômico, é muito comum em países em desenvolvimento ou
subdesenvolvidos. Entretanto, nos países desenvolvidos não é muito aceito
devido ao efeito “adverso” da perda de potência, principalmente no mercado
americano, e, por esse motivo, alguma tecnologia adicional é necessária para
aumentar sua aceitação.
Visando produzir automóveis com aceitação no mercado, montadoras
têm investido na redução de gasto como energia cinética para movimentar
massa excessiva inútil nos veículos. Para isso, tem-se buscado utilizar ligas de
metais leves, diminuir espessura das chapas, reduzir tamanho das peças,
redução do atrito entre as peças móveis do motor, utilização de pneus
especiais, entre outras medidas que permitem reduzir as perdas para utilizar
uma quantidade cada vez maior de energia advinda do motor para o
movimento do veículo. Dessa forma, a redução de potência de veículos 1.0
pode ser resolvida e, além disso, mesmo para veículos com maior cilindrada,
redução no consumo também é verificada ao serem adotadas tecnologias mais
leves.
Outra melhoria seria a utilização de frenagem regenerativa nos veículos.
Esta tecnologia permite gerar energia elétrica por transformação da energia
cinética que seria perdida por atrito no momento das frenagens. Isso reduz o
uso de energia proveniente do motor para recarregar as baterias direciona a
mesma para as rodas do veículo aumentando a potência.
Por utilizarem somente hidrocarbonetos como combustível, pressupõe-se
que as emissões sejam somente água e CO2. Porém, tal situação não existe e
também são emitidos fuligem e outros gases, como os hidrocarbonetos ou o
NOx. O hidrocarbonetos e fuligem são oriundos de queima incompleta e os
óxidos de nitrogênio são emitidos porque nas condições da câmara de
combustão, o nitrogênio proveniente do ar de alimentação, apesar de sua
estabilidade relativa, reage com o oxigênio e produz tais óxidos. O advento
tecnológico dos motores tem proporcionado uma queima mais eficiente e,
103
dessa forma, a redução desses outros gases também reduz o consumo do
combustível.
Mercados como o europeu e indiano tem ampliado sua frota de veículos
leves a base de óleo diesel em substituição à gasolina para reduzir o consumo.
Apesar de ser o óleo diesel um derivado mais pesado que a gasolina, o ganho
energético obtido por esta substituição garante menos emissões. Graças à
superalimentação, o motor Ciclo Diesel proporciona um binário ar/combustível
mais rico no primeiro e, dessa forma, consomem menor quantidade de
combustível que o motor Ciclo Otto (gasolina) em baixo regime, marcha lenta.
Isso é importante nas grandes cidades em que o trânsito comumente encontra-
se em fluxo intenso. Essa é uma das características que explicam o uso de
veículos pesados a diesel, como caminhões e ônibus. Ademais, para o mesmo
tipo de uso, a utilização de óleo diesel emite menos CO2 do que a gasolina em
um comparativo do tipo “do poço à roda”.
Entretanto, apesar de ser mais proveitoso do que a gasolina, o uso de
óleo diesel em veículos leves, assim como o gás natural, necessita de ajustes
no mercado que podem significar um grande passivo. É o caso brasileiro. Hoje,
o Brasil importa óleo diesel e exporta gasolina, uma vez que nossas refinarias
foram projetadas com base no modelo americano que enfatiza derivados leves.
Uma maior produção de óleo diesel vai inundar o mercado de gasolina. Sem
contar que o mercado de combustíveis para veículos leves também existe
substitutos em potencial como o etanol combustível ou o gás natural veicular
(este último em algumas cidades). Ou seja, será preciso anos de investimentos
para que o mercado brasileiro absorva esta ideia.
Mesmo sendo, em alguns aspectos, não tão eficiente quanto o Ciclo
Diesel, o Ciclo Otto tem tido melhorias que permitem aproxima-lo de seu
concorrente. Há 10 anos a injeção direta tem sido utilizada para veículos diesel
agora começa a ser implantada nos motores à gasolina. Esta tecnologia
oferece um controle eletrônico de dosagem da mistura ar/combustível e
permite, dessa forma, uma melhor combustão, permitindo com que se tenha
uma redução do consumo.
104
Foram expostas algumas das possibilidades de curto prazo da indústria
automotiva até o momento. A médio prazo, existem outras inovações que
permitirão um consumo ainda melhor. As montadoras preveem que entre 2015
e 2020 a diferença entre os motores Ciclo Diesel e Ciclo Otto desapareçam
com a utilização da tecnologia Homogeneous Charge Compression Ignition
(HCCI). Nesta tecnologia, o motor preparará uma mistura ar/combustível
homogênea na câmara de combustão e a ignição espontânea por compressão.
A combustão ocorrerá em condições de temperatura e pressão ótimas e
poderá reduzir a emissão de particulados em 70% e de NOX em 90%,
mantendo o rendimento da combustão do Ciclo Diesel. Um exemplo deste
motor já tem sido apresentado em alguns eventos automotivos, mais ainda
esbarram na dificuldade de ser escolhido o combustível ideal para uso. Não
poderá ser nem a gasolina e nem o óleo diesel, porém algum produto
intermediário o que modificará de forma significativa os parques de refino
existentes hoje.
c) A via elétrica: abasteça seu veículo em casa (Philipon, 2010)
Está registrado na história, o primeiro veículo que ultrapassou a
velocidade de 100 km/h era elétrico com bateria de chumbo e o feito ocorreu
em 1899. No início da automação veicular os derivados de petróleo ainda não
reinavam absolutos e diversas formas de energia foram testadas, inclusive
óleos vegetais (Rudolf Diesel construiu seu primeiro motor para utilizar óleo de
amendoim, por exemplo) ou elétricos. Entretanto, as vantagens dos motores
elétricos (silenciosos, rápidos e não exigiam manutenção) não foram
suficientes para superar os motores a combustão interna no quesito autonomia
e espaço da bateria e, por isso, foram esquecidos. Após as crises do petróleo
dos anos 70, eles voltam a ser considerados como alternativos aos motores a
combustíveis fósseis e atualmente, em tempos de aquecimento global, ganham
nova força.
Suas características intrínsecas podem contribuir para que o mesmo
possa ser tornado a alternativa do futuro: são silenciosos (alguns modelos
podem ter autofalantes com som do motor e vibração artificial para atender aos
105
consumidores apegados aos efeitos do motor tradicional), possuem alta
eficiência energética, não liberam gases poluentes locais (as emissões “do
poço à roda” são centralizadas na fonte energética utilizada na obtenção da
eletricidade) e apresentam transmissão simplificada (ausência de embreagem
e câmbio, o que para alguns é um ganho excelente e para outros um defeito
devido ao interesse por uma direção mais livre).
Nestes veículos a frenagem regenerativa é imprescindível para a recarga
das baterias, porém requerem que as mesmas somente possam ser
carregadas até 60% da carga total e, por siso, promove redução da sua
durabilidade. O uso de supercondensadores que recuperaram quase que
instantaneamente a energia da frenagem permitem uma carga um pouco maior
da bateria (80%), minimizando o problema.
Entretanto, os veículos elétricos ainda possuem a mesma desvantagem
que tinham a anos atrás: a autonomia. Para percursos muito longos, o custo e
peso das baterias não permitiriam o seu uso. Como escrito por Philipon (2010):
“A bateria ainda é muito mais pesada do que um tanque de combustível e
sua limitada capacidade de estocagem energética reduzem a autonomia do
veículo, ainda que, no caso de uso somente urbano, isso não seja um
problema.”
Isso é uma verdade, uma vez que as tecnologias atuais permitem um
desempenho razoável nas curtas distâncias urbanas, porém são restritas em
viagens mais distantes. Há de considerar também que em baixas velocidades
estes veículos possuem um torque superior aos veículos convencionais, o que
contribui, ainda mais, para a sua utilização urbana.
Outra questão é a duração da recarga, que necessita ocorrer em algumas
horas, enquanto que o abastecimento do combustível líquido se dá em apenas
alguns minutos. Esse não seria um problema propriamente dito para veículos
que rodam apenas durante o dia, visto que bastaria carregar o veículo durante
a noite, porém causaria algum transtorno e, além disso, o custo da carga seria
mais barato que o combustível.
106
Além disso, ao contrário do motor elétrico (barato e quase indestrutível), a
bateria é cara e possui durabilidade limitada. Uma alternativa seria a aquisição
da bateria pelo proprietário sob a forma de leasing, onde uma empresa ficaria
responsável pelo ativo do componente. Na Tabela 3.1 verifica-se o
desempenho de diversos tipos de baterias que poderiam ser adotadas, suas
vantagens e desvantagens.
Tabela 3.1 – Desempenho de diversos tipos de baterias
Tipo
Chumbo-ácido
Níquel-zinco
Níquel-hidreto
metálico
Íon lítio
“Zeb
ra”: cloreto
de só
dio / níquel
Lítio-m
etal-
polím
ero
Densidade energética (Wh/kg) 20 a 30 60 a 80 50 a 70 75 a
120 100 a 120
100 a 120
Custo ($/kWh) 100 a 200
400 a 600 1.000 1.000 670 -
Durabilidade (ciclos) 300 a 800
500 a 1.000 2.000 1.000 a
3.000 1.000 a 1.500
800 a 1.000
Tempo de recarga (h) 8 3 a 6 3 a 6 3 a 6 10 a 12 6 a 10
Temperatura de funcionamento (ºC)
-20 a +70
-20 a +50
-10 a +50
-20 a +60
Sem limite
Sem limite
Comentário
Impa
ctos
am
bien
tais
Pou
cos
fabr
ican
tes
e in
vest
idor
es
Tem
pera
tura
s de
fu
ncio
nam
ento
lim
itada
s
Nec
essi
dade
de
um
ótim
o co
ntro
le d
e te
nsão
/ t
empe
ratu
ra
Um
úni
co fa
bric
ante
Ain
da n
ão
com
erci
aliz
ável
Alguns fabricantes possuem veículos elétricos operacionais para trajetos
curtos e que podem ser utilizados em frotas cativas. Atualmente, circulam no
mundo cerca de 30 mil veículos elétricos, dos quais uns 500 são ônibus. As
107
baterias de níquel-hidreto metálico (Ni-MH) têm substituído as de níquel-
cádmio (Ni-Cd), uma vez que esta última é muito mais tóxica. Por sua vez, as
baterias de íon lítio, que foram desenvolvidas para celulares, têm sido
consideradas em alguns modelos modernos, principalmente os veículos de alto
desempenho.
d) Veículos híbridos: o início da mudança (Philipon, 2010)
O conceito de carro híbrido foi iniciado para o grande público em 1997,
por meio do lançamento do modelo Toyota Prius, e unificou os conceitos de
motor a combustão interna e elétrico. Na verdade, o primeiro veículo híbrido da
história surgiu em 1916 e foi esquecido ao longo dos anos.
Os veículos híbridos são a transição entre os motores atuais a
combustível e os do futuro movidos somente a eletricidade, dizem alguns. Tais
veículos possuem dois motores, um elétrico e um a combustão interna, e um
sistema de transmissão especial que permite “dosar” o torque dos dois motores
de acordo com a situação. Seu uso tem sido motivado como uma forma de
reduzir o consumo de combustível e, dessa forma, também as emissões.
Existem hoje quatro tecnologias principais de veículos híbridos, os quais
apresentam algumas diferenças técnicas conforme o tamanho e a função do
motor elétrico. São eles:
• micro-híbridos: são carros com motor convencional que possuem
sistema start-stop;
• híbridos moderados: o motor elétrico somente auxilia o motor
convencional durante as acelerações, o momento em que o gasto
de combustível é maior;
• híbridos plenos: o motor elétrico consegue mover sozinho o
veículos nos momentos de aceleração ou de baixa velocidade,
quando o motor convencional consumiria muito combustível. Neste
caso, como nos anteriores, a eletricidade que alimenta o potente
108
motor elétrico advém do próprio motor convencional. O proprietário
do veículo somente precisa abastecer o combustível do veículo;
• plug in híbrido: este é o único modelo no qual o usuário pode
carregar a bateria por meio de uma tomada. Este veículo pode
funcionar com os dois motores ao mesmo tempo ou com cada um
em separado, depende da necessidade.
Outra vantagem dos motores híbridos é a redução das emissões de
gases poluentes, como o NOX, uma vez que nas fases de aceleração o motor a
combustão interna é auxiliado pelo motor elétrico.
3.3. Sequestro de carbono: Uso limpo das fontes fósseis?
No tópico 3.1 foi apresentada a descarbonização experimentada ao longo
dos anos de desenvolvimento industrial da humanidade. Porém, até que
atinjamos o estágio do hidrogênio e não mais emitirmos carbono, há um longo
percurso pela frente convivendo com fontes fósseis. Para fontes móveis,
principalmente rodoviários a gasolina e óleo diesel, pode-se verificar no tópico
3.2 que a engenharia automotiva tem buscado alternativas menos poluentes e
mais eficientes. E para as fontes fixas? Quais alternativas têm sido adotadas?
Ainda mais, se considerarmos o fato de que uma quantidade grande de energia
é produzida a partir de carvão mineral, mais poluente.
Uma alternativa que tem crescido muito é chamada de Captura ou
Sequestro de Carbono e consiste de um conjunto de técnicas que permite
capturar o carbono emitido pelas chaminés das fábricas ou de usinas
termoelétricas e armazená-lo em outra parte do meio ambiente no qual o
mesmo será inerte (Miller, 2007).
A forma mais simples de captura de carbono é praticada pela natureza a
milhões de anos: plantando árvores (Miller, 2007). As árvores, como qualquer
ser vivo, são constituídas de compostos orgânicos e, por isso, compõem-se
basicamente de carbono, hidrogênio e oxigênio. Em seus caules, as árvores
acumulam uma grande quantidade de carbono, uma vez que são,
109
particularmente, constituídos de ligno-celulose, um polímero bastante
compactado. Porém, o acúmulo de carbono promovido pelas árvores somente
se dá quando esta se encontra em crescimento (seus tecidos estão se
desenvolvendo). Na idade madura, não há crescimento suficiente que justifique
um sequestro tão intenso de carbono. Além disso (Miller, 2007), outra questão
é que, com a morte de qualquer vegetal, o carbono é reemitido à atmosfera por
decomposição ou queima da madeira. A melhor alternativa seria, com a morte
da árvore, que a mesma fosse enterrada.
Uma segunda abordagem simplificada seria favorecer a permanência do
CO2 no solo. Uma forma é a utilização de gramíneas específicas que absorvem
o gás da atmosfera e o armazenam no solo. Outra forma é a realização de
cultivo sem aragem e a separação os campos de cultivo esgotados como
reservas de conservação. Todavia, vale ressaltar que temperaturas mais altas
podem aumentar a decomposição do solo e liberar o carbono armazenado
(Miller, 2007).
A abordagem mais considerada na indústria, visto que permite absorver
uma quantidade grande de carbono, é a injeção das emissões no fundo do mar
ou no subsolo profundo (Miller, 2007). A expectativa que se tem com estas
modalidades é a possibilidade de compensar efeitos futuros adversos
decorrentes da queima das fontes fósseis (Lemonick, 2009).
O processo tem início quando os gases expelidos pelas chaminés de
termoelétricas, cimenteiras ou demais indústrias que emitem grande
quantidade de CO2. Estes gases seriam encaminhados para usinas que
realizariam a separação do CO2 dos demais gases e, em seguida, realizariam a
liquefação do mesmo utilizando compressão. Este gás liquefeito poderá ser
transportado, se necessário, por meio de dutos ou tanques para a instalação
injetora (Lemonick, 2009).
Conforme descrito por Miller (2007), Lemonick (2009) e Biello (2009),
diversas formações geológicas podem ser utilizadas para injeção deste CO2
para acúmulo a longo prazo. Podem ser utilizados, por exemplo: depósitos de
110
petróleo ou gás natural sem comercialidade (alguns desses podem até voltar a
ser comerciais, uma vez que o CO2 injetado poderá aumentar a pressão no
poço), formações profundas de basalto contendo salmoura (aquíferos salinos),
depósitos de carvão não exploráveis (veios de carvão), entre outras
possibilidades. Deve-se, entretanto, assegurar-se de que este carbono não
retorne à superfície por um processo chamado de percolação e provoque
riscos à população.
Entretanto, fica a pergunta, o escape de dióxido de carbono pode
ocasionar mortes. Em 1986 (Biello, 2009), o lago vulcânico Nyos, na República
de Camarões, emitiu uma noite 2 milhões de toneladas de CO2 por causas
naturais e sufocou mais de mil pessoas que residiam nas proximidades. Porém,
entende-se que este caso ocorreu devido a uma liberação muito repentina de
gás. Em Utah, Estados Unidos, prospectores de gás perfuraram um depósito
natural de CO2 acidentalmente e criaram um geiser intermitente desse gás que
hoje é atração turística. No Japão, cientistas simularam um tremor de
magnitude 6,8 e um depósito de CO2 não foi afetado. Entretanto, os casos
atuais não contemplam a quantidade de gás que seria acumulado a partir de
uma usina termoelétrica e, por isso, muita cautela ainda é necessária.
Uma ideia errada do processo causa espanto em alguns. Não se tem
como objetivo formar com o CO2 piscinas enterradas, porém direcioná-lo em
estratos adequados que contenham espaços suficientes entre grãos de
camadas de arenito ou água para dissolvê-lo. Essa forma de captura é mais
segura, uma vez que seria necessária muita pressão para que o gás fosse
expelido de fendas tão pequenas. Espera-se que, em um futuro distante, o
carbono seja assimilado quimicamente como carbonato e constitua as rochas
do seu depósito (Lemonick, 2009).
A injeção no mar, diferentemente da realizada em terra, não tem sido
vista com bons olhos por muitos, uma vez que a colocação de grandes
quantidades pode vir a formar plumas ácidas e provocar impactos ambientais
sérios na biodiversidade oceânica (Miller, 2007).
111
Miller (2007) e Billeo (2009) mostram que algumas experiências
realizadas até o momento não resultaram em nenhum impacto e o gás ficou
devidamente retido. Foi relatado que empresas especializadas em prospecção
de petróleo já bombeiam a algum tempo CO2 para o subsolo para aumentar a
produtividade de campos maduros. Este é o caso da norueguesa StatoilHydro
que extrai o CO2 do próprio campo e o reinjeta a mais de mil quilômetros de
profundidade. A British Petroleum também opera em seus reservatórios da
Noruega injeção e CO2. Essas duas iniciativas decorrem de um imposto que o
governo norueguês aplica por quantidade de carbono emitida na atmosfera.
Entretanto, as fontes indicam que nenhum dos casos em que o processo é
realizado em usinas ele tem sido em escala industrial (em média 10 toneladas
de CO2 por dia), o coração do problema do meio ambiente.
Apesar das dificuldades, muitos cientistas e políticos veem na captura de
carbono a melhor solução para o aquecimento global (Miller, 007; Biello, 2009).
Particularmente, esta tecnologia evitaria alterar a matriz energética dos países
e, portanto, seria uma alternativa mais fácil. Entretanto, Miller (2007) comenta
que, atualmente, esta é uma proposta cara e sua utilização poderia triplicar o
custo de produção de eletricidade. Além disso, outro gargalo decorre de que as
usinas de separação e CO2 de hoje somente purificariam 30% do carbono
gerado. “O armazenamento pode ser a parte mais simples do desafio S” indica
Biello (2009).
Um exemplo de sucesso é o resultado obtido por uma usina da Alemanha
(Biello, 2009). Esta instalação compra carvão de grande pureza e queima em
uma pequena caldeira com oxigênio purificado (que é caro). Como resultado da
utilização de matérias-primas tão puras, os gases de emissão são,
basicamente, dióxido de carbono e água. Assim, a purificação é facilidade e
95% do CO2 gerado pode ser retido a uma pureza de 97,5%. Esse produto tem
sido comercializado com empresas que fabricam refrigerante para adição em
seus produtos. A queima com oxigênio puro é uma das formas de viabilizar o
sequestro de gás carbônico, porém a viabilidade comercial deste caso não é
aplicada aos casos convencionais e não seria interessante em larga escala.
112
Biello (2009), acrescenta que para os Estados Unidos isso “representaria
a independência energética” (palavras de Barack Obama, atual Presidente
deste país). Isso se dá porque, segundo Rifkin (2003), os Estados Unidos é um
grande importador de petróleo hoje, o que causa dependência do mercado
internacional. Se fosse possível utilizar o carvão contido em seu subsolo (que é
muito rico), sem prejudicar o meio ambiente, seria a solução dos problemas
americanos.
Vale ressaltar que, o problema da captura de carbono não reside no fato
de que a tecnologia seja utilizada para reduzir as emissões atuais, porém a
mesma pode ser utilizada como motivo para explorar de forma intensa as
fontes energéticas mais sujas (carvão e xisto) somente porque as emissões
serão acumuladas na terra.
Segundo o Departamento de Energia Americano (Biello, 2009), só os
Estados Unidos teriam espaço disponível em reservatórios de arenito para
armazenar quase 4 trilhões de toneladas de CO2. Muitos desses reservatórios
estariam próximos onde mais se consome carvão naquele país e, segundo os
cálculos, seria possível armazenar carbono por 100 anos com as emissões
atuais.
3.4. A origem da energia (Capozzoli, 2009b)
Capozzoli (2009b) comenta: “o movimento de seus músculos oculares na
leitura deste texto demanda uma determinada quantidade de energia”. Essa
afirmação define bem a necessidade de energia para o ser humano. Até
mesmo uma simples leitura consome energia. Toda ação da natureza demanda
gasto de energia, uma vez que, sem esta, somente teríamos um amontoado de
matéria inanimado e sem vida. Até mesmo a ciência entende que matéria é
energia compactada! Ou seja, a energia permeia todo o universo.
No exemplo acima, a energia que move nossos músculos provém dos
alimentos. Quando nosso alimento não é um vegetal, na base da cadeia
alimentar há um vegetal associado, isso porque as plantas e demais seres
113
fotossintetizantes são os únicos capazes de transformar matéria orgânica a
partir de matéria inanimada (neste caso, utilizando dióxido de carbono, oxigênio
e energia provinda do Sol). Além da fotossíntese, cabe à energia do Sol que
chega à Terra aquecer a superfície, evaporar a água, bem como produzir os
ventos e as correntes marítimas. O próprio calor que existe no subsolo da Terra
proveio, conforme algumas teorias, do calor inicial de criação da Terra, o qual
tem origem nas nuvens de formação do Sistema Solar aquecidos pelo calor do
Sol.
Então o Sol é a fonte de todas as energias presentes na Terra? A
resposta seria de quase todas. E qual a fonte de energia do Sol? A resposta
está na única fonte de energia que não provém do Sol na Terra, a Energia
Nuclear. No caso da Terra, a desintegração natural por fissão nuclear de
elementos radioativos como o Urânio ou o Rádio, e no caso do Sol, a fusão
nuclear de átomos de Hidrogênio para formar Hélio. Nesses dois casos tem-se
exemplos de dois processos não muito triviais da natureza: a quebra das forças
fortes que unem os núcleos dos átomos no caso da fissão nuclear e a
transformação de matéria (lembre-se do parágrafo anterior) em energia pura (o
processo mais energético dos dois).
Assim, pode ser dizer que tudo se resume em energia nuclear? Não, uma
vez que esta depende da liberação de energia contida nos átomos, seja de
Hidrogênio e seja de Urânio. Os elementos diferentes do Hidrogênio nasceram
a partir de estrelas que iniciaram sua vida realizando fusão de Hidrogênio em
hélio e, com o passar dos anos, e dependendo da massa da estrela, tiveram
energia para compactar estes dois elementos em todos os elementos da
Tabela Periódica. O Sol, por exemplo, pode fundir átomos até o ferro e não os
mais pesados, os quais foram originados em outros estrelas em um passado
longínquo. Os elementos muito pesados (como o próprio Urânio) devem ter
sido formados com explosões gigantescas, chamadas Supernovas, de estrelas
muito pesadas.
Bom, só resta perguntar se é o hidrogênio, o formador dos demais
elementos, a origem da energia do Universo. Não, é a resposta. O Hidrogênio
114
também teve uma origem. Os átomos de Hidrogênio do Universo foram
originados quando a energia do Big Bang, a Explosão Primordial, condensou
em prótons e elétrons e estes deram origem ao primeiro e mais simples
elemento conhecido, o Hidrogênio. Assim, chegamos à origem da energia do
Universo, a Explosão do Big Bang. A energia remanescente desta Explosão é o
que permite que este texto seja lido ou que o Sol nos ilumine. No início era
muito concentrada e aos poucos foi sendo dissipada. Uma teoria prevê que a
tendência é que esta energia seja dissipada até o momento em que tudo esteja
no zero absoluto (0 K ou -273,15ºC) e, neste momento, quando a energia
cinética do Big Bang desaparecer, tudo o que conhecemos como Universo se
condense novamente em um piscar de olhos e, quando o corpo resultante
contiver mais massa do que o possível, um novo colapso ocorra e tudo
recomece novamente.
Essa é a história da energia primordial. Não tão simples como foi descrita,
pois há formas fundamentais de energia que não foram tratadas tão a fundo
como a gravidade, a eletricidade, bem como as forças fortes e fracas, porém
ilustra de forma razoável o entendimento da ciência.
3.5. “Nada se cria, nada se forma, tudo se transforma” (Lavoisier)
Atkins (2008) traz a definição termodinâmica da energia: “é a capacidade
de efetuar trabalho”. Neste caso, quando uma mola é esticada, a sua
capacidade de retornar ao original aumenta e, em decorrência disso, também
aumenta sua energia. Capozzoli (2009b) discorda desta definição, uma vez que
é a energia a responsável por toda a civilização humana e por todo o Universo
como o conhecemos. Além disso, a de considerar as inúmeras formas que esta
é percebida, ou não percebida, por nossos sentidos: ondas eletromagnéticas
(como a luz), calor, movimento, som, gosto (energia química) e radiação de
partículas.
Dessas inúmeras formas de energia, nenhuma é estanque, uma vez que,
dependo do processo, elas podem ser transformadas entre si. Ou seja, a
mesma energia que impulsionou as caravelas de Cristóvão Colombo na sua
115
primeira viagem à América, pode estar sendo utilizada na confecção deste
papel. A própria energia de uma usina hidroelétrica. Nada mais é do que a
transformação da energia potencial gravitacional da água sendo transformada
em energia cinética e depois em eletricidade. A queima de combustíveis nada
mais do que a energia química se transformando nas energias cinética
(expansão dos gases) e térmica (calor). A própria formação do petróleo decorre
da transformação em energia química da energia solar por organismos vivos a
milhões de anos e posterior modificação pela energia de pressão e térmica da
crosta terrestre.
Ou seja, a energia que move nossa sociedade pode ser originada de
inúmeras fontes, basta que tenhamos tecnologia para transforma-la em
trabalho útil. Até o momento, a principal força motriz da sociedade, desde a
Revolução Industrial, foi a queima de fontes fósseis. Isso tem gerado impactos
ambientais severos e que tendem a piorar nas próximas décadas. Cabe à
humanidade utilizar a dádiva da natureza de estarmos rodeados de inúmeras
fontes energéticas capazes de serem transformadas no que quisermos, basta
que tenhamos tecnologia e vontade para alcança-las. É claro que nenhuma
delas será a única (nem o petróleo conseguiu esta façanha), porém uma
diversificação da matriz energética mundial e uma ampliação das fontes
renováveis e mais limpas são necessárias em um futuro cada vez mais
desenvolvido e populoso.
Seguem algumas informações acerca das diversas possibilidades de
energia que a natureza disponibiliza ao homem todos os dias.
a) Energia Nuclear
Uma usina nuclear consiste de uma usina termoelétrica, por isso muitas
vezes é chamada de central termonuclear, uma vez que transforma energia
térmica em elétrica como suas primas movidas a combustíveis fósseis. A
grande diferença se dá pelo fato que seu combustível são pastilhas de Urânio
levemente enriquecido com o isótopo 235 (isótopo físsil). O princípio de
funcionamento decorre da aceleração do processo natural de fissão nuclear do
116
Urânio 235, sob condições controladas e isoladas. Além de neutros e radiações
α, β e γ, também é gerado pela fissão dos núcleos do Urânio a energia térmica
utilizável pelo homem.
Miller (2007) diz que na década de 1950 os pesquisadores previam um
mundo, no ano 2000, movido com 20% de sua energia advinda dos átomos.
Em 2004, entretanto, as previsões falharam, uma vez que somente 6% da
energia mundial é movida pela energia nuclear. Hoje, as previsões futuras são
que este número caia até 2025, considerando que serão fechadas velhas
usinas termonucleares e poucas usinas novas serão construídas.
Há diversas razões que explicam a redução da participação da energia
nuclear (Miller, 2007). A primeira decorre do custo de construção e dos custos
de operação. Além disso, tem-se uma grande pressão da sociedade, visto que
desde os acidentes de Three Mile Island (EUA) e Chernobyl (Ucrânia) esta
forma de energia ficou marcada como devastadora. Outro problema consiste
na preocupação dos investidores nos gastos de manutenção de um reator fora
de operação. Quando uma usina é desativada, esta não pode ser
simplesmente desmontada, porém deve permanecer sob guarda por séculos.
Wald (2009) descreve que as mudanças climáticas tem despertado o
interesse de alguns acerca da energia nuclear. A energia nuclear é
considerada uma energia limpa, com relação à poluição atmosférica, uma vez
que não emite gases (inclusive gases causadores de efeito estufa). É oportuno
explicar que, apesar de ser uma fonte energética “limpa”, a mesma não é
renovável uma vez que o Urânio provém de fontes limitadas.
Como as usinas termoelétricas americanas são muito antigas (Wald,
2009), tem havido interesse de algumas empresas em substituir estas por
termonucleares, considerando o viés ambiental e a possibilidade de haver
apagões no país caso maiores investimentos não sejam direcionados à
geração de eletricidade. Estas empresas pretendem construir diversos reatores
nucleares de “bancada”, ou seja, padronizados, de forma a reduzirem os custos
117
de produção por produção em larga escala. Este projeto ambicioso é
questionado por muitos que perguntam-se: “valerá a pena”.
Wald (2009) explica que o mercado americano de energia hoje é
diferenciado do que era há alguns anos atrás, quando os reatores nucleares
ainda eram construídos. Os custos de alternativas mais caras de energia não
são mais repassados aos consumidores e são vendidos em um mercado
competitivo. Muitos receiam haver perda de segurança para garantir preços
mais baixos.
Finalmente, vale ressaltar que o pior problema da energia nuclear é o lixo
radiativo. Em um caso como o Brasil, um país continental com somente dois
reatores ativos, pode ser oportuno ampliar o mercado de energia nuclear,
inclusive para aumento do conhecimento da tecnologia no país. Porém, no
caso de países como a França, onde mais de 60% da energia é advinda de
fontes nucleares, está havendo uma intensa dificuldade no armazenamento do
lixo radiativo. Está faltando, literalmente, lugar para depositar este lixo. E o pior
é que, com a desativação dessas usinas, a França precisará de novas fontes
energéticas e necessitará cuidar de todo esse passivo atômico em seu
território.
Por fim, a humanidade encontra-se hoje em um dilema. É preciso decidir
se vale a pena construir novos reatores ou não. Caso sim será preciso agir
enquanto que ainda há engenheiros que detém o conhecimento de sua
construção (Wald, 2009). Talvez em um futuro mais distante, o conhecimento
poderá ser perdido se não o continuarmos nas próximas décadas. Será válido
manter a tecnologia para as gerações futuras ou a mesma deve ser
descontinuada devido às suas dificuldades? Essa pergunta precisa ser
equacionada pela humanidade.
b) Energia geotérmica
A energia geotérmica é proveniente do calor contido no interior da terra.
O processo é muito semelhante às usinas térmicas e termonucleares, a
diferença é a fonte de calor. Enquanto que nessas duas últimas, o calor é
118
obtido de reações específicas promovidas pela ação humana (reação química
de queima ou reação de fissão nuclear), nas usinas geotérmicas o
aquecimento do fluido térmico se dá por meio de uma energia que não
depende da ação humana.
Tecnicamente, como relatado por Miller (2007), tais usinas consistem de
um equipamento de bombeio possante que empurra o fluido térmico por um
poço até uma profundidade capaz de aquecê-lo de forma suficiente. O contato
com as rochas quentes, ou com fluidos do manto da Terra, promove o
aquecimento ou a vaporização do fluido, depende do projeto. O fluido
aquecido, ou vaporizado, sobe por diferença de pressão e é utilizado na
geração da energia elétrica. Em outras palavras, trata-se de um geiser artificial.
Além de movimentar usinas geotérmicas, o calor do subsolo também
pode ser utilizado por residências para aquecimento em lugares frios (Miller,
2009). Neste caso, basta um sistema semelhante ao de uma usina, porém bem
mais simplificado. Essa é uma forma bem eficiente de promover a calefação
sem a necessidade de utilizar combustíveis fósseis como óleo de aquecimento.
São vantagens desta fonte energética: são intermitentes (ou seja,
funcionam o ano todo), não agridem o meio ambiente com emissão de carbono
e possuem custo baixo de instalação e operação. Entretanto, não são todos os
lugares que a energia geotérmica pode ser aproveitada. Apenas nos lugares
escolhidos pela natureza para terem atividade vulcânica podem utilizar esta
fonte de energia. Como exemplo, tem-se a Islândia, um país muito gelado e
que possui muitos vulcões ativos. Neste país, pelo menos 85% das casas
possuem aquecimento natural de fonte geotérmica e a mesma também serve
para aquecer estufas para produzir alimento durante o inverno rigoroso (mIller,
2009).
Hoje, somente 1% da energia mundial provém de fonte geotérmica, uma
vez que sua limitação natural não favorece a instalações de usinas próximas
aos linhões de transmissão ou aos grandes centros consumidores.
119
c) Hidroeletricidade
Diferentemente das fontes anteriores, a hidroeletricidade não utiliza
energia térmica como energia intermediária. Somente estão associadas a esta
forma a energia potencial gravitacional e a energia cinética. As grandes
vantagens da hidroeletricidade são: energia barata, apresenta maior
possibilidade de instalação do que a energia geotérmica, instalação e
manutenção mais baratas com relação à energia nuclear, não emissão de
gases poluentes gasosos e sólidos, entre outros.
Entretanto, apesar de apresentar efeitos positivos, a energia nuclear
possui, também, alguns aspectos que precisão de atenção (Freitas, 2009). A
própria mudança climática, que pode ser uma das motivações de se adotar a
hidroeletricidade, pode ser um complicador, visto que provocará mudanças no
padrão hidrológico e de precipitação mundial. No caso brasileiro, apesar de ser
um país que detenha uma grande reserva hídrica superficial, que hoje produz
85% da sua energia elétrica por meio das águas, pode sofrer com as
alterações provocadas pela elevação de temperatura.
Conforme indicado por Freitas (2009), o IPCC descreve que as vazões
dos cursos de água dependem da localidade e do cenário climático
considerado. No caso específico da América do Sul, os estudos não
apresentam coerência de resultados, uma vez que indicam excessos de
chuvas e muita vaporização. O cenário mais correto, seca ou chuva, ainda não
está bem esclarecido.
O sistema hidroelétrico brasileiro (Freitas, 2009) foi construído com base
em séries históricas de 1930, as quais encontram-se de certa forma alteradas
atualmente. Isso aumenta o risco de apagões no Brasil devido ao fato de que
os níveis dos reservatórios nos verões permanecerem sempre muito baixos.
Por esse motivo, é cada vez maior o interesse do governo em explorar as
bacias hidrográficas do Norte, as quais representam 50% do potencial
hidroelétrico do país e encontra-se pouco explorado. Como a demanda maior
encontra-se nas regiões Sul e Sudeste, torna-se cada vez mais necessária
120
construções de linhões que interligam as regiões, uma vez que tais obras
reduzem os riscos de não atendimento da demanda. Por este motivo, tem-se
investido muito nesses linhões. Em curto prazo, tais medidas são bastante
oportunas.
Vale ressaltar que a utilização do bioma amazônico para construção de
represas acarreta alguns impactos ambientais. Os lagos costumam ser muito
grandes devido à alta vazão dos rios e o relevo muito plano. Com isso, uma
vasta área de floresta seria devastada. Além disso, é imprescindível a retirada
da mata na região alagada para evitar a geração demasiada de metano
formado por causa da degradação anaeróbia. Outro impacto ambiental se dá
devido aos trabalhadores levados para a construção da barragem. Como o
aumento da população é muito rápido, tem-se uma ocupação descontrolada
com excessiva geração de resíduos.
Segundo relatório do IPCC (2007), 1,8 bilhão de pessoas vivem, nos dias
de hoje, em países que sofrem estresse hídrico médio e alto. A ONU prevê que
em 2025, devido ao aquecimento global e crescimento populacional, esse
número pode saltar para 5 bilhões. Assim, o consumo de água poderá provocar
um efeito muito negativo na vazões dos rios e nos lençóis freáticos, o que
provocará um impacto muito grande na geração de energia por meio de
hidroelétricas.
O Brasil não está longe desta realidade, uma vez que as bacias do
Nordeste serão as primeiras a sofrer com as mudanças climáticas. As represas
no Rio São Francisco poderão reduzir sua capacidade em estimados 160 MW
ou maior. Isso sobrecarregará as demais bacias ou incentivará o uso de
termoelétricas à óleo combustível ou carvão, agravando, ainda mais, o
aquecimento global (Freitas, 2009).
Até mesmo a Bacia do Paraná, que é responsável por 50% da
capacidade nacional de geração de hidroeletricidade, poderá ser impactada.
Apesar de não estar localizada em uma área muito crítica, a grande população
e intensa agricultura ao seu redor pode sobrecarregar o sistema e impactar de
121
forma significativa no potencial de geração de energia elétrica. Além disso,
visto que é necessário manter os níveis dos rios da região, de modo a não
prejudicar as hidrovias, as comportas não poderão ser fechadas de modo a
manter o nível dos reservatórios (Freitas, 2009).
d) bioenergia: biomassa e biocombustíveis
Antes de iniciar este item, vale mencionar a diferença entre biomassa e
biocombustíveis. Biomassa pode ser considerada como qualquer material
oriundo de organismos vivos e que não tenha sido modificado por processos
industriais severos. São exemplo de biomassa: a madeira, o bagaço de
resíduos agrícolas ou outros resíduos vegetais ou animais. Vale ressaltar, que
o uso de biomassa para geração de energia deve atentar quanto ao fato de
esta ser renovável ou não. Biomassa oriunda de florestas são renovadas após
muitos anos e, por este motivo, madeira oriunda de extrativismo florestal são
consideradas não-renováveis. Já o bagaço de cana-de-açúcar é considerado
renovável, uma vez que a vegetação renova-se rápido.
Quanto aos biocombustíveis, são classificados como combustíveis
produzidos a partir de biomassa renovável, a qual é convertida a partir de um
processamento industrial simples ou severo. São exemplos de biocombustíveis
o biogás, o etanol combustível, o biodiesel, a biogasolina, o óleo diesel
renovável, entre outros.
A importância dos biocombustíveis no equacionamento do aquecimento
global se dá, uma vez que estes são responsáveis por fechar o ciclo do
carbono. No caso dos combustíveis fósseis, o carbono é retirado de
reservatórios no subsolo, processados, queimados e liberados na atmosfera.
Não há o retorno deste carbono para o subsolo, exceto se houver um
processamento de captura de carbono que ainda não é utilizado em escala
comercial, e acumula-se na atmosfera. Já os biocombustíveis quando
queimados, liberam o mesmo CO2 que foi um dia absorvido da atmosfera por
um vegetal por meio da fotossíntese. Para a produção de mais
biocombustíveis, mais carbono é capturado e, dessa forma, o ciclo se fecha.
122
Rovere e Obermaier (2009) informam que até recentemente os
biocombustíveis eram tratados como uma fonte energética limpa e
potencialmente capaz de mitigar os impactos do aquecimento global.
Entretanto, estudos recentes indicam que uma análise mais específica de cada
caso é necessária antes de ser batido o martelo quanto aos benefícios dos
biocombustíveis.
Ou seja, não basta uma análise puramente superficial e generalista, é
preciso uma avaliação do tipo “do poço à roda”, ou melhor, “do campo à roda”,
neste caso. É preciso estudar se a quantidade de carbono absorvida pela
planta é suficiente para compensar o carbono emitido pelo maquinário agrícola,
pelos veículos de transporte da matéria-prima, pelo processamento industrial e
pelo transporte do produto acabado.
No caso do etanol produzido a partir de melaço de cana-de-açúcar, o
processamento industrial com base na energia gerada a partir da queima de
biomassa (bagaço da cana-de-açúcar), torna o processo economicamente
viável e nulo em termos de emissão de carbono. Entretanto, foi necessário um
expertise de 30 anos do setor sucroalcoleiro brasileiro para que a tecnologia
atingisse maturidade tal que fosse possível esse resultado. No início, os fornos
das usinas queimavam fósseis ao invés do bagaço de cana e o balanço de
carbono era muito diferente.
No caso do biodiesel, cuja cadeia produtiva ainda precisa ultrapassar a
curva de conhecimento para tornar-se tão competitivo quanto o etanol, ainda
apresenta algumas dificuldades em termos de balanço de carbono. Este
biocombustível é produzido por meio de transesterificação ou esterificação de
óleos, gorduras ou ácidos graxos, os quais são obtidos a partir de organismos
vivos, com um álcool. A grande maior do parque produtivo de biodiesel utiliza
metanol ao invés do metanol, devido a algumas motivações técnicas e
econômicas. Ocorre que o metanol é comumente produzido a partir de reforma
de gás natural e, portanto, trata-se de um carbono de origem fóssil. Pode-se
dizer que aproximadamente 5% do biodiesel é não-renovável. É preciso haver
maiores investimentos no desenvolvimento de tecnologias que permitam
123
transformar biodiesel a partir de etanol oriundo de biomassa renovável (melaço
de cana-de-açúcar, por exemplo) para se obter um biodiesel plenamente limpo
e renovável, uma vez que é oportuna a mitigação das mudanças climáticas.
Ademais, a transesterificação de óleos vegetais para produzir biodiesel
gera um coproduto chamado glicerina. Hoje, este produto ainda não tem uma
comercialidade garantida, visto que a indústria de cosméticos ou químicos
(seus maiores consumidores) requer um produto muito purificado (o que
encarece sua purificação) e é relativamente pequeno dado o volume produzido
a partir da comercialização do biodiesel. Muito tem sido estudado para dar uma
finalidade à glicerina e garantir uma economia adicional ao produtor de
biodiesel. Vale ressaltar que o etanol a partir de cana-de-açúcar tem anos de
experiência e que o biodiesel possui apenas alguns anos. Um futuro mais
promissor para o biodiesel dependerá da ampliação de sua tecnologia.
Outro produto a ser considerado, e não menos dificultoso quanto o
biodiesel, é o etanol produzido a partir de amido de milho, muito comum no
mercado americano. Diferentemente da produção de etanol a partir de cana-
de-açúcar, há intenso consumo de energia na etapa de quebra do amido e
dissolução da glicose que será fermentada para obter o etanol. Essa etapa
adicional reduz a economicidade do produto, de forma que obriga o governo
americano fornecer subsídios aos produtores, e torna a iniciativa menos limpa.
Recentemente, um problema que tem sido evidenciado no mercado dos
biocombustíveis é a rivalidade com alimentos. Isso é muito verificado com o
biodiesel e o etanol de milho e o seu maior impacto decorre do fato de que a
indústria alimentícia paga melhor do que a indústria de energia. Ou seja, em
outras palavras, paga-se muito por uma matéria-prima alimentícia (óleo de soja
ou milho, por exemplo) e o produto final deve ser vendido por um preço
pequeno (o mesmo rivalizará com os fósseis como gasolina e óleo diesel que
possuem preço menor do que os gêneros alimentícios). Isso resulta em uma
margem de lucro muito pequena dos produtores, os quais precisam receber
subsídio financeiro (etanol americano) ou por meio de teor obrigatório
(biodiesel no Brasil).
124
Outra questão importante acerca da rivalidade energia x comida é a
questão econômica. Seriam os biocombustíveis responsáveis pela elevação de
preço dos gêneros alimentícios utilizados como suas matérias-primas? Talvez
a resposta para esta pergunta necessitasse de uma análise mais profunda. No
caso da cana-de-açúcar, não há uma indústria alimentícia apoiada neste
insumo, exceto o açúcar que tem sido suprido normalmente. Quanto ao
biodiesel, muitos questionaram seu uso por conta deste fato. Porém, ao ser
realizado um acompanhamento das cotações do preço dos óleos vegetais
utilizados na produção de biodiesel e como alimentos (soja, canola, amendoim,
palma ou dendê, girassol, entre outros), com o preço do petróleo, verifica-se
um comportamento quase que idêntico. Então, o preço dos óleos alimentícios
estão atrelados ao barril de petróleo, uma vez que a energia fóssil impacta
diretamente na colheita, transporte e refinamento deste, sem contar a
especulação financeira nas Bolsas de Valores. Logo, não é o biodiesel o
responsável pela elevação desses preços.
Vale considerar, também, uma questão ética: É interessante destinar
áreas agricultáveis capazes de gerar alimentos para produzir energia? Essa é
uma pergunta mais complexa e cuja resposta ainda não foi equacionada. Neste
ponto, o biodiesel produzido a partir de óleo de soja e de gordura bovina tem
uma vantagem. Tanto o cultivo da soja como a pecuária de corte não tem o
óleo ou a gordura como produto principal. A soja é 80% proteica e 20% oleosa,
ou seja, planta-se soja para vender proteína e não óleo. No caso da pecuária, o
principal produto é a carne e a gordura é quase um resíduo. Nesses dois
casos, se o biodiesel não fosse produzido, a terra continuaria sendo utilizada e
as matérias-primas precisariam encontrar outros mercados, visto que ninguém
utiliza óleo de soja ou gordura bovina como suprimento básico.
Um biocombustível muito importante na mitigação do aquecimento global
é, sem dúvida, o biogás. O biogás é uma mistura constituída principalmente de
metano e dióxido de carbono (este CO2 seria nulo dentro do ciclo de carbono)
obtido a partir da fermentação anaeróbia de resíduos orgânicos de ambientes
125
urbanos e rurais. Dos pontos positivos da produção e uso do biogás, pode-se
citar:
• é uma fonte energética descentralizada, ou seja, o produtor rural
produz o biogás e pode gerar sua própria energia elétrica a partir deste.
Isso favorece o seu caráter social;
• permite uma destinação de resíduos orgânicos que antes seriam
descartados;
• a queima do biogás permite que o metano transforme-se em CO2 antes
de ser emitido. Como o metano absorve mais radiação infravermelha
que o dióxido de carbono, tem-se dessa forma um certo ganho
ambiental;
• o carbono emitido com a queima de biogás é nulo quanto ao ciclo de
carbono porque este tem origem em rejeitos orgânicos;
• o processo de produção de biogás não consome combustíveis fósseis;
• Por utilizar resíduos como matéria-prima, o biogás é o biocombustível
que menos interfere na rivalidade com alimentos.
Além desses biocombustíveis convencionais, considerados como de
primeira geração, há também os de segunda e demais gerações, também
chamados de novos combustíveis renováveis. Na sequencia, serão tratadas
algumas questões sobre tais produtos.
Etanol produzido a partir de material lignocelulósico.
A madeira contém fibras poliméricas constituídas principalmente de
celulose (um polímero a base de glicose) e lignina (um polímero formado por
compostos cíclicos ou aromáticos). Esta tecnologia visa produzir enzimas,
utilizando modificação genética em micro-organismos, que separarão a
celulose da lignina, cortarão as fibras de glicose em pedaços menores, isolarão
as moléculas de glicose e, por fim, promoverão a fermentação da glicose como
se fosse proveniente da cana ou do milho. Atualmente, este processo está com
a curva de conhecimento crescente (quanto maior a escala, maior o custo),
126
porém, quando a curva de conhecimento inverter (quanto maior a escala,
menor o custo), será um biocombustível em potencial. A matéria-prima é
extremamente abundante e não rivaliza com comida. Tudo poderá ser
transformado em etanol: serragem, grama, madeiras velhas, papel usado,
bagaço de cana, palha de milho ou de cana, entre muitas outras possibilidades.
O governo americano está investindo muito nesta tecnologia e, quando
conseguir inverter a curva de conhecimento, serão grandes produtores de
etanol. A partir deste momento, conseguirão uma matriz energética mais limpa,
segura energéticamente, relativamente barata e um produto com grande
potencial de exportação.
Biodiesel de algas.
Esta tecnologia prevê a produção de biodiesel utilizando óleos produzidos
por micro-organismos. Apesar de serem chamados de “algas”, tratam-se, na
verdade de bactérias azuis ou cianofíceas do Reino Monera (e não do Reino
Plantae, como é o caso das algas verdadeiras e macroscópicas). Estes
organismos acumulam óleos em seu citoplasma, que podem ser utilizados para
produzir biodiesel por meio do processo de transesterificação convencional.
Todavia, há alguns pontos a considerar para esta tecnologia.
• o processo de separação entre o óleo e o citoplasma é muito dificultoso
e oneroso;
• as algas exigem grandes piscinas para que a produção de biodiesel
seja comercialmente viável no mercado de energia;
• no mercado alimentício as “algas” são muito valorizadas. O impacto na
margem de lucro para o produtor seria pior do que se fosse utilizado
óleos vegetais.
Hidrocarbonetos renováveis: biogasolina e óleo diesel renovável
Existem muitos pesquisadores patenteando tecnologia que permita
transformar biomassa em hidrocarbonetos renováveis, principalmente nos
Estados Unidos. Assim como o etanol de lignocelulose, são possibilidades
127
muito importantes para a segurança e economia do país. A grande diferença
desses biocombustíveis reside no fato de que são constituídos da mesma
natureza que os derivados de petróleo, alguns até mesmo com uma qualidade
mais apurada. A finalidade destes produtos consiste no fato de que o uso de
etanol e biodiesel puros necessitam de modificações mecânicas nos motores a
combustão interna e os hidrocarbonetos renováveis não. É oportuno ressaltar
que biodiesel (apesar de também ser renovável) não é classificado como óleo
diesel renovável, uma vez que o primeiro consiste de uma mistura de ésteres e
os últimos de hidrocarbonetos. Quimicamente, são muito diferentes.
Biocombustíveis de craqueamento de óleos vegetais
Consiste no aquecimento de óleos vegetais convencionais de modo que o
mesmo transforme-se, por craqueamento, em hidrocarbonetos. Este processo
ainda é experimental e muito custoso em termos de produção. O aquecimento
promove um gasto de energia (custo) requer um controle rígido para evitar que
o aquecimento do óleo vegetal transforme-se em acroleína (um composto
tóxico).
Biocombustíveis de hidrotratamento de óleos vegetais.
Quando o óleo vegetal é adicionado ao gasóleo dentro da refinaria e a
carga resultante é tratada com hidrogênio em uma unidade de hidrotratamento,
tem-se a retirada dos átomos de oxigênio dos ésteres do óleo vegetal, bem
como a hidrogenação das suas ligações duplas. Após esse rigoroso
tratamento, o óleo vegetal transforma-se em um hidrocarboneto leve e um gás
chamado propano que pode ser utilizado como propelente ou GLP. Esta
tecnologia foi testada em algumas refinarias do Brasil, porém hoje não se
encontra operacional.
e) Energia solar, eólica e maremotriz
Além das fontes energéticas limpas citadas anteriormente, também é
válida a energia gerada por intermédio das células fotovoltaicas, das turbinas
eólicas e das facilidades que captam a energia das ondas.
128
Wald (2009) e Miller (2007) descrevem bem as tecnologias utilizadas para
transformar estas formas de energia em eletricidade, informando suas
potencialidades e dificuldades.
Energia solar-térmica
É a alternativa de energia mais barata e que detém a tecnologia mais
conhecida, considerando todas as formas contempladas neste tópico. Consiste
de um conjunto de espelhos longos com o formato de calhas de águas pluviais
localizadas nas bordas dos telhados. Os espelhos captam a luz solar e
convergem os raios para um ponto central onde está instalado um tubo fino e
capaz de transmitir o calor externo advindo dos raios solares convergidos para
um fluido interno (que pode ser água) de forma a vaporiza-lo. Esses vapores
são utilizados para mover uma turbina de geração de energia elétrica. Em
outras palavras, trata-se de uma “caldeira colar”.
A dificuldade desta energia consiste no fato de que exige solo plano e
necessita de gasto de água ou fluido térmico, o que diminui sua margem de
lucro. Como exige muita insolação, é excelente para ser utilizada em desertos,
o que dificulta aquisição de água, transmissão de energia e mão-de-obra. Em
função destas dificuldades, especialistas não acreditam nesta tecnologia em
um longo prazo, uma vez que será substituída por outras formas mais
eficientes.
Outra dificuldade decorre do fato de que são necessários muitas “calhas”
para se ter uma geração considerável e, dessa forma, uma área muito grande
fica coberta constantemente. Isso pode provocar distúrbios na biodiversidade.
Entretanto, vale ressaltar que a hidroeletricidade também ocupa uma área
grande e provoca impactos na biota.
Um equipamento que utiliza o mesmo princípio e que pode ter um futuro
mais promissor é o fogão solar. Com funcionamento similar ao Instrumento
montado por Horace Saussure, vide Figura 1.1, este tem sido muito utilizado na
África por evitar a utilização de lenha e, assim, evitar o desmatamento de
matas virgens africanas.
129
No Brasil, uma tecnologia que tem se desenvolvido muito em casas de
veraneio é a utilização de serpentinas metálicas dentro de uma superfície preta
absorvedora de calor solar instalada em telhados. Esta estrutura possibilita o
aquecimento da água de uma caixa d’água isolada termicamente com isopor e
que possui ligação com chuveiros e torneiras para fornecimento de água
morna/quente.
Energia solar fotovoltaica
Esta tecnologia aproveita um conhecimento científico adquirido 170 anos
atrás. Em um painel metálico, são montadas duas camadas de um material
semicondutor. Uma dessas placas é possui muitos em elétrons na sua banda
de valência e a outra possui lugares vagos. Quando os raios solares
bombardeiam a placa “rica” em elétrons, há uma migração destes (excitados
devido a energia dos fótons incidentes) para a placa “pobre” em elétrons,
gerando uma diferença de potencial. Ao ligar as duas placas por um fio
metálico, uma corrente elétrica é verificada devido à transição de elétrons de
uma placa para a outra.
As células fotovoltaicas foram utilizadas de forma prática pela primeira
vez na exploração espacial. No Sistema Solar interno, integra uma fonte
energética constante (não há noites e dias no espaço e nem dias nublados),
um equipamento relativamente leve e uma geração de eletricidade com pouca
flutuação.
A maior desvantagem desta foram de geração de eletricidade está no
baixo rendimento dos painéis solares. Apesar de haver um advento tecnológico
que permite um aumento desta eficiência. Hoje, esta ainda é baixa. Além disso,
une-se este fato ao preço dos painéis solares, que não são muito acessíveis, o
que eleva o tempo de retorno do investimento.
Esta forma de energia necessita ainda de subsídio governamental, porém
pode ser considerada uma excelente alternativa para residências rurais que
são distantes de qualquer transmissão de energia, principalmente em países
130
tropicais. Por meio de investimentos do Banco Mundial, a Índia e o Zimbábue
disponibilizam esta forma de energia para aproximadamente 40 mil vilas.
Energia eólica
Os ventos são formas indiretas da energia solar. O aquecimento do Sol é
a força motriz da movimentação do ar atmosférico, os ventos. Esta fonte de
energia é, das relatadas neste tópico, a que mais cresce no mundo. Liderada
pela Europa, esta tecnologia está rapidamente se espalhando e, no Brasil, já
faz parte de leilões de concessão realizados pela ANEEL.
A energia eólica é captada por meio de turbinas especiais. Estas turbinas
são desenvolvidas de forma semelhante aos ventiladores de teto de domicílios,
exceto pelo fato de que não precisam ser silenciosas, pelo contrário, emitem
um ruído relativamente alto quando em funcionamento. Isso se deve pelo fato
de que sua fabricação visa eficiência na geração de energia e não o conforto.
As maiores turbinas conhecidas produzem cerca de 6 MW e tem pás de 65 m
(tamanho das asas de um Boeing 747). Esta energia permitiria abastecer vários
shoppings somente com uma turbina.
Nos Estados Unidos, incentivos governamentais tem tornado esta fonte
energética uma alternativa muito viável. Muitos fazendeiros estão instalando
turbinas eólicas em suas terras e estão ganhando mais dinheiro do que com
agricultura.
Devido ao ruído que geram e as mudanças que causam nas paisagens
naturais, existem objeções quanto ao seu uso. Entretanto, a principal
desvantagem destas turbinas decorre do fato de que são uma ameaça grave
às aves migratórias que morrem quando chocam-se com as hélices dessa
turbinas.
Energia maremotriz ou oceânica
A energia dos oceanos, pode se considerada como ainda em
estabelecimento, uma vez que existem protótipos em funcionamento mas
nenhum disponível comercialmente. Consiste de facilidades construídas nas
131
encostas marítimas capazes de utilizar as forças de arrebentação das ondas
para impulsionar geradores de eletricidade.
Uma das desvantagens desta forma de geração é o custo de construção
da usina, uma vez que construções em locais com fortes arrbentações
demandam uma estrutura muito forte.
Integração
Uma possibilidade muito interessante foi descrita por Wald (2009), que
propôs a integração destas usinas geradoras de energia renovável e limpas
com turbinas geradoras de eletricidade a gás natural. Assim, o gás seria
utilizado para repor a energia em dias nublados ou com poucos ventos. Além
disso, pode ser utilizada uma integração entre energia eólica e solar (térmica
ou fotovoltaica), uma vez que, em determinados lugares, é durante a noite,
quando a energia solar está inativa, que a energia eólica é mais vantajosa
devido aos ventos mais fortes.
Uma dificuldade conjunta dessas formas de energia, que somente pode
ser resolvida com integração com a utilização de fósseis ou bioenergia, é que
estas necessitam de facilidades para armazenamento de eletricidade (baterias)
o que encarece sua utilização e gera resíduos metálicos perigosos. Essa
necessidade se dá pelo fato de que em determinados momentos gera-se muita
energia e em outras há carência de geração. Nos momentos de baixa geração
a termoelétrica entraria em operação.
3.6. A Era do Hidrogênio (Rifkin, 2009)
No tópico 3.1, deste trabalho, comentou-se sobre a descarbonização da
matriz energética mundial. No topo dessa descarbonização está a utilização do
hidrogênio (um gás combustível isento de carbono), cuja queima somente
emite vapor de água.
O Hidrogênio é muito abundante na Terra, porém não existe em nosso
planeta este elemento na sua forma diatômica (H2) de forma natural. O mesmo
encontra-se combinado com outros elementos para formar inúmeros
132
compostos químicos como água, hidretos metálicos, amônia e seus sais, entre
outros. Além desses, também vale ressaltar sua presença nos compostos que
compõem a matéria orgânica, tais como, todos os seres vivos, o papel que está
escrito este trabalho, os próprios combustíveis fósseis e muitos outros. Apesar
de sua abundância Terra, o Hidrogênio é o mais abundante de todos os
elementos no Universo.
Como fonte geradora de energia, o gás hidrogênio, o composto que
realmente interessa, somente pode ser utilizado por meio do processo de fusão
nuclear, o qual existe no interior das estrelas. O ser humano ainda estuda de
forma embrionária esta tecnologia, a qual não estará disponível
comercialmente nos próximos anos (pode ser que nem mesmo neste século).
Sua importância no setor energético atual é desempenhar o papel de “vetor”
energético limpo, uma vez que somente permite a condução de energia de uma
fonte energética ao seu consumo.
Em outras palavras, vale mencionar que o gás hidrogênio pode ser
utilizado como um “armazenador” de energia obtida por meio de uma fonte
energética primária (queima de fósseis, nuclear, hidroeletricidade, bioenergia,
geotérmica, solar, eólica ou maremotriz) e possibilita o seu transporte para o
local onde será comercializado para o consumo.
Há diversos modos de se produzir o gás hidrogênio. A mais comum utiliza
o gás natural reagindo com vapor de água em um processo conhecido como
reforma a vapor. Neste processo ocorre liberação de dióxido de carbono.
Entretanto, esta forma de produção não é limpa, visto que parte de um
combustível fóssil.
Um outro processo, usado em algumas industrias especiais como
produtores de gás cloro, é a chamada eletrólise. Neste, a água é submetida à
uma diferença de potencial sob a forma de corrente contínua e libera em cada
polo gás hidrogênio e gás oxigênio. A corrente elétrica seria originada por meio
da fonte primária. Atualmente, somente 4% do gás hidrogênio mundial advém
do processo de eletrólise, uma vez que a energia elétrica consumida é mais
133
cara do que o processo de reforma a vapor. Essa é a maior dificuldade da
utilização do gás hidrogênio na matriz energética, sua produção. Não adianta
originá-lo por meio de combustíveis fósseis (a maneira mais comum hoje), o
mesmo não seria considerado isento de carbono em uma análise “do poço à
roda”.
As propostas mais aceitas, ainda que teoricamente, consideram a
utilização de energia solar, eólica ou maremotriz para produzir o gás
hidrogênio. Assim, a energia ficaria retida como energia química no gás
produzido e não seriam necessárias baterias para atuar nos momentos de
baixa produção. No caso de uma necessidade, bastaria acionar as turbinas de
geração de eletricidade (que antes eram movidas a gás natural) convertidas
para trabalhar com o gás hidrogênio.
Outra proposta, prevê a produção de gás hidrogênio por meio da
exploração da grande quantidade de energia geotérmica existente na Islândia e
transportá-lo, como produto de exportação, para a Europa Ocidental.
Entretanto, como o gás hidrogênio permeia por poros muito pequenos e é
extremamente explosivo quando em contato com o ar, o armazenamento deste
consiste de uma fonte de riscos. Sua infra-estrutura de transportes seria um
custo adicional. Como é difícil, porém não impossível, muitas pesquisas têm
procurado resolver este e outros problemas.
Existem duas formas de utilizar o gás hidrogênio, os motores a
combustão interna e as células combustível. No primeiro caso, somente
haveria necessidade de uma adaptação da tecnologia atual, porém não é a
melhor proposta.
A segunda, mais aceita, consiste na utilização de tais células
combustível. Este aparato consiste de duas câmaras separadas por uma
membrana semi-permeável e condutora de eletricidade. Em uma das câmaras
entra gás hidrogênio e na outra, gás oxigênio. A membrana permite a
passagem de prótons na direção da câmara com oxigênio e, de elétrons por
um circuito fechado.
134
As células combustíveis são muito eficientes e mantém uma corrente
contínua com pouca oscilação. São recomendadas para empresas que
precisam de abastecimento elétrico completamente constante no seu processo
produtivo.
135
CONCLUSÃO
Conforme descrito por Miller (2007), “vivemos em uma era exponencial”
em que a população mundial cresce geometricamente a cada ano e atingirá um
patamar de 10 bilhões de pessoas até o fim deste século. Além do crescimento
populacional, também deve ser considerado o crescimento econômico. Com
base na exploração dos recursos naturais, a economia do mundo cresce ano a
ano, elevando consigo a produção agrícola, industrial e a geração de energia.
Entretanto, o ser humano vive em um planeta limitado, com recursos
naturais esgotáveis, que está a cada ano próximo deste limite de tolerância
aceitável (Foley, 2010). A ciência já catalogou diversos impactos que afetam o
meio ambiente de forma significativa e, dentre eles, tem-se o aquecimento
global, se não entre os cinco, entre os dez piores.
A descoberta do efeito estufa natural, no século XIX, e a confirmação de
que o mesmo é causado pela presença na atmosfera de gases que absorvem
radiação infravermelha, tais como dióxido de carbono, o metanol, os óxidos de
nitrogênio, entre outros, motivou os estudos que correlacionam as atividades
humanas ao aquecimento verificado nos últimos séculos.
Conforme a teoria, hoje defendida por muitos cientistas, a queima
continuada de combustíveis fósseis tem emitido na atmosfera tonelada anuais
de carbono (principalmente sob a forma de CO2) que antes estava acumulado
na crosta terrestre. Estes gases estariam absorvendo radiação infravermelha
refletida pela superfície da Terra e convertendo-a em energia térmica que
aquece a atmosfera e a superfície do planeta. Este é o chamado efeito estufa,
que, sob a forma natural, mantém a vida na Terra aquecida mesmo à noite,
mas que com a intervenção humana está atingindo proporções preocupantes.
Os registros de temperatura, existentes desde o século XIX, compilados
por três grandes instituições (GISS, CRU e NCDC) indicam elevação nas
temperaturas da superfície da Terra. Aliado a estes registros, o NOAA realiza
pesquisas acerca da concentração de CO2 e outros gases na atmosfera e,
136
como resultado, foi obtido um gráfico que ficou muito conhecido como “Curva
de Keeling”, devido ao nome do seu criador, e que dispõe o aumento na
concentração destes gases na atmosfera.
Além dos registros, a ciência também dispõe de diversas técnicas da
paleoclimatologia para prever como foi o comportamento do clima no passado
de forma a entender o futuro.
Este aquecimento global tem sido e será a causa de diversos impactos
ambientais danosos, inclusive, ao próprio ser humano. O impacto considerado
por muitos como o pior de todos, refere-se ao derretimento das calotas polares
e geleiras das grandes altitudes com consecutiva elevação dos oceanos. Um
mundo mais quente terá as tempestades intensificadas, um aumento no
número de tornados e furacões, a ocorrência de alagamentos conciliada com
períodos de estiagem muito longos. Nossos filhos e netos sofrerão as
consequências de um crescimento indiscriminado e irresponsável realizado
pela humanidade.
Urge a tomada de ações por parte da humanidade de modo a mitigar este
aquecimento global. É preciso que cada país aprenda a desenvolver-se de
forma sustentável e não simplesmente crescer economicamente, como tem
acontecido nos últimos séculos. Segundo dados científicos, o dióxido de
carbono permanece na atmosfera por 100 anos até que seja absorvido pelos
oceanos ou continentes. Assim, mesmo que parássemos de emitir o
quantitativo atual de CO2 na atmosfera, demoraria mais de duas gerações para
que o clima voltasse a ser normalizado. Entretanto, a expectativa é que
teremos um consumo de energia cada vez maior e, em com sequencia, mais
emissões.
É imprescindível que o aquecimento global seja tratado com seriedade
por todas as nações e que o advento tecnológico permita a ampliação de
inovações capazes casar o desenvolvimento econômico com a preservação
ambiental.
Dessas ações, destacam-se:
137
• a descarbonização da matriz energética, com o aumento no consumo
do gás natural no mundo e, no futuro, ampliar a utilização do
hidrogênio, o ápice da descarbonização;
• aumento da preocupação acerca da emissão de carbono ao longo de
todo o ciclo de vida do combustível, seja este renovável ou não;
• aumento da eficiência veicular, por meio de diversas ações da indústria
automotiva, tais como redução de massa extra, desenvolvimento de
novos sistemas eletrônicos, utilização de combustíveis mais limpos,
entre outras ações;
• Ampliação das fontes alternativas de energia, e mais limpas que os
combustíveis fósseis, é mais do que necessária. Existem inúmeras
fontes energéticas alternativas, umas das quais já consolidadas e
outras ainda não desenvolvidas comercialmente.
Wald (2009) comenta acerca da diversidade energética que: “Nenhuma
tecnologia fornece uma solução única, mas uma combinação pode criar um
sistema de abastecimento confiável”.
Apesar de serem substitutos à energia fóssil, a energia nuclear, a
hidroeletricidade e a bioenergia nunca conseguirão substituir sozinhas o
carvão, o petróleo e o gás natural. O consumo energético futuro crescerá muito
para atender ao crescimento econômico das nações e, também, para atender
uma população mundial cada vez maior. Além disso, quanto maior o
desenvolvimento tecnológico da sociedade, maior será a dependência
enérgica.
Diante o exposto, é imprescindível que o ser humano adote uma postura
de consciência ambiental para evitar que nossas ações sejam as responsáveis
pela degradação do capital natural deste planeta. É preciso que as gerações
futuras possam usufruir de parte dos benefícios que a natureza construiu com
bilhões de anos de evolução, porém, caso o pensamento egoísta dominante
nas gerações passadas perdure, muito pouco sobrará para eles. Este é o
momento crucial, uma vez que ainda é possível mitigar, grande parte da
138
degradação que causamos. Pode ser que um dia, que pode não estar longe,
isso não seja mais possível.
O aquecimento global é um dos maiores impactos causados pelo homem
em nosso planeta. É muito importante que repensemos nossos atos destrutivos
e adotemos uma cultura menos predatória para que o mundo conforme
conhecemos não deixe de existir.
Uma mudança na matriz energética global é fundamental para que
possamos, pelo menos, estabilizar a concentração de carbono da atmosfera e
continuarmos vivendo no mesmo mundo em nascemos.
139
REFERÊNCIAS BIBLIOGRÁFICAS
AIP – American Institute of Physics (2009a). The carbon dioxide greenhouse
effect. The discovery of global warming. Acedido em 14/08/2010, em:
http://www.aip.org/history/climate/co2.htm#S1;
AIP – American Institute of Physics (2009b). The modern temperature trend.
The discovery of global warning. Adceido em 17/08/2010, em: http://www.
aip.org/history/climate/20ctrend.htm;
AIP – American Institute of Physics (2003). Callendar graphic. The discovery of
global warming. Acedido em 14/08/2010, em:
http://www.aip.org/history/climate/xCallendar.htm;
ALLIEDSOLAR – Renewable Energy Solutions (2010). Eradicate extreme
poverty & hunger. Support Concern Worldwide. Acedido em 08/08/2010, em:
http://www.alliedsolar.ie/history.html;
ANP – Agência Nacional do Petróleo (2010). Anuário estatístico brasileiro do
petróleo, gás natural e biocombustíveis. Acedido em 18/09/2010, em:
http://www.anp.gov.br/?pg=33215&m=&t1=&t2=&t3=&t4=&ar=&ps=&cachebust=
1285221482025;
ARINI, J. (2008, Abril). Como o aquecimento global vai afetar o Brasil. Revista
Época, Acedido em 04/08/2010, em:
http://revistaepoca.globo.com/Revista/Epoca/1,,EDG76861-5990,00.html;
ATKINS, P. (2008). Físico-química. 8ª edição, editora LTC. Rio de Janeiro;
BIELLO, D. (2009). Sequestro de carbono salvará o “carvão limpo”?. Scientific
American Brasil. Edição especial: Terra 3.0 - Soluções para o progresso
sustentável (Volume 3), pp. 30 a 37;
140
BOM – Australian Bureau of Metereology (2005). Annual Rainfall Anomaly
(global). Acedido em 07/09/2010, em:
http://colli239.fts.educ.msu.edu/2009/12/31/trend-in-global-annual-temperature-
1970-2009/;
CAPOZZOLI, U. (2009a). Kilimanjaro se despede do gelo. Scientific American
Brasil. Edição especial: Terra 3.0 - Soluções para o progresso sustentável
(Volume 3), p. 13;
CAPOZZOLI, U. (2009b). Transformações da energia. Scientific American
Brasil. Edição especial: Todas as fontes de energia, pp. 6-7;
COSTA, F. (2003). Primórdios do aquecimento global. Universidade Federal da
Bahia. Acedido em 08/08/2010, em:
http://www.ufbaecologica.ufba.br/arquivos/primordio.pdf;
CROSSETTE, B. (2009). O profeta persistente. Scientific American Brasil.
Edição especial: Terra 3.0 - Soluções para o progresso sustentável (Volume
3), pp. 14-21;
ESSICK, P. (2009). National Geografic Brasil. Edição especial: Nosso desafio
energético, p.7.
FALEIROS, G. (2009). Descoberta do efeito estufa faz 150 anos. Acedido em
07/08/2010, em:
http://www.agr.feis.unesp.br/defers/noticias/index.php?idnoticia=1245583560;
FOLEY, J. (2010, Junho). A vida em uma nova Terra. Scientific American
Brasil, pp. 26-31;
FREITAS, M. (2009). Vulnerabilidade da hidroenergia . Scientific American
Brasil. Edição especial: Todas as fontes de energia, pp. 50-55;
141
GAZZONI, D. e ESTEVÃO, D. (2010). Credito de carbono – MDL. Revista
Biodieselbr. Acedido em 08/08/2010, em: http://www.biodieselbr.com/credito-
de-carbono/mdl/index.htm;
HANSEN, J. (2010). July 2010 — What global warming looks like. GISS Surface
Temperature Analysis. Acedido em 17/08/2010, em:
http://data.giss.nasa.gov/gistemp/2010july/;
HESCO - Himalayan Environmental Studies & Conservation Organization
(2010). Consistent development to the rural villages. Acedido em
08/088/2010, em: http://www.hesco.in/solar.php;
IPCC – Intergovernamental Panel on Climatic Changes (2007). IPCC Fourth
Assestment Report: Climate Change. Acedido em 01/08/2010, em:
http://www.ipcc.ch/publications_and_data/ar4/wg1/es/contents.html;
IPCC – Intergovernamental Panel on Climatic Changes (2001). IPCC Third
Assestment Report: Climate Change. Acedido em 29/08/2010, em:
http://www.grida.no/publications/other/ipcc_tar/;
JONES, P. (2010). Global temperature record. University of East Anglia.
Acedido em 17/08/2010, em: http://www.cru.uea.ac.uk/cru/info/warming/;
LEMONICK, M. (2009). Além do ponto crítico. Scientific American Brasil. Edição
especial: Todas as fontes de energia, pp. 42-49;
MILLER, G.T. (2007). Ciência ambiental. 11ª edição, Editora Cengage
Learning. São Paulo;
NCDC – National Climatic Data Center (2010). Global warming: Frequently
asked questions. National Oceanic and Atmospheric Administration. Acedido
em 29/08/2010, em:
http://www.ncdc.noaa.gov/oa/climate/globalwarming.html;
142
NARLOCH, L. (2009). Onde está o efeito estufa. Aquecimento global. Planeta
sustentável. Acedido em 05/09/2010, em:
http://planetasustentavel.abril.com.br/noticia/ambiente/conteudo_414440.shtml;
NASA – National Astronautic and Space Administration (2003). Scientists
reconstruct Earth’s climate over past millennia. Acedido em 01/08/2010, em:
http://www.nasa.gov/centers/goddard/news/topstory/2003/1211millenium.html
NASA – National Astronautic and Space Administration (2010). Earth
Observatory. Global Warming: Features Articles. Acedido em 29/08/2010,
em: http://www.nasa.gov/Features/GlobalWorming/;
NOAA – National Oceanic and Atmospheric Administration (2009a). Annual
Greenhouse Gas Index (AGGI). Acedido em 29/08/2010, em:
http://www.esrl.noaa.gov/gmd/aggi/;
NOAA – National Oceanic and Atmospheric Administration (2009b). Weather,
climate and Paleoclimatology. Acedido em 23/08/2010, em:
http://www.ncdc.noaa.gov/paleo/globalwarming/paleo.html;
NOAA – National Oceanic and Atmospheric Administration (2010). Mauna Loa
carbon dioxide record. Acedido em 15/08/2010, em:
http://celebrating200years.noaa.gov/datasets/mauna/welcome.html#study;
OPHARDT, C. (2003). Virtual Chembook. Elmhurst College. Acedido em
09/08/2010, em:
http://www.elmhurst.edu/~chm/vchembook/globalwarmA5.html;
PHILIPON, P. (2010). O futuro da mobilidade: rumo a uma mobilidade
rodoviária sustentável. Produzido por Michelin Challenge Bibendum. Rio de
Janeiro;
PINOTTI, R. (2007). Os desafios ambientais do século XXI. 1ª edição,
Petrobras. Rio de Janeiro;
143
PROCLIMA – Programa do Estadual de Mudanças Climáticas. (2010a). Linha
do tempo das mudanças climáticas. Governo do Estado de São Paulo.
Acedido em 07/08/2010, em:
http://homologa.ambiente.sp.gov.br/proclima/linha_tempo/linha_tempo.asp;
PROCLIMA – Programa do Estadual de Mudanças Climáticas. (2010b).
Mudanças climáticas e o aquecimento global. Governo do Estado de São
Paulo. Acedido em 07/08/2010, em:
http://homologa.ambiente.sp.gov.br/proclima/efeito_estufa/aquecimento_plan
eta.asp;
RIEBEEK, H. (2005). Paleontology. Earth Observatory. National Astronautic
and Space Administration. Acedido em 23/08/2010, em:
http://earthobservatory.nasa.gov/Features/Paleoclimatology/;
RIFKIN, J. (2003). A economia do hidrogênio: a criação de uma nova fonte de
energia e a redistribuição do poder na Terra. 1ª edição, Editora M. Books do
Brasil. São Paulo;
ROVERE, E. e OBERMAIER, M. (2009).Alternativa sustentável. Scientific
American Brasil. Edição especial: Todas as fontes de energia, pp. 68-75;
SIMPSON, S. (2009). Perigo sob o gelo. Scientific American Brasil. Edição
especial: Terra 3.0 - Soluções para o progresso sustentável (Volume 3), pp.
22-29;
SBF – Sociedade Brasileira de Física (2010). Espectro eletromagnético.
Acedido em 10/08/2010, em:
http://pion.sbfisica.org.br/pdc/index.php/por/multimidia/imagens/eletromagneti
smo/espectro_eletromagnetico;
SCRIPPS (2010a). Keeling curve lessons. Scripps Institution of Oceanography
– CO2 Program. Acedido em 15/08/2010, em:
http://scrippsco2.ucsd.edu/program_history/early_keeling_curve.html;
144
SCRIPPS (2010b). The early Keeling curve. Scripps Institution of
Oceanography – CO2 Program. Acedido em 15/08/2010, em:
http://scrippsco2.ucsd.edu/program_history/keeling_curve_lessons.html;
SMITHSONIAN – National Museum of Natural History (2010a). Artic meltdown.
Forces of change. Acedido em 05/09/2010, em:
www.forces.si.edu/arctic/02_02_00.html;
SMITHSONIAN – National Museum of Natural History (2010b). Geologic time,
the story of a changing Earth. Acedido em 02/08/2010, em:
http://paleobiology.si.edu/geotime/main/index.html;
SMITHSONIAN, National Museum of Natural History (2010c). Introduction to
human evolution. Acedido em 02/08/2010, em:
http://humanorigins.si.edu/resources/intro-human-evolution;
STURM, M. (2010, Junho). Plantas do Ártico sofrem com o calor. Scientific
American Brasil, pp. 26-31;
TAKLE, E. e SEAGRAVE, R. (2006). Evolution of the Earth’s atmosphere.
Acedido em 10/08/2010, em:
http://www.geology.iastate.edu/gccourse/chem/evol/evol_lecture_new.html;
VEIGA, J. E. (2008). Aquecimento global: Frias contendas científicas. Editora
Senac. São Paulo;
WALD, M. (2009). Quando a energia nuclear é competitiva. Scientific American
Brasil. Edição especial: Todas as fontes de energia, pp. 14-21;
WEBCIENCIA, (2008). Posição geográfica. Acedido em 15/08/2010, em:
http://www.webciencia.com/05_posicaogeo.htm;
WMO – World Metereological Organization (2010). Global atmosphere watch:
greenhouse gases. Acedido em 29/08/2010, em:
http://www.wmo.int/pages/prog/arep/gaw/ghg/ghgbull06_en.html;
145
ZUGMAN, J. e MARTINS, C. (2010). Perigos do efeito estufa. Acedido em
08/08/2010, em: http://wqestufa.vilabol.uol.com.br/;
146
ÍNDICE
INTRODUÇÃO 9
CAPÍTULO I 14
AQUECIMENTO GLOBAL: SURGE UMA NOVA TERRA 14
1.1. EFEITO ESTUFA NATURAL 16 1.2. A ATMOSFERA E OS GASES CAUSADORES DE EFEITO ESTUFA (MILLER, 2007; PINOTTI, 2007) 20 1.3. OS REGISTROS DA ATIVIDADE HUMANA 23 1.4. UTILIZAÇÃO DA MATEMÁTICA PARA EXPLICAR O CLIMA DA TERRA. 35 1.5. PALEOCLIMATOLOGIA: RESGATE DO PASSADO DA TERRA (RIEBEEK, 2005). 40 1.6. EVOLUÇÃO DO CLIMA NA TERRA. 54
CAPÍTULO II 65
OS IMPACTOS DE UMA TERRA FEBRIL 65
2.1. UMA NOVA ERA GLACIAL: SERÁ O CALOR CAPAZ DE RESFRIAR A TERRA? 68 2.2. QUANDO O GELO VIRA MAR. 71 2.2. CLIMAS EXTREMOS, TEMPESTADES À VISTA. 81 2.4. “E O FEITIÇO VIROU CONTRA O FEITICEIRO!” (PROVÉRBIO POPULAR) 87 2.5. “O FUTURO: UMA TERRA DESCONHECIDA” 1 89 2.6. A DIFÍCIL TAREFA DE LIDAR COM O AQUECIMENTO GLOBAL (MILLER, 2007) 92
CAPÍTULO III 94
A AURORA DAS NOVAS TECNOLOGIAS 94
3.1. DESCARBONIZAÇÃO 96 3.2. A NOVA ERA AUTOMOBILÍSTICA 100 3.3. SEQUESTRO DE CARBONO: USO LIMPO DAS FONTES FÓSSEIS? 108 3.4. A ORIGEM DA ENERGIA (CAPOZZOLI, 2009B) 112 3.5. “NADA SE CRIA, NADA SE FORMA, TUDO SE TRANSFORMA” (LAVOISIER) 114 3.6. A ERA DO HIDROGÊNIO (RIFKIN, 2009) 131
CONCLUSÃO 135
REFERÊNCIAS BIBLIOGRÁFICAS 139
ÍNDICE 146
ÍNDICE DE FIGURAS 147
ÍNDICE DE TABELAS 150
FOLHA DE AVALIAÇÃO 151
147
ÍNDICE DE FIGURAS
FIGURA 1.1 – INSTRUMENTO MONTADO POR HORACE SAUSSURE .......................................................... 16
FIGURA 1.2 – ESQUEMA QUE RETRATA O ISOLAMENTO DA ENERGIA TÉRMICA EM ESTUFAS DE VIDRO .. 19
FIGURA 1.3 – REPRESENTAÇÃO DOS FLUXOS DE ENERGIA NA ATMOSFERA DA TERRA .......................... 19
FIGURA 1.4 – ESPECTRO ELETROMAGNÉTICO.......................................................................................... 22
FIGURA 1.5 – ESPECTRO DE ABSORÇÃO DE ALGUNS GASES ................................................................... 23
FIGURA 1.6 – CURVAS DE TEMPERATURAS ANUAIS COMPILADAS NO TRABALHO DE GUY CALLENDAR .. 25
FIGURA 1.7 – CONFORME SCRIPPS .......................................................................................................... 29
FIGURA 1.8 – MOSTRA A “CURVA DE KEELING” ....................................................................................... 30
FIGURA 1.9 – REGISTROS DE TEMPERATURA ANUAL CONFORME DADOS DO GISS ................................ 32
FIGURA 1.10 – REGISTROS DE TEMPERATURA ANUAL CONFORME DADOS DO CRU-UEA ..................... 33
FIGURA 1.11 – PERFIL ANUAL COM AS VARIAÇÕES MÉDIAS DE TEMPERATURAS DA ATMOSFERA ........... 34
FIGURA 1.12 – ESTA SIMULAÇÃO COMPUTACIONAL (NASA, 2003) MOSTRA A DISPERSÃO DAS CINZAS DO MONTE PINATUBO NA ATMOSFERA ............................................................................................ 38
FIGURA 1.13 – CURVAS REFERENTE (RIEBEEK, 2005) ÀS VARIAÇÕES DE TEMPERATURA E COLUNA DE VAPOR DE ÁGUA ............................................................................................................................... 39
FIGURA 1.14 – DEPÓSITOS COMPOSTOS POR FINA POEIRA AMARELA PROVAVELMENTE PRODUZIDA DEVIDO AO ATRITO DAS GELEIRAS DE UM PERÍODO GLACIAL COM O SOLO ..................................... 42
FIGURA 1.15 – DETALHE DE UMA ESTALAGMITE MOSTRANDO UMA SEQUENCIA DE CAMADAS UTILIZADAS PARA DATAR O TEMPO ...................................................................................................................... 43
FIGURA 1.16 – ANÁLISE PALEOCLIMATOLÓGICA DO CRESCIMENTO DE ESTALAGMITES E ESTALACTITES PARA REVELAR O PERFIL DE CHUVAS DE ANOS ATRÁS. ................................................................... 43
FIGURA 1.17 – O NAVIO JOIDES RESOLUTION ....................................................................................... 44
FIGURA 1.18 – MAPA DA TEMPERATURA DOS OCEANOS DURANTE O ÚLTIMO PERÍODO GLACIAL ........... 45
FIGURA 1.19 – MOSTRA ALGUMAS FOTOS SOBRE A PERFURAÇÃO DO GELO DA GROELÂNDIA ............... 46
148
FIGURA 1.20 – O AUMENTO GRADUAL DO PESO DAS CAMADAS SUPERIORES COMPRIME A NEVE EM GELO E ESTA PRESSÃO AUMENTA JUNTO COM A PROFUNDIDADE............................................................. 47
FIGURA 1.21 – CÉLULAS DE AR ATMOSFÉRICO IDÊNTICO AO DA ÉPOCA EM QUE FOI SOTERRADO PELO GELO. ................................................................................................................................................ 47
FIGURA 1.22 – CIENTISTAS MEDEM A TEMPERATURA DA CAPA DE GELO POLAR UTILIZANDO UM TERMÔMETRO CONVENCIONAL DENTRO DO POÇO PERFURADO. .................................................... 48
FIGURA 1.23 – A CONCENTRAÇÃO DE 18O DECRESCE COM A TEMPERATURA. ...................................... 49
FIGURA 1.24 – IDENTIFICA A PERDA GRADUAL DE 18O POR MEIO DO MOVIMENTO DO AR DO EQUADOR AOS POLOS. ..................................................................................................................................... 50
FIGURA 1.25 – CRESCIMENTO ANULA DE RECIFES DE CORAL PODEM SER UTILIZADOS PARA DETERMINAR O PERFIL DE TEMPERATURA DOS OCEANOS AO LONGO DOS ANOS ................................................. 51
FIGURA 1.26 – A VARIAÇÃO NA LARGURA DOS ANÉIS DO CAULE DE UM PINHEIRO BRISTELCONE CORRESPONDE À MUDANÇA ANUAL DE TEMPERATURA E PLUVIOSIDADE ........................................ 52
FIGURA 1.27 – VARIAÇÃO DA PLUVIOSIDADE NA CALIFÓRNIA MERIDIONAL, OBTIDA POR MEIO DOS ANÉIS DE PINHEIROS BRISTELCONE ........................................................................................................... 52
FIGURA 1.28 – PINHEIROS BRISTELCONE DA CALIFÓRNIA MERIDIONAL, OS SERES VIVOS MAIS ANTIGOS DO MUNDO. ....................................................................................................................................... 53
FIGURA 1.29 – VARIAÇÃO DE TEMPERATURA NOS ÚLTIMOS 140 ANOS NO ATLÂNTICO NORTE ............. 56
FIGURA 1.30 – DADOS DE TEMPERATURA GLOBAL DA NASA ................................................................. 57
FIGURA 1.31 – PERFIL DE TEMPERATURA MÉDIA ANUAL NO HEMISFÉRIO NORTE ENTRE OS ANOS 800 D.C. E 2000 D.C. ............................................................................................................................. 58
FIGURA 1.32 – PERFIL DE TEMPERATURA MÉDIA ANUAL NO HEMISFÉRIO NORTE ENTRE OS ANOS 1000 E 2000 ................................................................................................................................................. 58
FIGURA 1.33 – PERFIL MUNDIAL DE TEMPERATURA EM ANOS ESPECÍFICOS COM BASE EM RESULTADOS DE SIMULAÇÃO .................................................................................................................................. 60
FIGURA 1.34 – MÉDIAS GLOBAIS DE CONCENTRAÇÃO DOS MAIORES GASES DE EFEITO ESTUFA DA ATMOSFERA ...................................................................................................................................... 61
FIGURA 1.35 – PERFIL DE CONCENTRAÇÃO DE DIÓXIDO DE CARBONO E METANO DESDE 1750 ............ 62
FIGURA 1.36 – CONCENTRAÇÃO ATMOSFÉRICA DOS PRINCIPAIS GASES CAUSADORES DE EFEITO ESTUFA, AO LONGO DOS ÚLTIMOS 2000 ANOS ................................................................................ 63
FIGURA 2.1 – CORRENTES MARÍTIMAS ..................................................................................................... 69
FIGURA 2.2 – MÉDIA MUNDIAL POR ANO DO NÍVEL DOS MARES A PARTIR DE 1870 ................................. 72
149
FIGURA 2.3 – NOTA-SE QUE A REDUÇÃO DA CALOTA POLAR DO ÁRTICO NOS MESES DE INVERNO REPRESENTOU SOMENTE 8%, ......................................................................................................... 75
FIGURA 2.4 – COBERTURA DE NEVE DO HEMISFÉRIO NORTE APÓS O VERÃO, ENTRE MARÇO E ABRIL .. 76
FIGURA 2.5 – VARIAÇÃO DO GELO MARINHO ÁRTICO (ACIMA) E ANTÁRTICO (ABAIXO) ............................ 76
FIGURA 2.6 – REDUÇÃO DO GELO QUE COBRE O MONTE KILIMANJARO .................................................. 78
FIGURA 2.6 – SIMPSON (2009) APRESENTA UM ESQUEMA DA LIBERAÇÃO DO METANO CONTIDO NO PERMAFROST ................................................................................................................................... 80
FIGURA 2.7 – A CIENTISTA KATEY ............................................................................................................ 80
FIGURA 2.8 – VARIAÇÃO NA PLUVIOSIDADE GLOBAL CONFORME MODELAGEM DA NASA ...................... 82
FIGURA 2.9 – VARIAÇÃO DA PLUVIOSIDADE GLOBAL DESDE 1900 ........................................................... 83
150
ÍNDICE DE TABELAS
TABELA 1.1 – COMPOSIÇÃO DA ATMOSFERA TERRESTRE, EM BASE SECA .......................................... 20
TABELA 1.2 – TAXA DE ELEVAÇÃO DA TEMPERATURA SUPERFICIAL MÉDIA MUNDIAL ........................... 56
TABELA 3.1 – DESEMPENHO DE DIVERSOS TIPOS DE BATERIAS ...................................................... 106
151
FOLHA DE AVALIAÇÃO