Arquivo mensal: setembro 2013

Climate sceptics claim warming pause backs their view (BBC)

26 September 2013 Last updated at 00:47 GMT

By Matt McGrathEnvironment correspondent, BBC News, The Netherlands

Hurricane SandyCome hell or… An increased likelihood of extreme weather events is one predicted outcome of global warming, but some dispute the scale of expected effects

In the run up to a key global warming report, those sceptical of mainstream opinion on climate change claim they are “winning” the argument.

They say a slowing of temperature rises in the past 15 years means the threat from climate change is exaggerated.

But a leading member of the UN’s panel on climate change said the views of sceptics were “wishful thinking”.

Some of what the sceptics are saying is either wishful thinking or totally dishonest”

Prof Jean-Pascal van Ypersele, IPCC

The pause in warming was a distraction, he said, from the growing scientific certainty about long-term impacts.

Prof Jean Pascal van Ypersele spoke to BBC News ahead of the release of a six-yearly status report into global warming by the UN panel known as the Intergovernmental Panel on Climate Change, or IPCC.

Scientists and government representatives are currently meeting in Stockholm, Sweden, going through the dense, 31-page summary of the state of the physical science behind climate change.

When it is released on Friday, the report is likely to state with even greater certainty than before that the present-day, rapid warming of the planet is man-made.

Netherlands flood rescue simulationClimate change could profoundly impact the Netherlands, but sceptics remain influential there

But climate sceptics have focused their attention on the references to a pause or hiatus in the increase in global temperatures since 1998.

The sceptics believe that this slowdown is the most solid evidence yet that mainstream computer simulations of the Earth’s climate – climate models – are wrong.

These computer simulations are used to study the dynamics of the Earth’s climate and make projections about future temperature change.

“The sceptics now have a feeling of being on the winning side of the debate thanks to the pause,” said Marcel Crok, a Dutch author who accepts the idea that human activities warm the planet, but is sceptical about the scale of the effect.

“You are now starting to see a normalisation of climate science. Suddenly mainstream researchers, who all agree that greenhouse gases play a huge role, start to disagree about the cause of the pause.

“For me this is a relief, it is finally opening up again and this is good.”

The view that the sceptics have positively impacted the IPCC is supported by Prof Arthur Petersen, who is a member of the Dutch government team currently examining the report.

“The sceptics are good for the IPCC and the whole process is really flourishing because of this interaction over the past decades,” he told BBC News.

“Our best climate researchers are typically very close to really solid, sceptical scientists. In this sense scepticism is not necessarily a negative term.”

Others disagree.

Bart Verheggen is an atmospheric scientist and blogger who supports the mainstream view of global warming. He said that sceptics have discouraged an open scientific debate.


Dutch writer Marcel Crok is sceptical about the sensitivity of the atmosphere to carbon emissions

“When scientists start to notice that their science is being distorted in public by these people who say they are the champions of the scientific method, that could make mainstream researchers more defensive.

“Scientists probably think twice now about writing things down. They probably think twice about how this could be twisted by contrarians.”

Sensitive debate

In 2007, the IPCC defined the range for what’s termed “equilibrium climate sensitivity”. This term refers to the likely span of temperatures that would occur following a doubling of CO2 concentrations in the atmosphere.

The panel’s last report said temperatures were likely to rise within the range of 2C to 4.5C with a best estimate of 3C.

The new report is believed to indicate a range of 1.5C to 4.5C with no best estimate indicated.

Although that might not appear like much of a change, many sceptics believe it exposes a critical flaw.

“In the last year, we have seen several studies showing that climate sensitivity is actually much less than we thought for the last 30 years,” said Marcel Crok.

“And these studies indicate that our real climate shows a sensitivity of between 1.5C and 2C, but the climate models on which these future doom scenarios are based warm up three degrees under a doubling of CO2.”

But other researchers who are familiar with the text believe that the sceptics are reading too much into a single figure.

“Some of what the sceptics are saying is either wishful thinking or totally dishonest,” Prof van Ypersele, who is vice-chair of the IPCC, told BBC News.

“It is just a change in a lower border [of the range of temperature rise]. Even if this turns out to be the real sensitivity, instead of making the challenge extremely, extremely, extremely difficult to meet, it is only making it extremely, extremely difficult.

“Is that such a big change?”

Prof van Ypersele points out that many other aspects of the forthcoming report are likely to give greater certainty to the scale of impacts of a warming world. The predictions for sea level rise are likely to be considerably strengthened from 2007. There is also likely to be a clearer understanding of the state of sea ice.

Who are the climate sceptics?

Although there are only a small number of mainstream scientists who reject the established view on global warming, they are supported by a larger group of well resourced bloggers and citizen scientists who pore through climate literature and data looking for evidence of flaws in the hypothesis.

There are many different shades of opinion in the sceptical orbit. Some such as the group Principia Scientific reject the “myth” of greenhouse gas warming.

There are also political sceptics, such as some members of the Republican party in the US, who argue that climate science is a hoax or a conspiracy.

But there are also sceptical bloggers such as Anthony Watts and Andrew Montford who accept the basic science that adding carbon to the atmosphere can affect the temperature. They contest mainstream findings on the sensitivity of the climate to carbon and the future impacts on temperature.

The Dutch approach to sceptics

With around 20% of the country under sea level, the Dutch have a keen interest in anything that might affect their environment, such as climate change.

But scepticism about the human influence on global warming has been growing in the Netherlands, according to research from the OECD.

In a country where consensus is a key word, the government has taken a more inclusive approach to climate dissenters. To that end, they have funded Marcel Crok to carry out a sceptical analysis of the IPCC report.

In an effort to build bridges between sceptics and the mainstream they are also funding an initiative called which serves as a platform for debate on the science of global warming.

Related Stories

IPCC climate report: humans ‘dominant cause’ of warming – and other articles (BBC)

27 September 2013 Last updated at 09:12 GMT

By Matt McGrathEnvironment correspondent, BBC News, Stockholm

Climate change “threatens our planet, our only home”, warns Thomas Stocker, IPCC co-chair

A landmark report says scientists are 95% certain that humans are the “dominant cause” of global warming since the 1950s.

The report by the UN’s climate panel details the physical evidence behind climate change.

On the ground, in the air, in the oceans, global warming is “unequivocal”, it explained.

It adds that a pause in warming over the past 15 years is too short to reflect long-term trends.

The panel warns that continued emissions of greenhouse gases will cause further warming and changes in all aspects of the climate system.

To contain these changes will require “substantial and sustained reductions of greenhouse gas emissions”.


Projections are based on assumptions about how much greenhouse gases might be released

After a week of intense negotiations in the Swedish capital, the summary for policymakers on the physical science of global warming has finally been released.

The first part of an IPCC trilogy, due over the next 12 months, this dense, 36-page document is considered the most comprehensive statement on our understanding of the mechanics of a warming planet.

It states baldly that, since the 1950s, many of the observed changes in the climate system are “unprecedented over decades to millennia”.

Each of the last three decades has been successively warmer at the Earth’s surface, and warmer than any period since 1850, and probably warmer than any time in the past 1,400 years.

“Our assessment of the science finds that the atmosphere and ocean have warmed, the amount of snow and ice has diminished, the global mean sea level has risen and that concentrations of greenhouse gases have increased,” said Qin Dahe, co-chair of IPCC working group one, who produced the report.

Speaking at a news conference in the Swedish capital, Prof Thomas Stocker, another co-chair, said that climate change “challenges the two primary resources of humans and ecosystems, land and water. In short, it threatens our planet, our only home”.

Since 1950, the report’s authors say, humanity is clearly responsible for more than half of the observed increase in temperatures.

Dr Rajendra Pachauri said he was confident the report would convince the public on global climate change

But a so-called pause in the increase in temperatures in the period since 1998 is downplayed in the report. The scientists point out that this period began with a very hot El Nino year.

“Trends based on short records are very sensitive to the beginning and end dates and do not in general reflect long-term climate trends,” the report says.

Prof Stocker, added: “I’m afraid there is not a lot of public literature that allows us to delve deeper at the required depth of this emerging scientific question.

“For example, there are not sufficient observations of the uptake of heat, particularly into the deep ocean, that would be one of the possible mechanisms to explain this warming hiatus.”

“Likewise we have insufficient data to adequately assess the forcing over the last 10-15 years to establish a relationship between the causes of the warming.”

However, the report does alter a key figure from the 2007 study. The temperature range given for a doubling of CO2 in the atmosphere, called equilibrium climate sensitivity, was 2.0C to 4.5C in that report.

In the latest document, the range has been changed to 1.5C to 4.5C. The scientists say this reflects improved understanding, better temperature records and new estimates for the factors driving up temperatures.

In the summary for policymakers, the scientists say that sea level rise will proceed at a faster rate than we have experienced over the past 40 years. Waters are expected to rise, the document says, by between 26cm (at the low end) and 82cm (at the high end), depending on the greenhouse emissions path this century.

The scientists say ocean warming dominates the increase in energy stored in the climate system, accounting for 90% of energy accumulated between 1971 and 2010.

For the future, the report states that warming is projected to continue under all scenarios. Model simulations indicate that global surface temperature change by the end of the 21st Century is likely to exceed 1.5 degrees Celsius, relative to 1850.

Prof Sir Brian Hoskins, from Imperial College London, told BBC News: “We are performing a very dangerous experiment with our planet, and I don’t want my grandchildren to suffer the consequences of that experiment.”

What is the IPCC?

In its own words, the IPCC is there “to provide the world with a clear scientific view on the current state of knowledge in climate change and its potential environmental and socio-economic impacts”.

The offspring of two UN bodies, the World Meteorological Organization and the United Nations Environment Programme, it has issued four heavyweight assessment reports to date on the state of the climate.

These are commissioned by the governments of 195 countries, essentially the entire world. These reports are critical in informing the climate policies adopted by these governments.

The IPCC itself is a small organisation, run from Geneva with a full time staff of 12. All the scientists who are involved with it do so on a voluntary basis.


PDF download IPCC Summary for Policymakers

Related Stories

O dióxido de carbono está reconfigurando o planeta (IPS)


30/9/2013 – 08h08

por Stephen Leahy, da IPS

stephen6401 O dióxido de carbono está reconfigurando o planeta

O derretimento da geleira de Orizaba, no México, é outra consequência do aquecimento global. Foto: Maurício Ramos/IPS

Nantes, França, 30/9/2013 – A Groenlândia pode acabar se tornando verde, pois a maior parte de sua enorme camada de gelo está condenada a derreter, informou, no dia 27, o Grupo Intergovernamental de Especialistas sobre Mudança Climática (IPCC). O resumo de 36 páginas apresentado em Estocolmo pelo IPCC, que funciona na órbita da Organização das Nações Unidas (ONU), inclui um alerta de que há 20% de possibilidades de os gelos da Groenlândia iniciarem um derretimento irreversível com apenas 0,2 grau de aquecimento adicional.

Essa quantidade de aquecimento agregado é uma certeza agora. Contudo, o derretimento definitivo do gelo na Groenlândia consumirá mil anos. “O novo informe é outro chamado para despertar, que nos diz que estamos com grandes problemas e vamos rumo a graus perigosos de mudança climática”, destacou David Cadman, presidente da Iclei, a única rede de cidades sustentáveis que opera em todo o mundo e envolve 1.200 governos locais.

“O IPCC será atacado por interesses (da indústria dos combustíveis fósseis e seus defensores. Eles tentarão assustar o público, alegando que tomar medidas coloca em risco os empregos e a economia. Isso não é verdade. Pelo contrário”, afirmou Cadman à IPS. O Resumo para Responsáveis por Políticas do Informe do Grupo de Trabalho I – Bases de Ciência Física estabelece claramente que os seres humanos estão esquentando o planeta, e confirma estudos que datam de 1997. Desde os anos 1950, cada década foi mais quente do que a anterior, diz o documento.

O texto completo será divulgado hoje e é o primeiro dos quatro volumes (os dos três grupos de trabalho mais a síntese) do Quinto Informe de Avaliação do IPCC, conhecido como AR5. No Hemisfério Norte, “as temperaturas entre 1983 e 2012 foram as mais quentes dos últimos 1.400 anos”, destacou Thomas Stocker, copresidente do Grupo de Trabalho I.

Em resposta às notícias dos últimos dias, falando sobre uma “interrupção do aquecimento”, Stocker disse que o sistema climático é dinâmico, sendo provável que nos últimos anos tenha ingressado mais calor nos oceanos e que tenha diminuído ligeiramente o ritmo dos aumentos das temperaturas superficiais. Há mais de cem anos pesquisadores demonstraram que o dióxido de carbono prende o calor do Sol.

A queima de combustíveis fósseis, o desmatamento, a agricultura e outras atividades humanas emitem esse gás na atmosfera, onde permanece quase para sempre. Os maiores volumes de dióxido de carbono, por sua vez, acrescentam mais calor, pois atuam como outra camada de isolamento. Mais de 90% desta energia térmica adicional é absorvida pelos oceanos, segundo o Resumo. Isso explica a causa de as temperaturas da superfície ainda não terem superado o aumento médio mundial de 0,8 grau.

O Resumo destaca que a redução da camada de gelo do Ártico nas últimas três décadas foi a maior dos últimos 1.450 anos. Embora o derretimento no último verão boreal tenha sido menor que no ano passado, o Ártico segue no caminho de ficar sem gelo na temporada estival de 2050, bem antes do projetado por relatórios anteriores.

O informe do IPCC, uma revisão das pesquisas científicas disponíveis, se baseou em trabalhos de 259 autores de 39 países, e contou com 54.677 comentários. O informe de avaliação anterior, ou AR4, é de 2007. O IPCC não realiza pesquisas próprias e está sob a direção de 110 governos que passaram os últimos quatro dias aprovando o texto do sumário. “Cada palavra contida nas 36 páginas foi debatida. Alguns parágrafos foram discutidos por mais de uma hora”, contou Stocker em entrevista coletiva em Estocolmo. “Nenhum outro relatório científico jamais passou por um escrutínio tão crítico”, ressaltou.

O Resumo, redigido com cautela, detalha e confirma os impactos observados, com o aumento das temperaturas, as mudanças nos padrões pluviométricos e os extremos climáticos. Também confirma que estes e outros impactos vão piorar na medida em que aumentarem as emissões de dióxido de carbono. As atuais emissões deste gás estão no rumo do pior cenário.

O resumo do AR5 diz que a camada gelada da Groenlândia perdeu, em média, 177 bilhões de toneladas de gelo por ano entre 1992 e 2001. Estudos mais recentes demonstram que o gelo perdido aumentou substancialmente desde então. Segundo o relatório, há uma possibilidade em cinco de a camada gelada da Groenlândia derreter totalmente se as temperaturas globais aumentarem entre 0,8 grau e mais de um, como parece inevitável agora.

Um dos motivos é que a elevação das temperaturas no Ártico é quase três vezes maior do que o aumento médio mundial. Se a temperatura média mundial aumentar cerca de quatro graus será desencadeado um derretimento na Groenlândia, que elevaria o nível do mar em até sete metros. Apesar disto, o AR5 diz que não se espera que o nível do mar suba mais de um metro neste século.

Outros cientistas, entre eles James Hansen, ex-diretor do Instituto Goddar de Estudos Espaciais da Nasa (agência espacial dos Estados Unidos), acreditam que o acelerado derretimento observado no Ártico, na Groenlândia, na Antártida e nas geleiras é um sinal de que neste século o mar pode subir vários metros, a menos que as emissões sejam reduzidas.

Mesmo antes de se tornar público o novo informe do IPCC, “os que negam a mudança climática” o atacaram e tergiversaram, tentando retratar suas conclusões como radicais ou extremistas, afirmou Charles Greene, professor de ciências atmosféricas e da terra na Cornell University, de Nova York. Greene se referia a um orquestrado esforço de propaganda de atores da indústria dos combustíveis fósseis e de organizações que tentam convencer o público de que o aquecimento global não é um assunto de extrema urgência. “Na verdade, o IPCC tem um longo histórico de subestimar os impactos” da mudança climática, afirmou Greene.

Embora a ação mundial contra o aquecimento esteja em ponto morto, algumas cidades já estão reduzindo suas emissões de carbono. Os membros do Iclei se comprometeram com uma redução de 20% até 2020 e de 80% até 2050. A maioria dos governos não está tomando iniciativas, o que revela claramente o poder e a influência do setor dos combustíveis fósseis, pontuou Cadman. “As cidades podem fazer até dez vezes mais, mas, simplesmente, não têm dinheiro”, ressaltou.


IPCC sustenta que aquecimento global é inequívoco (IPS)


30/9/2013 – 08h01

por Fabíola Ortiz, da IPS

IPCC1 IPCC sustenta que aquecimento global é inequívoco

A elevação do nível do mar pode alagar várias regiões do Recife, no Nordeste do Brasil. Foto: Alejandro Arigón/IPS

Rio de Janeiro, Brasil, 30/9/2013 – Em meio a rumores de que o aquecimento global se deteve nos últimos 15 anos, o novo informe do Grupo Internacional de Especialistas sobre a Mudança Climática (IPCC) indica que as três últimas décadas foram, sucessivamente, mais quentes do que qualquer outra desde 1850. O Resumo para Responsáveis por Políticas do informe do Grupo de Trabalho I – Bases de Ciência Física, foi divulgado no dia 27, em Estocolmo, na Suécia.

O texto completo, sem edições, será conhecido hoje e constitui o primeiro dos quatro volumes do Quinto Informe de Avaliação do IPCC. O aquecimento é “inequívoco”, afirma o IPCC. “A atmosfera e o oceano esquentam, a quantidade de neve e gelo diminui, o nível do mar sobe e as concentrações de gases-estufa aumentam”, destaca o estudo.

Para o especialista brasileiro em clima, Carlos Nobre, um dos autores principais do Quarto Informe de Avaliação, o novo relatório não dá “nenhuma razão para o otimismo. Cada uma das três últimas décadas foi sucessivamente mais quente do que qualquer outra desde 1850. No Hemisfério Norte, o período 1983-2012 representa, provavelmente, os 30 anos mais quentes dos últimos 1.400”, diz o novo resumo. Os dados “das temperaturas médias terrestres e da superfície do oceano, calculados como uma tendência linear, mostram um aquecimento de 0,85 grau no período 1880-2012”, acrescentou Nobre

A respeito da suposta pausa no aumento do calor, o IPCC afirma que “a taxa de aquecimento dos últimos 15 anos (1998-2012) – que foi de 0,05 grau por década e que começou com um potente El Niño (fase quente da Oscilação do Sul) – é menor do que a calculada entre 1951 e 2012, que foi de 0,12 grau por década”.

Entretanto, argumenta, “devido à variabilidade natural, as tendências baseadas em registros de períodos curtos são muito sensíveis às datas de começo e final, e não refletem, em geral, as tendências climáticas de longo prazo”. Resumindo, diz o documento, “é virtualmente certo (99% a 100% de certeza) que a troposfera esquenta desde meados do século 20”.

Nobre indicou à IPS que “o resumo observa com mais detalhe o que está mudando e reduz as incertezas com um conhecimento científico aperfeiçoado”. Além disso, confirma que as alterações do clima se originam principalmente nas ações humanas, destacou Nobre, secretário de Pesquisa e Desenvolvimento do Ministério de Ciência e Tecnologia.

A humanidade deverá se decidir a deixar grande parte dos combustíveis fósseis – responsáveis pela emissão de gases que esquentam a atmosfera – e passar para outras formas de energia renovável, advertiu Nobre. Tecnicamente, é possível, falta uma opção consciente de todos os países, ressaltou. “Essa transição tem um custo, mas que é cada vez menor do que o estimado há 15 anos. O problema não é a tecnologia, mas a decisão política”, acrescentou.

Para Carlos Rittl, coordenador do programa de mudanças climáticas e energia do WWF-Brasil (Fundo Mundial para a Natureza), “embora o aquecimento tenha apresentado uma aparente estabilização quanto à temperatura média, os anos mais quentes foram registrados na última década. Isso não nos deixa em uma situação de conforto”.

O informe do IPCC, uma revisão das pesquisas científicas disponíveis, se baseou em trabalhos de 259 autores de 39 países, e contou com 54.677 comentários. Sua divulgação veio permeada de uma renovada onda mediática de dúvidas e rumores sobre a existência do aquecimento global.

Com base em diferentes trajetórias de emissão de gases-estufa, o resumo projeta para este final de século uma elevação da temperatura superior a 1,5 grau em relação ao período 1850-1900 em todos os cenários, menos no de menor concentração de gases. Também afirma que, provavelmente, o aumento exceda os dois graus até 2100 nos dois cenários de maior emissão de gases. O informe anterior, de 2007, previa aumento de dois graus, no melhor dos casos, e de até seis, no pior.

Após o fracasso da conferência intergovernamental de Copenhague, em dezembro de 2009, quando os países não conseguiram obter um acordo para reduzir a contaminação climática, foram redobrados os questionamentos ao IPCC, em particular por uma errônea estimativa do derretimento das geleiras do Himalaia. A informação “foi usada de forma irresponsável por quem nega o aquecimento global”, alertou Rittl.

Seis anos depois, há mais e melhores evidências científicas para estimar, por exemplo, quanto o derretimento de gelos contribui para a elevação do nível do mar. Até o final de 2100 a elevação média do mar oscilará entre 24 centímetros e 63 centímetros, segundo o melhor e o pior cenários de contaminação atmosférica. As chuvas “aumentarão nas regiões mais úmidas e diminuirão naquelas onde há escassez pluviométrica”, detalhou Rittl, que é doutor em ecologia.

No Brasil os exemplos são a árida região do Nordeste e as mais úmidas do Sul e Sudeste. A incidência de chuvas crescerá entre 1% e 3% em zonas do sul, segundo a velocidade do aquecimento, enquanto as áridas apresentarão padrões de seca mais severos. Todas as tendências confirmadas pelo informe são “alarmantes”, apontou Rittl. “Nós, humanos, somos responsáveis por essas mudanças, que vão piorar o cenário atual em que já há centenas de milhões de pessoas sofrendo escassez de água, de comida e de condições adequadas para sobreviver”, ressaltou.

O primeiro volume do Quinto Informe de Avaliação do IPCC é divulgado dois meses antes de acontecer em Varsóvia, na Polônia, a 19ª Conferência das Partes da Convenção das Nações Unidas sobre Mudança Climática. Nesse encontro deverá ser feito um esforço mundial para garantir a transição para uma economia baixa em dióxido de carbono, disse Nobre. “Este informe é um choque de realidade”, ressaltou.

Em sua opinião, o Brasil é um dos “poucos bons exemplos”, pois conseguiu reduzir em 38,4% suas emissões de gases-estufa entre 2005 e 2010, devido à queda no desmatamento da Amazônia. “O Brasil adotou compromissos voluntários, mas no global não há um acordo ambicioso”, explicou Nobre. Quanto mais tempo se demorar em “adotar ações concretas, mais difícil e improvável será conseguir uma trajetória sustentável de acomodação e adaptação à mudança climática”, enfatizou.

Rittl acredita que os governos devem enfrentar a mudança climática como um desafio nacional para o desenvolvimento, a inclusão social e a redução da pobreza. “É necessário lidar com os riscos e as oportunidades com muita responsabilidade”, concluiu.


Ahead of IPCC report, fossil-fuel groups organize climate denial campaign (Grist)

By , 20 Sep 2013 11:38 AM

tiny man, huge megaphone
If only they would shut up.

Watch out: A tsunami of stupidity is due to crash over the world next Friday.

That’s when the Intergovernmental Panel on Climate Change will release a summary of its big new climate assessment report, the first since 2007. But that’s not the stupid part.

A global campaign funded by fossil-fuel interests has been steadily building to discredit the report. That’s where the stupidity comes in. From The Guardian:

Organisations that dismiss the science behind climate change and oppose curbs on greenhouse gas pollution have made a big push to cloud the release of the IPCC report, the result of six years of work by hundreds of scientists.

Those efforts this week extended to promoting the fiction of a recovery in the decline of Arctic sea ice.

The IPCC assessments, produced every six or seven years, are seen as the definitive report on climate change, incorporating the key findings from some 9,000 articles published in scientific journals.

Climate deniers are pushing their messages out through blogs as well as old-fashioned outlets like the Daily MailFrom Skeptical Science:

Like the way a picnic on a sunny afternoon in August tends to attract lots of annoying wasps, major events on the climate change timeline tend to see certain contrarian figures and organisations dialling up the rhetorical output.

This is frustrating yet it has over the years become quite predictable: arguing with some climate change contrarians is similar to attempting debate with a well-trained parrot. Imagine: the parrot has memorised some twenty statements that it can squawk out at random. Thus it will follow up on ‘no warming since 1997′ with ‘in the 1970s they said there’d be an ice-age’ and so on. Another piece in the UK-based Daily Mail’s Sunday edition of September 8th 2013, written by a figure familiar to Skeptical Science readers, Mail and Vanity Fair journalist David Rose, gives a classic example of such parroting. There’s another in the UK’s Daily Telegraph along remarkably similar lines (it could even be the same parrot).

Meanwhile, the Koch-funded Heartland Institute has already published a compilation of lies in its own preemptive report. Its “experts” are so desperate to get their climate-denying messages out that they would probably turn up at your kid’s birthday party if you asked them nicely enough.

The news here is predictable but not terrible. Scientists and activists are doing better jobs of organizing communication strategies in the face of anti-science blather. From Inside Climate News:

Dozens of prominent scientists involved with drafting IPCC reports formed a Climate Science Rapid Response Team that punches back against misleading claims about climate research.

Kevin Trenberth is part of that team as well as a climate scientist at the National Center for Atmospheric Research and an author and editor on the forthcoming IPCC report. He explained that nearly every time there is a scientific paper linking man-made carbon dioxide emissions to climate change, the “denial-sphere” immediately responds with accusations that the research is wrong.

“The scientists get nasty emails. Certain websites comment. … So a bunch of us formed this rapid response team to deflate these arguments.” The group has been very busy in recent weeks.

Although those who make a living by denying climate science are screaming as loudly as ever, most people are getting better at tuning out their histrionics. Again from the Inside Climate News article:

Cindy Baxter, a longtime climate campaigner, said she thinks climate skeptics “are getting more shrill, but getting less notice,” because Americans are more convinced that global warming is real.

“Hurricane Sandy. Droughts. Flooding. Wildfires. People are feeling the effects of climate change. That makes it harder to deny,” said Baxter, who is also a co-author of Greenpeace’s new report Dealing in Doubt, which chronicles the history of climate skeptic campaigns. Polls say a larger majority of Americans from both parties see recent waves of deadly weather as a sign of climate change.

Unfortunately, this denier campaign will be around for a while. The IPCC report due out next Friday is just the first of four scheduled to be released over the coming year. Maybe after the final one comes out, the denial pushers will finally potter off to find new work, perhaps as baby-seal clubbers, orphan poisoners, or textbook reviewers for the Texas State Board of Education.

John Upton is a science fan and green news boffin who tweets, posts articles to Facebook, and blogs about ecology. He welcomes reader questions, tips, and incoherent rants:

Sociological explanations for climate change denial (

by Olga Bonfiglio, originally published by Energy Bulletin  | MAR 17, 2012

Talk about climate change seems to be a taboo subject in America today.

Three years ago promises by both major political parties to do something have gone by the wayside while today’sRepublican presidential candidates reject evidence that humans are responsible for the warming of the earth

The mainstream media routinely report on extreme weather, like this winter’s high temperatures and last summer’s droughts, but reporters and commentators typically veer away from connecting it to climate change.

Last October, the New York Times reported that those who believed the Earth was warming dropped from 79 percent in 2006 to 59 percent.  However, a month laterpolling experts blamed this decline on a collapse in media coverage and pollsters’ deeply flawed questions.

It turns out that the United States is one of the few countries in the world still quibbling over climate change, and its influence is stymieing progress at environmental summits like Durbin (2011), Cancun (2010), and Copenhagen (2009).

What’s going on?

As you may expect, it’s about money, politics, culture and media bias.

Ron Kramer, a sociologist at Western Michigan University, has been studying how sociological and cultural factors are preventing Americans from talking about or acting on climate change.  He drew on the research of sociologist Stanley Cohen, professor emeritus at the London School of Economics, who says that denial “refers to the maintenance of social worlds in which an undesirable situation (event, condition, phenomenon) is unrecognized, ignored or made to seem normal.”

He cites three categories of denial:

  • literal denial is: “the assertion that something did not happen or is not true.”
  • With an interpretive denial, the basic facts are not denied, however, “…they are given a different meaning from what seems apparent to others.” People recognize that something is happening but that it’s good for us.
  • Implicatory denial “covers the multitude of vocabularies, justifications, rationalizations, evasions that we use to deal with our awareness of so many images of unmitigated suffering.” Here, “knowledge itself is not an issue. The genuine challenge is doing the ‘right’ thing with this knowledge.”

Through literal and interpretive denial, climate change deniers declare that the earth is not warming even though 98 percent of our scientists have written thousands of peer-reviewed papers and reports concluding that climate change is real and caused by human activity.

Actually, deniers are organized by conservative think tanks funded by the fossil fuel industry that attempt to create doubt about climate science and block actions that would reduce greenhouse gas emissions and create clean energy alternatives.

To do this they use conspiracy theories and “fake” experts with no background in climate science.  They insist on absolute certainty, cherry-pick the data and ignore the larger body of evidence or misrepresent data and promote logical fallacies like “the climate has changed in the past, therefore current change is natural.”

“Creating doubt blocks any action,” said Kramer.  “This is the same tactic the tobacco industry used to deny that smoking was harmful to people’s health. And, some of the same people are now doing this with climate change.”

The “conservative climate change denial counter-movement,” as Kramer calls it, was led by the George W. Bush administration and congressional Republicans who obstruct and manipulate the political system to promote their view.  They are complemented by right-wing media outlets such as Fox News and Rush Limbaugh.  The mainstream media’s “balancing norm” practice then allows the denialists to be placed on par with the climate scientists.

The rationale behind this counter-movement is that corporations make money if Americans continue their materialistic attitudes and practices so they lobby politicians to protect their interests and they fund think tanks that accuse “eco-scientists” of destroying capitalism, as revealed by the New YorkTimes.

Corporations provide research monies to university scientists, who rely on them as support from state legislatures and benefactors dwindles.  They advance narratives that people from other parts of the world are worse off than Americans, so we don’t have to change.  They make claims to virtue on TV ads about all they are doing for the environment (a.k.a. “greenwashing”).  And, they argue that doing something about global warming will cost too much and cause them to lose their competitive edge.

Research shows that conservative white males are more likely to espouse climate change denial than other groups for two reasons.  They tend to filter out any information that is different from their already-held worldview because it threatens the identity, status and esteem they receive by being part of their group, he said.  Sociologists call this “Identity Protective Cognition.”

Secondly, conservative white males have a stronger need to justify the status quo and resist attempts to change it.  Sociologists call this “System Justification.”

For example, successful conservative white males stridently defend the capitalist system because it has worked well for them. For anyone to imply the system is not functioning is an unfathomable impossibility akin to blasphemy. [Climatewire via Scientific American]

“Identity Protective Cognition” should also inform environmental activists that the information deficit model of activism is not always a good approach, warned Kramer.  Just providing more information may not change anyone’s views given their commitment to a particular cultural worldview.

In implicatory denial people recognize that something untoward is happening but they fail to act because they are emotionally uncomfortable or troubled about it.

For example, there are the people who are aware of climate change and have some information about it, but take no action, make no behavioral changes and remain apathetic.

This response occurs when people confront confusing and conflicting information from political leaders and the media.  Consequently, they have yet another reason for denial—or they believe the problem can be overcome with technology and they can go on with their lives.

“At some level people understand that climate change can alter human civilization, but they feel a sense of helplessness and powerlessness at the prospect,” said Kramer.  “Others feel guilty that they may have caused the problem.”

Several cultural factors also thwart any decisive action on climate change, said Kramer.

Americans have a tendency toward “anti-intellectualism,” so “nerdy” climate scientists are easily suspect.

Our strong sense of “individualism” helps us strive toward our individual goals, but it likewise keeps us from joining together to do something about climate change.  They ask:  “What good does it do to recycle or drive less when we have such a huge, complex problem as climate change?”

“American exceptionalism” celebrates the American way of life, which has given us a vast bounty of wealth and material goods.  We want to continue this life and, in fact, deserve it.  Nothing bad will happen to us.

Finally, “political alienation” keeps us from trusting our political system to tackle the problem.

“What we ultimately need is international agreement about what to do about climate change,” said Kramer.  “Nothing will happen, however, until the United States commits to doing something.”

What to do about climate change?

Kramer believes we should regard climate change as a matter of social justice and not just science because the people most affected by it are not the ones who created it.

North American and European lifestyles, which are based on easy and cheap access to fossil fuels for energy, agriculture and consumer products have inadvertently caused much suffering, poverty and environmental degradation to the people of the Global South.

To illustrate, analysts at Maplecroft have produced a map that measures of the risk of climate change impacts and the social and financial ability of communities and governments to cope with it.  The most vulnerable nations are Haiti, Bangladesh and Zimbabwe.

Second, Kramer emphasized the moral obligation we have to future generations and other species.  Simply put, we must reduce our use of fossil fuels that are largely responsible for emitting greenhouse gases into the atmosphere and causing extreme weather conditions like hurricanes, floods, drought, tsunami, earthquakes, heat waves, warm winters and melting polar ice caps.

Again, people’s lives, livelihoods and communities are affected and it shouldn’t escape notice that human encroachment on animal habitats is contributing to massive species losses, what some call the Sixth Great Extinction.  Criminologists are grappling with the language characterizing this wonton disregard with words like “ecocide” and “biocide.”

Kramer suggests that we shift our lifestyles from a culture based on materialistic consumption to a culture based on the caretaking of the Earth, as advocated by Scott Russell Sanders in A Conservationist Manifesto (2009).  Sanders asks such questions as (see a video with Sanders)

  • What would a truly sustainable economy look like?
  • What responsibilities do we bear for the well-being of future generations?
  • What responsibilities do we bear toward Earth’s millions of other species?
  • In a time of ecological calamity and widespread human suffering, how should we imagine a good life?

Third, Kramer calls for a more “prophetic imagination” as put forward by Walter Brueggeman, a theologian and professor emeritus at Columbia Theological Seminary, where we take a reasoned approach and face the realities of climate change, confront the truth, “penetrate the numbness and despair,” and avoid drowning in our sense of loss and grief that is paralyzing us from action.

Such an approach can give voice to a “hope-filled responsibility” where people are empowered to act rather than left listless and inattentive.

“It’s not about someone being responsible, but all of us,” said Kramer, “because we are all affected by climate change.”

One major way we can do that is by reducing greenhouse gas emissions—and we have a way to measure our progress.

Bill McKibben, author of The End of Nature (1988), one of the first popularized books about global warming, contends that rising counts in greenhouse gas emissions are threatening our world.  Today, we are at 400 parts per million (ppm) and heading toward 550-650 ppm compared to pre-industrial counts that measured at 275 ppm.  McKibben advocates a goal of 350 ppm and has encouraged people in 188 countries to reduce carbon emissions in their communities.  (See the video explaining this charge.)

However, can people really be motivated to act given the complexity of the problem?

Kramer harkens to Howard Zinn’s autobiographical book, You Can’t Be Neutral on a Moving Train (1994).  In it Zinn says that we have to “look to history” to see that people working at the grassroots level were able to make change despite tremendous and entrenched obstacles.  It was people who ended slavery and Apartheid, liberated India, dismantled the Soviet Union and initiated the Arab Spring of 2011.  (See a video with Zinn)

“Climate change is a political issue” Kramer insisted.  “We know what to do.  We know that we need to mitigate the carbon emissions from fossil fuels.  What we lack is the political will and the mechanisms to move forward.”

Kramer insisted that climate change is not a party or ideological issue but rather a humanity issue.

“Planet Earth will survive,” he concluded, “but will human civilization?”

Math Explains History: Simulation Accurately Captures the Evolution of Ancient Complex Societies (Science Daily)

Sep. 23, 2013 — The question of how human societies evolve from small groups to the huge, anonymous and complex societies of today has been answered mathematically, accurately matching the historical record on the emergence of complex states in the ancient world.

A section of over 8000 Terracotta Warriors in the mausoleum of the first Qin emperor outside Xian, China. Intense warfare is the evolutionary driver of large complex societies, according to a new mathematical model whose findings accurately match those of the historical record in the ancient world. (Credit: iStockphoto)

Intense warfare is the evolutionary driver of large complex societies, according to new research from a trans-disciplinary team at the University of Connecticut, the University of Exeter in England, and the National Institute for Mathematical and Biological Synthesis (NIMBioS). The study appears this week as an open-access article in the journal Proceedings of the National Academy of Sciences.

The study’s cultural evolutionary model predicts where and when the largest-scale complex societies arose in human history.

Simulated within a realistic landscape of the Afro-Eurasian landmass during 1,500 BCE to 1,500 CE, the mathematical model was tested against the historical record. During the time period, horse-related military innovations, such as chariots and cavalry, dominated warfare within Afro-Eurasia. Geography also mattered, as nomads living in the Eurasian Steppe influenced nearby agrarian societies, thereby spreading intense forms of offensive warfare out from the steppe belt.

The study focuses on the interaction of ecology and geography as well as the spread of military innovations and predicts that selection for ultra-social institutions that allow for cooperation in huge groups of genetically unrelated individuals and large-scale complex states, is greater where warfare is more intense.

While existing theories on why there is so much variation in the ability of different human populations to construct viable states are usually formulated verbally, by contrast, the authors’ work leads to sharply defined quantitative predictions, which can be tested empirically.

The model-predicted spread of large-scale societies was very similar to the observed one; the model was able to explain two-thirds of the variation in determining the rise of large-scale societies.

“What’s so exciting about this area of research is that instead of just telling stories or describing what occurred, we can now explain general historical patterns with quantitative accuracy. Explaining historical events helps us better understand the present, and ultimately may help us predict the future,” said the study’s co-author Sergey Gavrilets, NIMBioS director for scientific activities.

Journal Reference:

  1. Turchin P, Currie T, Turner E, Gavrilets S. War, space, and the evolution of Old World complex societiesPNAS, 2013 DOI: 10.1073/pnas.1308825110

Disaster Relief Donations Track Number of People Killed, Not Number of Survivors (Science Daily)

Sep. 23, 2013 — People pay more attention to the number of people killed in a natural disaster than to the number of survivors when deciding how much money to donate to disaster relief efforts, according to new research published in Psychological Science, a journal of the Association for Psychological Science. The donation bias can be reversed, however, with a simple change in terminology.

“While fatalities have a severe impact on the afflicted community or country, disaster aid should be allocated to people affected by the disaster — those who are injured, homeless, or hungry,” says lead researcher Ioannis Evangelidis of Rotterdam School of Management, Erasmus University (RSM) in the Netherlands. “Our research shows that donors tend not to consider who really receives the aid.”

This discrepancy leads to a “humanitarian disaster,” say Evangelidis and colleague Bram Van den Bergh, where money is given disproportionately toward the natural disasters with the most deaths, instead of the ones with the most people in desperate need of help.

The researchers began by examining humanitarian relief data for natural disasters occurring between 2000 and 2010. As they expected, they found that the number of fatalities predicted the probability of donation, as well as the amount donated, by private donors in various disasters. Their model estimated that about $9,300 was donated per person killed in a given disaster. The number of people affected in the disasters, on the other hand, appeared to have no influence on the amount donated to relief efforts.

Evangelidis and Van den Bergh believe that donors are more likely to pay attention to a death toll when deciding how much to give because the term “affected” is ambiguous. In many cases, though, fatalities don’t correlate with the number of actual people in need.

To find a way to combat this donation bias, the researchers brought participants into the laboratory and presented them with several scenarios, involving various types of disasters and different numbers of people killed and affected.

Overall, participants allocated more money when a disaster resulted in a high death toll — even when the number of people affected was low — mirroring the data from the real natural disasters.

The bias was reversed, however, when participants had to compare two earthquakes — one that killed 4,500 and affected 7,500 versus one that claimed 7,500 and affected 4,500 — before allocating funds.

The act of comparing the two disasters seems to have forced the participants to think critically about which group actually needed the aid more. Notably, the effect carried over when the participants were asked to allocate funds for a third disaster

But the easiest, and most realistic, way to reduce the donation bias may involve a simple change in terminology. When the researchers swapped the term “affected” with the much less ambiguous term “homeless,” participants believed that money should be allocated according to the number of homeless people following a disaster.

“Above all, attention should be diverted from the number of fatalities to the number of survivors in need,” Evangelidis and Van den Bergh conclude. “We are optimistic that these insights will enhance aid to victims of future disasters.”

Journal Reference:

  1. I. Evangelidis, B. Van den Bergh. The Number of Fatalities Drives Disaster Aid: Increasing Sensitivity to People in NeedPsychological Science, 2013; DOI:10.1177/0956797613490748

Para especialistas, novo código de mineração é omisso na questão ambiental (Agência Câmara)

JC e-mail 4822, de 27 de Setembro de 2013.

Consultor do Ibase afirmou que, na última década, a exploração mineral no Brasil triplicou e isso trouxe reflexos ambientais irreversíveis

Participantes da audiência pública sobre o projeto do novo Código de Mineração (PL 5807/13, do Executivo, apensado ao PL 37/11), realizada nesta quinta-feira (26) pela Comissão de Meio Ambiente e Desenvolvimento Sustentável, afirmaram que o texto é omisso em relação à questão ambiental.

O consultor do Instituto Brasileiro de Análises Sociais e Econômicas (Ibase), Carlos Bittencourt, afirmou que, na última década, a exploração mineral no Brasil triplicou e isso trouxe reflexos ambientais irreversíveis. Ele deu exemplos desse impacto: a atividade mineral usou cinco quatrilhões de litros de água em 2012, o equivalente ao consumo de oito cidades do porte do Rio de Janeiro.

A quantidade de energia elétrica utilizada para produzir 432 mil toneladas de alumínio é maior do que a necessária para atender as cidades de Belém (PA) e Manaus (AM). “O principal problema que a gente tem apontado é o completo silêncio em relação aos aspectos socioambientais”, afirmou Bittencourt.

O advogado do Instituto Socioambiental (ISA), Raul do Valle, defendeu que a proposta crie o zoneamento de áreas de mineração e a criação de um seguro ambiental. Ele afirma que a proposta será votada sem o devido aprofundamento do debate.

“O projeto foi feito durante quatro anos a portas fechadas no Executivo e agora veio para o Congresso com 90 dias para ser aprovado. Ele precisa ter debate aprofundado e, sobretudo, incluir a dimensão socioambiental, que é a grande ausente nesse projeto”, afirmou.

O coordenador de Mineração e Obras Civis do Ibama, Jonatas Souza da Trindade, apresentou um estudo técnico, ainda não aprovado pelo órgão, que aponta a necessidade de o projeto do código seguir o modelo de outras formas de licenciamento, como as dos setores hidrelétrico e rodoviário, em que o planejamento ambiental é feito antes do licenciamento ambiental.

“Tecnicamente isso melhora e qualifica o processo de licenciamento ambiental. Esse é um entendimento técnico que ainda não foi aprovado, mas é um possível encaminhamento”, afirmou Trindade.

Questão tratada
O assessor da Secretaria de Geologia, Mineração e Transformação Mineral do Ministério de Minas e Energia, Marcel Stenner, afirmou o contrário dos especialistas em meio ambiente. Segundo ele, a legislação atual dá pouco tratamento para a questão ambiental, diferente do projeto do governo.

“A legislação proposta pelo governo aborda várias das questões, dá tratamento, cria a questão da responsabilidade do agente minerador sobre eventuais danos e impactos ambientais e estabelece condições para que a gente venha a garantir o cumprimento dessas áreas”, disse.

O coordenador da Frente Parlamentar Ambientalista, deputado Sarney Filho (PV-MA), afirma que existem mais de 20 emendas ao novo código tratando de aspectos socioambientais. “O sentido geral desse código, do jeito que veio, não é favor da sociedade, é a favor das empresas. Isso que temos que inverter”, disse. Sarney Filho defende condicionantes para que os lucros das empresas sejam limitados pela segurança ambiental.

Ao todo, a proposta recebeu 372 emendas. Elas serão analisadas pelo relator, deputado Leonardo Quintão (PMDB-MG). O projeto vai ser votado na comissão especial em outubro e depois segue para o Plenário da Câmara.

Íntegra da proposta:
(Agência Câmara – 26/09)

Pesquisadores criam escalas para avaliação da dor em bovinos, equinos e suínos (Fapesp)

Por meio da análise de alterações comportamentais, estudo da Unesp de Botucatu busca mais precisão para diagnósticos e tratamentos veterinários (Stélio Pacca Loureiro Luna)



Por Noêmia Lopes

Agência FAPESP – Apesar da crescente preocupação nacional e internacional com o bem-estar dos animais, espécies pecuárias ainda são negligenciadas quando o assunto é dor. “A ausência de escalas cientificamente validadas que auxiliem produtores, veterinários e pesquisadores a reconhecer e a mensurar a dor nesses animais contribui para o tratamento inapropriado ou insuficiente da dor”, afirmou Stélio Pacca Loureiro Luna, professor da Faculdade de Medicina Veterinária e Zootecnia da Universidade Estadual Paulista (FMVZ/Unesp) de Botucatu (SP), à Agência FAPESP.

Luna coordena um Projeto Temático que, desde 2010, busca propor e validar escalas que indiquem se, para determinado quadro clínico, é recomendável ou não aplicar analgésicos. O foco principal é a dor aguda pós-operatória em bovinos, equinos e suínos.

As escalas são criadas a partir da análise de alterações comportamentais relacionadas a fatores como postura, posição da cabeça, locomoção, interação com o ambiente, ingestão de alimentos, atenção à ferida cirúrgica, entre outras.

Para identificar e analisar as alterações, os pesquisadores gravam vídeos em momentos distintos: antes do procedimento, quando os animais estão sem dor; logo após a cirurgia, quando há um pico de dor; e depois da aplicação de analgésicos, quando se espera que já não haja dor.

“O procedimento que adotamos para as três espécies estudadas foi a castração, por ser relativamente invasivo, atingir tecidos de alta sensibilidade, gerar uma inflamação grande e estar entre as cirurgias mais realizadas nesses animais”, explicou Luna.

A etapa de filmagens, com cerca de 700 horas, já foi concluída. Os vídeos dos suínos, captados a partir de câmeras instaladas nas baias, estão em análise pela FMVZ/Unesp. As imagens dos equinos (também feitas a partir das baias) e dos bovinos (gravadas em pastos, com anteparos separando observador e boi, a fim de que a presença do primeiro não afetasse o comportamento do segundo) já passaram às fases seguintes: validação externa e cálculos estatísticos.

A validação do conteúdo que dará forma às escalas é feita por especialistas e pesquisadores vinculados a instituições parceiras no Brasil, na Inglaterra, nos Estados Unidos, na Espanha e em outros países da América do Sul, como Uruguai e Argentina.

Cada avaliador recebe trechos de vídeos sem ordem cronológica, ou seja, sem saber se o animal em questão foi filmado antes ou logo após a cirurgia ou ainda depois da medicação. Então, assinala em uma tabela se recomendaria a aplicação de analgésicos; classifica a dor de acordo com uma escala descritiva simples (sem dor = 0; dor leve = 1; dor moderada = 2, dor intensa =3); e indica quais alterações comportamentais consegue perceber a partir das imagens.

Por fim, a equipe da FMVZ/Unesp recebe a devolutiva dos materiais, faz comparações com as suas conclusões iniciais e realiza análises estatísticas para compor escalas validadas em três idiomas (português, inglês e espanhol). São tabelas com a descrição das alterações comportamentais mais relevantes, acompanhadas de vídeos e classificadas com notas que, somadas, resultam em um escore total. “A partir de ao redor de um terço da pontuação máxima, por meio de cálculos matemáticos, considera-se que o animal é meritório de receber analgésicos”, afirmou Luna.

“Quando estiverem finalizados, os produtos finais do estudo serão pioneiros para dor aguda em bovinos e suínos, que ainda não contam com escalas validadas nacional ou internacionalmente”, disse o pesquisador. “Entre equinos, até então havia somente uma escala ortopédica, mas nada a respeito de tecidos moles, atingidos, por exemplo, pela castração.”

As novas ferramentas serão disponibilizadas gratuitamente no site Animal Pain, no qual a FMVZ/Unesp já publicou uma escala de dor aguda em gatos, resultado de um projeto de pós-doutorado supervisionado por Luna e apoiado pela FAPESP. Dois dos artigos relacionados a esse estudo podem ser lidos em Journal of Feline Medicine and Surgery e BMC Veterinary Research.

“Ampliar os conhecimentos sobre a dor e, assim, aplicar analgésicos com mais propriedade é importante para o bem-estar dos animais e do ponto de vista prático. Isso porque pode haver ganhos [para o produtor], como menor tempo de recuperação pós-operatória e redução de inflamações”, disse Luna.

Anestesia em suínos

Ainda no âmbito do Projeto Temático, Luna orientou uma iniciação científica sobre os efeitos da castração de leitões com e sem o uso de anestésico local.

A investigação concluiu que o ganho de peso nos animais castrados com anestesia é superior ao dos animais que não recebem anestésicos.

“Em termos financeiros, há um ganho significativo para propriedades com milhares de animais. O procedimento cirúrgico fica um minuto mais lento, mas a relação custo-benefício é promissora. Sem contar que a medida colabora com o bem-estar animal e agrega valor ao produto perante o mercado consumidor”, disse Luna.

A partir de tal comprovação, os pesquisadores esperam inspirar o uso de anestésicos em suínos durante outros procedimentos que em geral são feitos sem anestesia, como o corte da cauda e a extração de dentes.

Dor crônica em cães

Por meio de um projeto de pós-doutorado, a equipe de Luna também busca estabelecer correlações entre o Índice de Dor Crônica de Helsinki (IDCH) – criado pela Universidade de Helsinque, na Finlândia, para avaliar a dor em cães – e experimentos realizados na própria FMVZ/Unesp.

“Esse tipo de escala, referente a problemas crônicos, é feita a partir de relatos dos proprietários de cães, que, por conviverem diretamente com os animais, podem opinar sobre o humor, a disposição para brincar, entre outros fatores. Buscamos incorporar elementos mais objetivos a esse tipo de ferramenta, usando a análise de movimento (cinética) dos animais e plataforma de pressão (baropodometria)”, afirmou Luna.

Para tanto, foram observados animais com displasia coxofemoral (um problema no assentamento da articulação entre o fêmur e a coxa), enquanto caminhavam sobre a plataforma de pressão. Os pesquisadores coletaram dados sobre a movimentação, a angulação das patas, a pressão exercida sobre o dispositivo e a distribuição do peso em cada membro.

“Pretendemos correlacionar as medidas objetivas da locomoção com o IDCH a fim de aprimorar a mensuração da dor e indicar possíveis tratamentos”, disse Luna.

Estímulos nociceptivos em equinos

Dois outros projetos, ambos de doutorado, estão vinculados ao Temático e interligados: uma tese busca padronizar e validar diferentes métodos de nocicepção – estímulos térmicos, mecânicos e elétricos capazes de provocar certo desconforto – em equinos e um segundo projeto visa avaliar o efeito de diferentes vias de administração de analgésicos, também em cavalos.

“O objetivo é conhecer a eficácia e a duração de analgésicos frente aos estímulos que provocamos – primeiramente testados em nós mesmos, como forma de assegurar que não causam lesões, apenas incômodos”, explicou Luna.

Para tanto, animais saudáveis e conscientes recebem analgesia. Em seguida, são estimulados termicamente (com sensores que esquentam via controle remoto), mecanicamente (com um dispositivo semelhante ao que mede a pressão arterial em humanos) ou eletricamente (por meio de pequenos choques).

“Se há desconforto, o animal levanta a pata, quando então interrompemos o estímulo. Assim, conseguimos avaliar se o analgésico faz efeito, se influencia no limiar do incômodo – em vez de o cavalo puxar a pata quando o sensor acusa 45 graus Celsius, ele o faz a 48 graus Celsius, por exemplo – e por quanto tempo a medicação faz efeito”, completou o professor da FMVZ/Unesp.

Estamos preparados para o pré-sal e o gás de xisto? (O Estado de São Paulo)

JC e-mail 4817, de 20 de Setembro de 2013.

Em artigo publicado no Estadão, Washington Novaes* reforça o alerta da SBPC sobre os riscos da exploração do gás xisto

Anuncia-se que em novembro vão a leilão áreas brasileiras onde se pretende explorar o gás de xisto, da mesma forma que estão sendo leiloadas áreas do pré-sal para exploração de petróleo no mar. Deveríamos ser prudentes nas duas direções. No pré-sal, não se conhecem suficientemente possíveis consequências de exploração em áreas profundas. No caso do xisto, em vários países já há proibições de exploração ou restrições, por causa das consequências, na sua volta à superfície, da água e de insumos químicos injetados no solo para “fraturar” as camadas de rocha onde se encontra o gás a ser liberado. Mas as razões financeiras, em ambos os casos, são muito fortes e estão prevalecendo em vários lugares, principalmente nos Estados Unidos.

No Brasil, onde a tecnologia para o fraturamento de rochas ainda vai começar a ser utilizada, há um questionamento forte da Sociedade Brasileira para o Progresso da Ciência (SBPC) e da Academia Brasileira de Ciências, que, em carta à presidente da República (5/8), manifestaram sua preocupação com esse leilão para campos de gás em bacias sedimentares. Nestas, diz a carta, agências dos EUA divulgaram que o Brasil teria reservas de 7,35 trilhões de metros cúbicos em bacias no Paraná, no Parnaíba, no Solimões, no Amazonas, no Recôncavo Baiano e no São Francisco. A Agência Nacional de Petróleo (ANP) estima que as reservas podem ser o dobro disso. Mas, segundo a SBPC e a ANP, falta “conhecimento das características petrográficas, estruturais e geomecânicas” consideradas nesses cálculos, que poderão influir “decisivamente na economicidade de sua exploração”.

E ainda seria preciso considerar os altos volumes de água no processo de fratura de rochas para liberar gás, “que retornam à superfície poluídos por hidrocarbonetos e por outros compostos”, além de metais presentes nas rochas e “dos próprios aditivos químicos utilizados, que exigem caríssimas técnicas de purificação e de descarte dos resíduos finais”. A água utilizada precisaria ser confrontada “com outros usos considerados preferenciais”, como o abastecimento humano. E lembrar ainda que parte das reservas está “logo abaixo do Aquífero Guarani”; a exploração deveria “ser avaliada com muita cautela, já que há um potencial risco de contaminação das águas deste aquífero”.

Diante disso, não deveria haver licitações imediatas, “excluindo a comunidade científica e os próprios órgãos reguladores do país da possibilidade de acesso e discussão das informações”, que “poderão ser obtidas por meio de estudos realizados diretamente pelas universidades e institutos de pesquisa”. Além do maior conhecimento científico das jazidas, os estudos poderão mostrar “consequências ambientais dessa atividade, que poderão superar amplamente seus eventuais ganhos sociais”. É uma argumentação forte, que, em reunião da SBPC no Recife (22 a 27/7), levou a um pedido de que seja sustada a licitação de novembro.

Em muitos outros lugares a polêmica está acesa – como comenta o professor Luiz Fernando Scheibe, da USP, doutor em Mineração e Petrologia (12/9). Como na Grã-Bretanha, onde se argumenta que a tecnologia de fratura, entre muitos outros problemas, pode contribuir até para terremotos. A liberação de metano no processo também pode ser altamente problemática, já que tem efeitos danosos equivalentes a mais de 20 vezes os do dióxido de carbono, embora permaneça menos tempo na atmosfera. E com isso anularia as vantagens do gás de xisto para substituir o uso de carvão mineral. O próprio Programa das Nações Unidas para o Meio Ambiente (Pnuma) tem argumentado que o gás de xisto pode, na verdade, aumentar as emissões de poluentes que contribuem para mudanças do clima.

Na França os protestos têm sido muitos (Le Monde, 16/7) e levado o país a restrições fortes, assim como na Bulgária. Alguns Estados norte-americanos proibiram a tecnologia em seus territórios, mas o governo dos EUA a tem aprovado, principalmente porque o gás de xisto não só é mais barato que o carvão, como reduziu substancialmente as importações de combustíveis fósseis do país, até lhe permitindo exportar carvão excedente. E a Agência Internacional de Energia está prevendo que até 2035 haverá exploração do gás de xisto em mais de 1 milhão de pontos no mundo. Nos EUA, este ano, a produção de gás de xisto estará em cerca de 250 bilhões de metros cúbicos – facilitada pela decisão governamental de liberar a Agência de Proteção Ambiental de examinar possíveis riscos no processo e pela existência de extensa rede de gasodutos (o Brasil só os tem na região leste; gás consumido aqui vem da Bolívia).

Também a China seria potencial usuária do gás, pois 70% de sua energia vem de 3 bilhões de toneladas anuais de carvão (quase 50% do consumo no mundo).Embora tenha 30 trilhões de metros cúbicos de gás de xisto – mais que os EUA -, o problema é que as jazidas se situam em região de montanhas, muito distante dos centros de consumo – o que implicaria um aumento de 50% no custo para o usuário, comparado com o carvão. Por isso mesmo, a China deverá aumentar o consumo do carvão nas próximas décadas (Michael Brooks na New Scientist, 10/8).

E assim vamos, em mais uma questão que sintetiza o dilema algumas vezes já comentado neste espaço: lógica financeira versus lógica “ambiental”, da sobrevivência. Com governos, empresas, pessoas diante da opção de renunciar a certas tecnologias e ao uso de certos bens – por causa dos problemas de poluição, clima, consumo insustentável de recursos, etc. -, ou usá-los por causa das vantagens financeiras imediatas, que podem ser muito fortes.

Cada vez mais, será esse o centro das discussões mais fortes em toda parte, inclusive no Brasil – com repercussões amplas nos campos político e social. Preparemo-nos.

*Washington Novaes é jornalista.

Quinto relatório do IPCC: repercussão

Documento divulgado nesta sexta (27/09) afirma que a temperatura do planeta pode subir quase 5 °C durante este século, o que poderá elevar o nível dos oceanos em até 82 centímetros (foto do Oceano Ártico: Nasa)


Quinto relatório do IPCC mostra intensificação das mudanças climáticas


Por Karina Toledo, de Londres

Agência FAPESP – Caso as emissões de gases do efeito estufa continuem crescendo às atuais taxas ao longo dos próximos anos, a temperatura do planeta poderá aumentar até 4,8 graus Celsius neste século – o que poderá resultar em uma elevação de até 82 centímetros no nível do mar e causar danos importantes na maior parte das regiões costeiras do globo.

O alerta foi feito pelos cientistas do Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês), da Organização das Nações Unidas (ONU), que divulgaram no dia 27 de setembro, em Estocolmo, na Suécia, a primeira parte de seu quinto relatório de avaliação (AR5). Com base na revisão de milhares de pesquisas realizadas nos últimos cinco anos, o documento apresenta as bases científicas da mudança climática global.

De acordo com Paulo Artaxo, professor do Instituto de Física da Universidade de São Paulo (USP) e um dos seis brasileiros que participaram da elaboração desse relatório, foram simulados quatro diferentes cenários de concentrações de gases de efeito estufa, possíveis de acontecer até o ano de 2100 – os chamados “Representative Concentration Pathways (RCPs)”.

“Para fazer a previsão do aumento da temperatura são necessários dois ingredientes básicos: um modelo climático e um cenário de emissões. No quarto relatório (divulgado em 2007) também foram simulados quatro cenários, mas se levou em conta apenas a quantidade de gases de efeito estufa emitida. Neste quinto relatório, nós usamos um sistema mais completo, que leva em conta os impactos dessas emissões, ou seja, o quanto haverá de alteração no balanço de radiação do sistema terrestre”, explicou Artaxo, que está em Londres para a FAPESP Week London, onde participou de um painel sobre mudança climática.

O balanço de radiação corresponde à razão entre a quantidade de energia solar que entra e que sai de nosso planeta, indicando o quanto ficou armazenada no sistema terrestre de acordo com as concentrações de gases de efeito estufa, partículas de aerossóis emitidas e outros agentes climáticos.

O cenário mais otimista prevê que o sistema terrestre armazenará 2,6 watts por metro quadrado (W/m2) adicionais. Nesse caso, o aumento da temperatura terrestre poderia variar entre 0,3 °C e 1,7 °C de 2010 até 2100 e o nível do mar poderia subir entre 26 e 55 centímetros ao longo deste século.

“Para que esse cenário acontecesse, seria preciso estabilizar as concentrações de gases do efeito estufa nos próximos 10 anos e atuar para sua remoção da atmosfera. Ainda assim, os modelos indicam um aumento adicional de quase 2 °C na temperatura – além do 0,9 °C que nosso planeta já aqueceu desde o ano 1750”, avaliou Artaxo.

O segundo cenário (RCP4.5) prevê um armazenamento de 4,5 W/m2. Nesse caso, o aumento da temperatura terrestre seria entre 1,1 °C e 2,6 °C e o nível do mar subiria entre 32 e 63 centímetros. No terceiro cenário, de 6,0 W/m2, o aumento da temperatura varia de 1,4 °C até 3,1 °C e o nível do mar subiria entre 33 e 63 centímetros.

Já o pior cenário, no qual as emissões continuam a crescer em ritmo acelerado, prevê um armazenamento adicional de 8,5 W/m2. Em tal situação, segundo o IPCC, a superfície da Terra poderia aquecer entre 2,6 °C e 4,8 °C ao longo deste século, fazendo com que o nível dos oceanos aumente entre 45 e 82 centímetros.

“O nível dos oceanos já subiu em média 20 centímetros entre 1900 e 2012. Se subir outros 60 centímetros, com as marés, o resultado será uma forte erosão nas áreas costeiras de todo o mundo. Rios como o Amazonas, por exemplo, sofrerão forte refluxo de água salgada, o que afeta todo o ecossistema local”, disse Artaxo.

Segundo o relatório AR5 do IPCC, em todos os cenários, é muito provável (90% de probabilidade) que a taxa de elevação dos oceanos durante o século 21 exceda a observada entre 1971 e 2010. A expansão térmica resultante do aumento da temperatura e o derretimento das geleiras seriam as principais causas.

O aquecimento dos oceanos, diz o relatório, continuará ocorrendo durante séculos, mesmo se as emissões de gases-estufa diminuírem ou permanecerem constantes. A região do Ártico é a que vai aquecer mais fortemente, de acordo com o IPCC.

Segundo Artaxo, o aquecimento das águas marinhas tem ainda outras consequências relevantes, que não eram propriamente consideradas nos modelos climáticos anteriores. Conforme o oceano esquenta, ele perde a capacidade de absorver dióxido de carbono (CO2) da atmosfera. Se a emissão atual for mantida, portanto, poderá haver uma aceleração nas concentrações desse gás na atmosfera.

“No relatório anterior, os capítulos dedicados ao papel dos oceanos nas mudanças climáticas careciam de dados experimentais. Mas nos últimos anos houve um enorme avanço na ciência do clima. Neste quinto relatório, por causa de medições feitas por satélites e de observações feitas com redes de boias – como as do Projeto Pirata que a FAPESP financia no Atlântico Sul –, a confiança sobre o impacto dos oceanos no clima melhorou muito”, afirmou Artaxo.

Acidificação dos oceanos

Em todos os cenários previstos no quinto relatório do IPCC, as concentrações de CO2 serão maiores em 2100 em comparação aos níveis atuais, como resultado do aumento cumulativo das emissões ocorrido durante os séculos 20 e 21. Parte do CO2 emitido pela atividade humana continuará a ser absorvida pelos oceanos e, portanto, é “virtualmente certo” (99% de probabilidade) que a acidificação dos mares vai aumentar. No melhor dos cenários – o RCP2,6 –, a queda no pH será entre 0,06 e 0,07. Na pior das hipóteses – o RCP8,5 –, entre 0,30 e 0,32.

“A água do mar é alcalina, com pH em torno de 8,12. Mas quando absorve CO2 ocorre a formação de compostos ácidos. Esses ácidos dissolvem a carcaça de parte dos microrganismos marinhos, que é feita geralmente de carbonato de cálcio. A maioria da biota marinha sofrerá alterações profundas, o que afeta também toda a cadeia alimentar”, afirmou Artaxo.

Ao analisar as mudanças já ocorridas até o momento, os cientistas do IPCC afirmam que as três últimas décadas foram as mais quentes em comparação com todas as anteriores desde 1850. A primeira década do século 21 foi a mais quente de todas. O período entre 1983 e 2012 foi “muito provavelmente” (90% de probabilidade) o mais quente dos últimos 800 anos. Há ainda cerca de 60% de probabilidade de que tenha sido o mais quente dos últimos 1.400 anos.

No entanto, o IPCC reconhece ter havido uma queda na taxa de aquecimento do planeta nos últimos 15 anos – passando de 0,12 °C por década (quando considerado o período entre 1951 e 2012) para 0,05°C (quando considerado apenas o período entre 1998 e 2012).

De acordo com Artaxo, o fenômeno se deve a dois fatores principais: a maior absorção de calor em águas profundas (mais de 700 metros) e a maior frequência de fenômenos La Niña, que alteram a taxa de transferência de calor da atmosfera aos oceanos. “O processo é bem claro e documentado em revistas científicas de prestígio. Ainda assim, o planeta continua aquecendo de forma significativa”, disse.

Há 90% de certeza de que o número de dias e noites frios diminuíram, enquanto os dias e noites quentes aumentaram na escala global. E cerca de 60% de certeza de que as ondas de calor também aumentaram. O relatório diz haver fortes evidências de degelo, principalmente na região do Ártico. Há 90% de certeza de que a taxa de redução da camada de gelo tenha sido entre 3,5% e 4,1% por década entre 1979 e 2012.

As concentrações de CO2 na atmosfera já aumentaram mais de 20% desde 1958, quando medições sistemáticas começaram a ser feitas, e cerca de 40% desde 1750. De acordo com o IPCC, o aumento é resultado da atividade humana, principalmente da queima de combustíveis fósseis e do desmatamento, havendo uma pequena participação da indústria cimenteira.

Para os cientistas há uma “confiança muito alta” (nove chances em dez) de que as taxas médias de CO2, metano e óxido nitroso do último século sejam as mais altas dos últimos 22 mil anos. Já mudanças na irradiação solar e a atividade vulcânica contribuíram com uma pequena fração da alteração climática. É “extremamente provável” (95% de certeza) de que a influência humana sobre o clima causou mais da metade do aumento da temperatura observado entre 1951 e 2010.

“Os efeitos da mudança climática já estão sendo sentidos, não é algo para o futuro. O aumento de ondas de calor, da frequência de furacões, das inundações e tempestades severas, das variações bruscas entre dias quentes e frios provavelmente está relacionado ao fato de que o sistema climático está sendo alterado”, disse Artaxo.

Impacto persistente

Na avaliação do IPCC, muitos aspectos da mudança climática vão persistir durante muitos séculos mesmo se as emissões de gases-estufa cessarem. É “muito provável” (90% de certeza) que mais de 20% do CO2 emitido permanecerá na atmosfera por mais de mil anos após as emissões cessarem, afirma o relatório.

“O que estamos alterando não é o clima da próxima década ou até o fim deste século. Existem várias publicações com simulações que mostram concentrações altas de CO2 até o ano 3000, pois os processos de remoção do CO2 atmosférico são muito lentos”, contou Artaxo.

Para o professor da USP, os impactos são significativos e fortes, mas não são catastróficos. “É certo que muitas regiões costeiras vão sofrer forte erosão e milhões de pessoas terão de ser removidas de onde vivem hoje. Mas claro que não é o fim do mundo. A questão é: como vamos nos adaptar, quem vai controlar a governabilidade desse sistema global e de onde sairão recursos para que países em desenvolvimento possam construir barreiras de contenção contra as águas do mar, como as que já estão sendo ampliadas na Holanda. Quanto mais cedo isso for planejado, menores serão os impactos socioeconômicos”, avaliou.

Os impactos e as formas de adaptação à nova realidade climática serão o tema da segunda parte do quinto relatório do IPCC, previsto para ser divulgado em janeiro de 2014. O documento contou com a colaboração de sete cientistas brasileiros. Outros 13 brasileiros participaram da elaboração da terceira parte do AR5, que discute formas de mitigar a mudança climática e deve sair em março.

De maneira geral, cresceu o número de cientistas vindos de países em desenvolvimento, particularmente do Brasil, dentro do IPCC. “O Brasil é um dos países líderes em pesquisas sobre mudança climática atualmente. Além disso, o IPCC percebeu que, se o foco ficasse apenas nos países desenvolvidos, informações importantes sobre o que está acontecendo nos trópicos poderiam deixar de ser incluídas. E é onde fica a Amazônia, um ecossistema-chave para o planeta”, disse Artaxo.

No dia 9 de setembro, o Painel Brasileiro de Mudanças Climáticas (PBMC) divulgou o sumário executivo de seu primeiro Relatório de Avaliação Nacional (RAN1). O documento, feito nos mesmos moldes do relatório do IPCC, indica que no Brasil o aumento de temperatura até 2100 será entre 1 °C e 6 °C, em comparação à registrada no fim do século 20. Como consequência, deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

“A humanidade nunca enfrentou um problema cuja relevância chegasse perto das mudanças climáticas, que vai afetar absolutamente todos os seres vivos do planeta. Não temos um sistema de governança global para implementar medidas de redução de emissões e verificação. Por isso, vai demorar ainda pelo menos algumas décadas para que o problema comece a ser resolvido”, opinou Artaxo.

Para o pesquisador, a medida mais urgente é a redução das emissões de gases de efeito estufa – compromisso que tem de ser assumido por todas as nações. “A consciência de que todos habitamos o mesmo barco é muito forte hoje, mas ainda não há mecanismos de governabilidade global para fazer esse barco andar na direção certa. Isso terá que ser construído pela nossa geração”, concluiu.

*   *   *

JC e-mail 4822, de 27 de Setembro de 2013.

IPCC lança na Suécia novo relatório sobre as mudanças climáticas (O Globo)

O documento reúne previsões do aquecimento global até 2100 apontando aumento de temperatura superior a 2 graus. ‘A influência humana no clima é clara’, diz trabalho

A previsão do Painel Intergovernamental sobre Mudanças Climáticas da ONU (IPCC) é que o aquecimento global até o final do século 21 seja “provavelmente superior” a 2 graus (com pelo menos 66% de chances disto acontecer), superando o limite considerado seguro pelos especialistas. Até 2100, o nível do mar deve aumentar perigosamente de 45 a 82 centímetros, considerando o pior cenário (ou de 26 a 55 centímetros, no melhor), e o gelo do Ártico pode diminuir até 94% durante o verão local.

Além disso, o relatório do IPCC — publicado na manhã desta sexta-feira em Estocolmo, na Suécia, com as bases científicas mais atualizadas sobre as mudanças climáticas — considera que há mais de 95% de certeza para afirmar que o homem causou mais da metade da elevação média da temperatura entre 1951 e 2010. Neste período, o nível dos oceanos aumentou 19 centímetros.

O documento, com o trabalho de 259 cientistas e representantes dos governos de 195 países, inclusive o Brasil, ressalta que parte das emissões de CO2 provocadas pelo homem continuará a ser absorvida pelos oceanos. Por isso, é praticamente certo (99% de probabilidade) que a acidificação dos mares vai aumentar, afetando profundamente a vida marinha.

– A mudança de temperatura da superfície do planeta deve exceder 1,5 grau, e, provavelmente, será superior a 2 graus – disse o copresidente do trabalho Thomas Stocker. – É muito provável que as ondas de calor ocorram com mais frequência e durem mais tempo. Com o aquecimento da Terra, esperamos ver regiões atualmente úmidas recebendo mais chuvas, e as áridas, menos, apesar de haver exceções.

Os especialistas fizeram quatro projeções considerando situações diferentes de emissões de gases-estufa. Em todas, há aumento de temperatura. As mais brandas ficam entre 0,3 ºC e 1,7 ºC. Nestes casos, seria necessário diminuir muito as emissões. Já no cenário mais pessimista, o aquecimento ficaria entre 2,6 ºC e 4,8 ºC.

– Na minha opinião, o relatório é muito bom, repleto de informações e todas muito bem fundamentadas – comentou a especialista brasileira Suzana Kahn, que faz parte do grupo de pesquisadores do IPCC em Estocolmo. – No fundo, o grande ganho é a comprovação do que tem sido dito há mais tempo, com muito mais informação sobre o papel dos oceanos, das nuvens e aerossóis. Isto é muito importante para o mundo científico, pois aponta para áreas que precisam ser mais investigadas.

Suzana conta que a dificuldade de fazer projeções e análises para o Hemisfério Sul causou muita polêmica. O grande problema é a falta de dados:

– Acho que isto foi interessante para comprovar que estávamos certos ao criar o Painel Brasileiro de Mudança Climática para suprir esta lacuna.

De acordo com Carlos Rittl, Coordenador do Programa de Mudanças Climáticas e Energias do WWF-Brasil, o relatório do IPCC deixa uma mensagem clara: o aquecimento global é incontestável. E é preciso começar agora contra os piores efeitos.

– O relatório do IPCC reafirma algumas certezas e vai além. Aponta a perda de massa de gelo, o aumento do nível dos oceanos, o incremento de chuvas onde já se chove muito, além da diminuição da umidade nas regiões mais áridas. No Brasil, o semiárido pode se tornar mais árido. Por outro lado, o Sul e Sudeste podem ter mais chuvas do que hoje – enumerou Rittl. – É importante ressaltar que o relatório fala de médias. Ou seja, em algumas regiões do país pode haver aumento de seis graus, com picos de mais de oito graus. A gente não está preparado para isso. E nossas emissões nos colocam numa trajetória de altíssimo risco, mais próxima dos piores cenários.

Para Rittl, a ciência está dando uma mensagem clara: é preciso diminuir as emissões. Isso significa levar os temas relacionados às mudanças climáticas para as decisões políticas:

– Hoje o aquecimento global ainda é um tema marginal. Os investimentos em infraestrutura, energia, o plano Safra, todos os grandes investimentos da escala de trilhões de reais não têm praticamente nenhuma vinculação com a lógica de baixo carbono. Estamos sendo pouco responsáveis.

Diplomacia e ciência
John Kerry, secretário de Estado dos EUA, ressalta que o relatório do IPCC não deve ser esquecido num armário, nem interpretado como uma peça política feita por políticos: “é ciência”, resume. De acordo com ele, os Estados Unidos estão “profundamente comprometidos em combater as mudanças climáticas”, reduzindo emissões de gases-estufa e investindo em formas eficientes de energia.

Este é mais um chamado de atenção: aqueles que negam a ciência ou procuram desculpas para evitar a ação estão brincando com fogo – afirmou Kerry. – O resumo do relatório do IPCC é este: a mudança climática é real, está acontecendo agora, os seres humanos são a causa dessa transformação, e somente a ação dos seres humanos pode salvar o mundo de seus piores impactos.

Lançado a cada seis anos, os relatórios do IPCC estão sob críticas de especialistas. O processo de análise dos documentos por representantes do governo acaba chegando a uma situação intermediária entre diplomacia e ciência, explica Emilio La Rovere, pesquisador da Coppe/UFRJ.

– O resultado é um meio termo entre diplomacia e ciência – afirmou Rovere.
Um dos pontos mais polêmicos são os chamados hiatos, períodos de cerca de 15 anos em que a temperatura média do planeta não aumenta. Por exemplo, a Agência Estatal de Meteorologia da Espanha anunciou, nesta semana, que o último trimestre na Península Ibérica foi o menos quente desde 2008. Entretanto, o relatório de 2007 do IPCC não citou estas pausas do aquecimento, dando argumento aos céticos.

Limite do aquecimento global
As informações do IPCC são importantes para a criação de estratégias de combate às mudanças climáticas. Na Convenção do Clima da Dinamarca (COP-15, realizada em 2009), foi criada a meta de limitar o aquecimento global em 2 graus. Para isso acontecer em 2050, explica Emilio La Rovere, da Coppe/UFRJ, seria necessário cortar 80% das emissões em comparação com 1990:

– Os modelos matemáticos simulando evolução demográfica, economia mundial, demanda e oferta de energia mostram que fica realmente quase impossível atingir este objetivo.

Este é o Quinto Relatório do IPCC, que será lançado em quatro partes, entre setembro de 2013 e novembro de 2014. Nesta sexta-feira, foi publicado o documento do Grupo de Trabalho I (sobre os aspectos científicos das mudanças climáticas). Entre os dias 25 e 29 de março de 2014, será a vez do Grupo de Trabalho II (analisando os impactos, a adaptação e a vulnerabilidade), que se reunirá em Yokohama, no Japão. O Grupo de Trabalho III (especializado na mitigação dos impactos das mudanças climáticas) está previsto para os dias 7 e 11 de abril em Berlim, na Alemanha. Por fim, será criado um relatório síntese, cujos trabalhos ocorrerão entre os dias 27 e 31 de outubro, em Copenhague, na Dinamarca.

(Cláudio Motta/O Globo)

Matéria complementar de O Globo:

Relatório destaca como a ação humana agrava o aquecimento

Veja mais em:

Folha de S.Paulo
Relatório sobe tom de alerta sobre aquecimento

Agência Estado
ONU culpa atividades humanas por aquecimento global

Zero Hora
Temperatura da Terra subirá entre 0,3°C e 4,8°C neste século, aponta IPCC

Correio Braziliense
Temperatura do planeta subirá entre 0,3 e 4,8ºC no século 21, diz IPCC,390388/temperatura-do-planeta-subira-entre-0-3-e-4-8-c-no-seculo-21-diz-ipcc.shtml


Por trás do desmatamento da Amazônia (Fapesp)

Mais de 50% das emissões de gases de efeito estufa do bioma são causados pela demanda do restante do país e do exterior por insumos produzidos na região, aponta estudo feito na USP (Nasa)



Por Elton Alisson

Agência FAPESP – O consumo interno do Brasil e as exportações de soja, carne bovina e outros produtos primários provenientes da Amazônia são responsáveis por mais da metade das taxas de desmatamento e, consequentemente, das emissões de gases de efeito estufa (GEE) registradas pelo bioma.

A avaliação é de um estudo realizado por pesquisadores da Faculdade de Economia, Administração e Contabilidade (FEA), da Universidade de São Paulo (USP), no âmbito de um Projeto Temático, realizado no Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG).

Os resultados do estudo foram apresentados no dia 12 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima), realizada pela FAPESP em parceria com a Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), em São Paulo.

“Mais da metade das emissões de GEE da Amazônia acontecem por conta da demanda de consumo fora da região, para abastecimento interno do país ou para exportação”, disse Joaquim José Martins Guilhoto, professor da FEA e um dos pesquisadores participantes do projeto.

De acordo com dados apresentados pelo pesquisador, obtidos do segundo Inventário Nacional de Emissões de Gases de Efeito Estufa – publicado no final de 2010, abrangendo o período de 1990 a 2005 –, em 2005 o Brasil emitiu mais de 2,1 gigatoneladas de CO2 equivalente. A Amazônia contribui com mais de 50% das emissões de GEE do país.

A fim de identificar e entender os fatores econômicos causadores do desmatamento e, por conseguinte, das emissões de GEE na Amazônia naquele ano, os pesquisadores fizeram um mapeamento das emissões diretas por atividade produtiva separando a Região Amazônica do restante do Brasil e calcularam a parcela de contribuição de cada um na emissão de CO2 equivalente, assim como a participação das exportações.

Os cálculos revelaram que as exportações diretas da Amazônia são responsáveis por 16,98% das emissões de GEE da região. Já as exportações do resto do país são responsáveis por mais 6,29% das emissões da Amazônia, uma vez que há produtos provenientes da região que são processados e exportados por outros estados brasileiros.

O consumo interno, por sua vez, responde por 46,13% das emissões amazônicas, sendo 30,01% pelo consumo no restante do país e 16,12% pelo consumo dentro da própria Região Amazônica, aponta o estudo.

“A soma desses percentuais demonstra que mais de 50% das emissões de GEE da Amazônia ocorrem por conta do consumo de bens produzidos na região, mas consumidos fora dela”, afirmou Guilhoto. “Essa constatação indica que os fatores externos são mais importantes para explicar as emissões de GEE pela Amazônia.”

Segundo o estudo, a pecuária, a produção de soja e de outros produtos agropecuários são os setores produtivos que mais contribuem para as emissões de GEE pela Amazônia. Mas, além deles, há outros setores econômicos, como o de mobiliário, entre outros, que são fortemente dependentes de insumos produzidos na região.

“Os dados obtidos no estudo mostram que, de modo geral, apesar de haver uma dependência muito maior da Amazônia pelos insumos produzidos pelo resto do Brasil, a pouca dependência que o resto do Brasil tem do bioma se dá em insumos fortemente relacionados com a emissão de GEE na região”, resumiu Guilhoto.

Redução do desmatamento

Em outro estudo também realizado por pesquisadores da FEA, no âmbito do Projeto Temático, constatou-se que entre 2002 e 2009 houve uma grande expansão da área de produção agropecuária brasileira e, ao mesmo tempo, uma redução drástica das taxas de desmatamento da Amazônia.

A cana-de-açúcar, a soja e o milho responderam por 95% da expansão líquida da área colhida entre 2002 e 2009, enquanto o rebanho bovino teve um acréscimo de 26 milhões de cabeças de gado. Nesse mesmo período a Amazônia registrou uma queda de 79% do desmatamento.

A fim de investigar os principais vetores do desmatamento no país, uma vez que boa parte dos eventos de expansão agropecuária ocorre fora da Amazônia, os pesquisadores fizeram um estudo usando análises espaciais integradas do território brasileiro, incluindo os seis biomas do país.

Para isso, utilizaram dados sobre desmatamento obtidos do Projeto Prodes, do Ministério do Meio Ambiente (MMA) e do Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais (Ibama), além de imagens georreferenciadas obtidas dos satélites Landsat, da agência espacial norte-americana Nasa.

O estudo revelou que, no período de 2002 a 2009, foram desmatados 12,062 milhões de hectares da Amazônia, 10,015 milhões de hectares do Cerrado, 1,846 milhão de hectares da Caatinga, 447 mil hectares do Pantanal, 375 mil hectares da Mata Atlântica e 257 mil hectares do Pampa.

“A soma desses números indica que o Brasil desmatou em sete anos o equivalente ao Estado de São Paulo mais o Triângulo Mineiro ou uma Grã-Bretanha”, calculou Rafael Feltran-Barbieri, pesquisador da FEA e um dos autores do estudo.

De acordo com o pesquisador, uma das principais conclusões do estudo foi que os outros biomas estão funcionando como uma espécie de “amortecedor” do desmatamento da Amazônia.

“Quando consideramos a expansão agropecuária do Brasil como um todo, vemos que boa parte da redução das taxas de desmatamento da Amazônia se deve ao fato de que os outros biomas estão sofrendo essas consequências [registrando aumento no desmatamento]”, afirmou.

Outra conclusão do estudo é de que há um impacto espacial sinérgico dos vetores do desmatamento no Brasil, uma vez que a expansão das diversas atividades agropecuárias – como o cultivo da cana e da soja ou a criação de gado – ocorre de forma concomitante e disputa território.

No caso da cana-de-açúcar, uma das constatações foi que, no período de 2002 a 2009, a cultura passou a ocupar áreas desmatadas por outras atividades agropecuárias, embora ela própria não tenha vocação para desmatar.

“Estamos percebendo que existe uma formação quase complementar entre as expansões [nos diferentes biomas] e isso faz com que os efeitos de desmatamento sejam altamente correlacionados”, disse Feltran-Barbieri.

“Essa constatação leva à conclusão de que, se o Brasil pretende assumir uma posição de fato responsável em relação às mudanças climáticas – e disso depende a agropecuária –, é preciso fazer planejamento estratégico do território, porque o planejamento setorial não está dando conta de compreender esses efeitos sinérgicos”, avaliou.

Painel do clima da ONU sobe alerta para aquecimento global (Folha de S.Paulo)

27/09/2013 – 05h07


Atualizado às 09h47.

Quem esperava ver o IPCC (Painel Intergovernamental de Mudança Climática) emitir um relatório mais enfraquecido em razão da recente desaceleração no aquecimento global, testemunhou os cientistas da entidade subirem o tom de alerta, destacando uma subida acelerada no nível do mar e no derretimento do Ártico.

Além de manter que a mudança climática é “inequívoca”, o documento mostra projeções para o futuro com um grau de certeza melhorado. “A atmosfera e o oceano se aqueceram, a quantidade de neve e gelo diminuiu, o nível do mar subiu, e as concentrações de gases-estufa aumentaram”, diz o Sumário para Formuladores de Política, a seção do documento divulgada nesta manhã.

Mensageiro Sideral: Que diabos acontece com nosso planeta?

No final deste século, a temperatura média da superfície terrestre provavelmente vai exceder um aumento médio de 1,5°C até 2100, em relação à média de 1850 a 1900. Isso vale para todos os cenários considerados exceto o mais otimista, no qual emissões de gases estufa sofrem cortes drásticos, atingindo um pico daqui a dez anos e caindo para zero 50 anos depois.

Em um cenário intermediário, no qual as emissões dobram até 2060 e recuam a um nível maior que o atual antes de 2100, a temperatura provavelmente excederá um aumento de 2°C, limite considerado perigoso por cientistas.

Manifestantes gritam em protesto em Estocolmo, onde foi divulgado o novo relatório do painel do clima da ONU

No pior cenário, um no qual a humanidade triplica a emissão de gases do efeito estufa até 2100, a temperatura média provavelmente subiria até 4,8°C.

A palavra “provavelmente”, na linguagem do painel, significa uma propensão acima de 66%, a melhor confiabilidade possível para projeções futuras, baseadas em modelos matemáticos de simulação do clima.

Ao avaliar o efeito das emissões de gases estufa no clima passado, o relatório é bem mais contundente. O texto afirma ser “extremamente provável” (95% de certeza) que o aquecimento observado desde o meio do século 20 seja resultado da influência humana no clima. O último relatório, de 2007, dizia que o mesmo era “muito provável” (90%).


O relatório também afirma com “alta confiabilidade” que o aquecimento dos oceanos domina o aumento da energia armazenada no sistema climático. Mais de 90% da energia acumulada pela Terra desde 1971 foi armazenada nos mares, diz o relatório.

“À medida que os oceanos se aquecem e as geleiras e plataformas de gelo se reduzem, o nível do mar continuará a aumentar, mas a uma taxa mais rápida do que aquela que experimentamos ao longo dos últimos 40 anos”, afirmou Qin-Dahe, co-presidente do Grupo 1 do IPCC.

O aumento do nível do mar entre 1900 e 2012 foi de 19 cm. Mesmo dentro do melhor cenário, com uma queda brusca de emissões, esse número pode quase triplicar, em razão de os oceanos já terem absorvindo muita temperatura. A hipótese mais pessimista dentro do pior cenário vê um aumento de 82 cm, que impactaria uma população de um tamanho da ordem de dezenas de milhões.

Uma das razões para a revisão dos números é que os modelos lidam melhor agora com o derretimento da Groenlândia e do oeste da Antártida. Antes, os números eram basicamente uma projeção da expansão térmica da água oceânica, que continua sendo a maior causa do aumento do nível do mar.


A questão da desaceleração do aquecimento global nos últimos 15, o “hiato” da mudança climática, tomou grande parte do tempo de discussão dos delegados do IPCC que se reuniram nesta semana. O texto final do relatório lidou com o fenômeno afirmando que a tempereatura média global de superfície “exibe substancial variabilidade interanual e decadal” apesar de um “robusto aquecimento multi-decadal” verificado.

“Como exemplo, a taxa de aquecimento ao longo dos últimos 15 anos (1998-2012); 0,05°C por década), que começa com um forte El Niño, é menor do que a taxa calculada desde de 1951 (1951-2012; 0,12°C por década)”, afirma o relatório.

Apesar de haverem estudos recentes indicando que o calor da atmosfera está sendo roubado por águas oceânicas profundas, o relatório não menciona esse fenômeno. “É preciso colher mais evidências disso”, diz Thomas Stocker, o outro co-presidente do Grupo 1 do IPCC.

Editoria de Arte/Folhapress



Manifestantes do grupo Avaaz usam gangorra gigante para demonstrar os 95% de certeza sobre a culpa do homem nas mudanças climáticas; de um lado fica a maioria dos cientitas e, de outro, um homem com uma maleta de dinheiro

Faixa em protesto em Estocolmo diz: “o debate acabou”, em referência ao novo relatório do painel do clima, que aumenta o grau de certeza sobre a responsabilidade do homem na mudança climática

Protesto em Estocolmo, na Suécia, pede ação imediata para conter efeitos da mudança climática

*   *   *
24/09/2013 – 02h53

Previsão de aumento do nível do mar piora



A julgar pela versão preliminar do quinto relatório do IPCC (painel do clima da ONU), a ser divulgado na próxima sexta-feira, a principal atualização nas projeções da mudança climática não serão relacionadas ao aumento de temperatura, mas sim do nível do mar.

Quando o quarto relatório, que projetava um aumento de 18 cm a 59 cm, saiu em 2007, muitos cientistas o consideraram conservador. O esboço do novo texto fala agora de uma margem entre 28 cm e 89 cm de aumento até 2100.

Uma mudança da escala de dezenas de centímetros na projeção não é pequena. A margem de erro para o cenário mais pessimista chega a quase um metro de altura, o que afetaria áreas habitadas por algumas dezenas de milhares de pessoas.

Editoria de Arte/Folhapress

O principal fenômeno por trás do aumento do nível do mar é o fato de que a água aumenta de volume quando está mais quente –e os oceanos absorvem boa parte do calor aprisionado na atmosfera.

“A expansão termal é a maior contribuição para o aumento futuro do nível do mar, sendo responsável por 30% a 55% do total, com a segunda maior contribuição vindo das geleiras”, afirma a versão preliminar do sumário político do documento.

“Há alta confiabilidade em que o aumento do derretimento da superfície da Groenlândia vai exceder a elevação da queda de neve, levando à contribuição positiva [aumentando o nível do mar].”

Se o novo relatório do IPCC será mais contundente ao dizer que o impacto do aquecimento sobre o nível do mar será maior, ele ainda tem limitações quando tenta especificar quão maior.
Um dos problemas por trás das projeções do painel do clima é que o balanço do derretimento e da formação de gelo na Antártida ainda é difícil de prever.

Apesar de a maioria das observações e dos modelos de computador alertar para o derretimento da parte ocidental do continente gelado, o aumento de precipitação na Antártida oriental deixa o cenário incerto.

Divulgação/Nasa/France Presse
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira

“Há uma cofiabilidade média de que nevascas na Antártida vão aumentar, enquanto o derretimento de superfície continuará pequeno, resultando numa contribuição negativa [de redução do nível do mar]”, diz o texto.

Um avanço do novo relatório é a tentativa de lidar melhor com as incertezas regionais. Por exemplo, apesar de a Groenlândia ter a massa de gelo terrestre que mais vai contribuir para a elevação do mar, lá ele não deve subir.

Como a massa de gelo da região vai diminuir, ela perde força de gravidade que puxa água na direção da costa. E o mesmo deve ocorrer com a Península Antártica.

“O efeito gravitacional do derretimento da Antártida, combinado com o efeito da dinâmica de correntes e a temperatura abaixo da média, deve deixar o nível do mar abaixo da média na ponta da América do Sul”, diz Aimée Slangen, da Universidade de Utrecht, na Holanda.

“Indo para o Equador, o efeito gravitacional se reverte, deixando o nível do mar acima da média.”

Slangen publicou no ano passado um estudo sobre diferenças regionais na subida da linha d’água, mas diz que ainda é difícil fazer um mapa preciso. “Precisamos entender o papel das plataformas de gelo, das geleiras, o efeito térmico e saber como a crosta vai se mover”, diz.

O último esboço do relatório afirma que, em 95% das áreas oceânicas do mundo, o nível do mar vai subir, e que 70% das áreas costeiras terão um aumento com desvio de menos de 20% da média.

Para os cientistas, porém, é preciso aprimorar o mapeamento. “Para uma cidade ou um país, a média mundial não importa, é preciso saber o que está acontecendo logo à porta de casa”, diz Slangen.

*   *   *
26/09/2013 – 20h04

Relatório eleva o tom de alerta sobre o aquecimento global


O IPCC (painel do clima da ONU) divulgará na manhã desta sexta-feira (27) um relatório que eleva o nível de alerta para o aquecimento global. Apesar de a desaceleração na subida de temperaturas nos últimos 15 anos ter tomado bom tempo da discussão, a nova versão do “Sumário para Formuladores de Política” do documento deve indicar que as alterações climáticas têm sido mais acentuadas e mais rápidas do que se esperava, não o inverso.

As discussões finais sobre o conteúdo do documento ainda ocorrem a portas fechadas nesta madrugada em Estocolmo, mas algumas questões cruciais já foram resolvidas. A versão final do texto do Grupo 1 do IPCC –responsável pela física do clima– deve ganhar então um tom acima do que a daquela enviada aos governos para comentários em junho.

Algumas nações, incluindo o Brasil, haviam pedido que o documento excluísse a menção ao “hiato” de 15 anos, mas ela será mantida, acompanhada de explicação.

“Está escrito que esta descontinuidade decorre de um fenômeno atípico em águas no Pacífico e que um período tão curto não pode ser usado para projeções de longo prazo”, disse à Folha um dos cientistas brasileiros presentes na discussão.

Christian Åslund/Greenpeace
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo

O debate sobre esse problema tomou tanto tempo que, no início do terceiro dos quatro dias de trabalho, o painel só tinha avançado 30% da pauta. “Entendo a frustração dos cientistas em gastar tanto tempo nisso, mas eles não tinham a opção evitar essa discussão, que se tornou pública”, afirmou a observadora de uma ONG presente à reunião.

“O que vemos é que níveis não tão altos de aquecimento estão causando impactos maiores do que aqueles que esperávamos, como no derretimento do gelo do Ártico e da Groenlândia ou no aumento do nível do mar.”

Em relação ao relatório anterior do IPCC, publicado em 2007, muitas das novidades têm a ver com o grau de confiabilidade de fenômenos conhecidos. A certeza de que o aquecimento global é causado pelos humanos, por exemplo, aumentou de 90% para 95%. Houve até uma proposta derrubada de aumentar o número para 99%, relata um delagado holandês.

Algumas tentativas de aguar o esboço inicial também falharam. Ao descrever as principais fontes de gases do efeito estufa, delegados sauditas queriam que o texto equiparasse em gravidade o desmatamento e a agricultura à queima de combustíveis fósseis, mas foram derrotados. Apesar de não ter grandes mudanças de conteúdo, a versão final do texto sairá com “palavras mais fortes”, disse outro observador.

A divulgação da versão definitiva do “Sumário para Formuladores de Políticas” do Grupo 1 do IPCC está marcada para as 5h00 desta sexta-feira. A versão completa do relatório, incluindo o “Sumário Técnico” destinado a cientistas, ocorre na segunda-feira.

*   *   *
26/09/2013 – 13h20

Veja dez perguntas para entender as discussões sobre clima na ONU


O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) divulga na sexta-feira em Estocolmo, na Suécia, um novo relatório no qual pretende estabelecer, com o maior grau de certeza já obtido, o papel das atividades humanas nas mudanças climáticas.

Para ajudar a entender melhor o tema, a BBC preparou uma lista com dez perguntas e respostas sobre a questão:

O que é mudança climática?

O clima do planeta está mudando constantemente ao longo do tempo geológico. A temperatura média global hoje é de cerca de 15ºC, mas as evidências geológicas sugerem que ela já foi muito maior ou muito menor em outras épocas no passado.

Entretanto, o atual período de aquecimento está ocorrendo de maneira mais rápida do que em muitas ocasiões no passado. Os cientistas estão preocupados de que a flutuação natural, ou variabilidade, está dando lugar a um aquecimento rápido induzido pela ação humana, com sérias consequências para a estabilidade do clima no planeta.

O que é ‘efeito estufa’?

O efeito estufa se refere à maneira como a atmosfera da Terra “prende” parte da energia do Sol. A energia solar irradiada de volta da superfície da Terra para o espaço é absorvida por gases atmosféricos e reemitida em todas as direções.

A energia que irradia de volta para o planeta aquece tanto a baixa atmosfera quanto a superfície da Terra. Sem esse efeito, a Terra seria 30ºC mais fria, deixando as condições no planeta hostis para a vida.

Os cientistas acreditam que estamos contribuindo para o efeito natural de estufa com gases emitidos pela indústria e pela agricultura, absorvendo mais energia e aumentando a temperatura.

O mais importante desses gases no efeito estufa natural é o vapor de água, mas suas concentrações mostram pouca mudança. Outros gases do efeito estufa incluem dióxido de carbono, metano e óxido nitroso, que são liberados pela queima de combustíveis fósseis. O desmatamento contribui para seu aumento ao eliminar florestas que absorvem carbono.

Desde o início da revolução industrial, em 1750, os níveis de dióxido de carbono (CO2) aumentaram mais de 30%, e os níveis de metano cresceram mais de 140%. A concentração de CO2 na atmosfera é agora maior do que em qualquer momento nos últimos 800 mil anos.

Qual é a evidência sobre o aquecimento?

Os registros de temperatura, a partir do fim do século 19, mostram que a temperatura média da superfície da Terra aumentou cerca de 0,8ºC nos últimos cem anos. Cerca de 0,6ºC desse aquecimento ocorreu nas últimas três décadas.

Dados de satélites mostram um aumento médio nos níveis do mar de cerca de 3 milímetros por ano nas últimas décadas. Uma grande proporção da mudança nos níveis do mar se deve à expansão dos oceanos pelo aquecimento. Mas o derretimento das geleiras de montanhas e das camadas de gelo polar também contribuem para isso.

A maioria das geleiras nas regiões temperadas do mundo e na Península Antártica estão encolhendo. Desde 1979, registros de satélites mostram um declínio dramático na extensão do gelo no Ártico, a uma taxa anual de 4% por década. Em 2012, a extensão de gelo alcançou o menor nível já registrado, cerca de 50% menor do que a média do período entre 1979 e 2000.

O manto de gelo da Groenlândia verificou um derretimento recorde nos últimos anos. Se a camada inteira, de 2,8 milhões de quilômetros cúbicos, derretesse, haveria um aumento de 6 metros nos níveis dos mares.

Dados de satélites mostram que a capa de gelo do oeste da Antártica também está perdendo massa, e um estudo recente indicou que o leste da Antártica, que não havia mostrado tendências claras de aquecimento ou resfriamento, também pode ter começado a perder massa nos últimos anos. Mas os cientistas não esperam mudanças dramáticas. Em alguns lugares, a massa de gelo pode aumentar, na verdade, com as temperaturas em alta provocando mais tempestades de neve.

Os efeitos de uma mudança climática também podem ser vistos na vegetação e nos animais terrestres. Isso inclui também o florescimento e frutificação precoces em plantas e mudanças nas áreas ocupadas pelos animais terrestres.

Há uma pausa no aquecimento?

Alguns especialistas argumentam que desde 1998 não houve um aquecimento global significativo, apesar do aumento contínuo nos níveis de emissão de CO2. Os cientistas tentam explicar isso de várias formas.

Isso inclui: variações na emissão de energia pelo Sol, um declínio no vapor de água atmosférico e uma maior absorção de calor pelos oceanos. Mas até agora, não há um consenso geral sobre o mecanismo preciso por trás dessa pausa.

Céticos destacam essa pausa como um exemplo da falibilidade das previsões baseadas em modelos climáticos computadorizados. Por outro lado, os cientistas do clima observam que o hiato no aquecimento ocorre em apenas um dos componentes do sistema climático – a média global da temperatura da superfície -, e que outros indicadores, como o derretimento do gelo e as mudanças na fauna e na flora demonstram que a Terra continua a se aquecer.

Quanto as temperaturas vão aumentar no futuro?

Em seu relatório de 2007, o IPCC previu um aumento da temperatura global entre 1,8ºC e 4ºC até 2100.

Mesmo que as emissões de gases do efeito estufa caiam dramaticamente, os cientistas dizem que os efeitos continuarão, porque partes do sistema climático, particularmente os grandes corpos de água e gelo, podem levar centenas de anos para responder a mudanças na temperatura. Também leva décadas para que os gases do efeito estufa sejam removidos da atmosfera.

Quais serão os impactos disso?

A escala do impacto potencial é incerto. As mudanças podem levar à escassez de água potável, trazer mudanças grandes nas condições para a produção de alimentos e aumentar o número de mortes por inundações, tempestades, ondas de calor e secas.

Os cientistas preveem mais chuvas em geral, mas dizem que o risco de seca em áreas não costeiras deverá aumentar durante os verões mais quentes. Mais inundações são esperadas por causa de tempestades e do aumento do nível do mar. Deverá haver, porém, muitas variações regionais nesse padrão.

Os países mais pobres, que estão menos capacitados para lidar com a mudança rápida, deverão sofrer mais.

A extinção de plantas e animais está prevista, por conta de mudanças nos habitats mais rápidas do que a capacidade de adaptação das espécies à estas. A Organização Mundial da Saúde (OMS) advertiu que a saúde de milhões de pessoas pode ser ameaçada por aumentos nos casos de malária, doenças transmitidas pela água e malnutrição.

O aumento na absorção de CO2 pelos oceanos pode levá-los a se tornar mais ácidos. Esse processo de acidificação em andamento poderia provocar grandes problemas para os recifes de corais, já que as mudanças químicas impedem os corais de formar um esqueleto calcificado, que é essencial para sua sobrevivência.

O que não sabemos?

Os modelos computadorizados são usados para estudar a dinâmica do clima na Terra e fazer projeções sobre futuras mudanças de temperatura. Mas esses modelos climáticos diferem sobre a “sensibilidade climática” – a quantidade de aquecimento ou esfriamento que ocorre por conta de um fator específico, como a elevação ou a queda na concentração de CO2.

Os modelos também diferem na forma como expressam “feedback climático”.

O aquecimento global deverá provocar algumas mudanças com probabilidade de criar mais aquecimento, como a emissão de grandes quantidades de gases do efeito estufa com o derretimento do permafrost (gelo eterno da superfície da Terra). Isso é conhecido como feedback climático positivo (no sentido de adicionar calor).

Mas também existem os feedbacks negativos, que compensam o aquecimento. Por exemplo, os oceanos e a terra absorvem CO2 como parte do ciclo do carbono.

A questão é saber qual o resultado final da soma dessas variáveis.

As inundações vão me atingir?

Detalhes vazados do relatório a ser apresentado nesta semana indicam que no pior cenário traçado pelo IPCC, com o maior nível de emissões de dióxido de carbono, os níveis dos mares no ano 2100 poderiam subir até 97 centímetros.

Alguns cientistas criticam os modelos usados pelo IPCC para calcular esse aumento. Usando o que é chamado de modelo semiempírico, as projeções para o aumento do nível do mar podem chegar a 2 metros. Nessas condições, 187 milhões de pessoas a mais no mundo sofreriam com inundações.

Mas o IPCC deve dizer que não há consenso sobre o enfoque semiempírico e manterá o dado pouco inferior a 1 metro.

O que vai acontecer com os ursos polares?

O estado dos polos Norte e Sul tem sido uma preocupação crescente para a ciência, conforme os efeitos do aquecimento global se tornam mais intensos nessas regiões.

Em 2007, o IPCC disse que as temperaturas no Ártico aumentaram quase duas vezes mais que a média global nos últimos cem anos. O relatório destacou que a região pode ter uma grande variação, com um período quente observado entre 1925 e 1945.

Nos rascunhos do relatório desta semana, os cientistas dizem que há uma evidência maior de que as camadas de gelo e as geleiras estão perdendo massa e que a camada de gelo está diminuindo no Ártico.

Em relação à Groenlândia, que por si só tem a capacidade de aumentar os níveis globais dos mares em 6 metros, o painel diz estar 90% certo de que a velocidade da perda de gelo entre 1992 e 2001 aumentou seis vezes no período entre 2002 e 2011.

Enquanto a extensão média do gelo no Ártico caiu cerca de 4% por década desde 1979, o gelo na Antártica aumentou até 1,8% por década no mesmo período.

Para o futuro, as previsões são bastante dramáticas. No pior cenário traçado pelo IPCC, um Ártico sem gelo no verão é provável até o meio deste século.

E a perspectiva para os ursos polares e para outras espécies que vivem nesse ambiente não é bom, segundo disse à BBC o professor Shang-Ping Xie, do Instituto de Oceanografia da Universidade da Califórnia em San Diego.

“Haverá bolsões de gelo marítimo em alguns mares marginais. Esperamos que os ursos polares sejam capazes de sobreviver no verão nesses bolsões de gelo remanescentes”, disse.

Qual a credibilidade do IPCC?

A escala global do envolvimento científico com o IPCC dá uma ideia do peso dado ao painel.

Dividido em três grupos de trabalho que analisam a ciência física, os impactos e as opções para limitar as mudanças climáticas, o painel envolve milhares de cientistas de todo o mundo.

O relatório a ser apresentado em Estocolmo tem 209 autores coordenadores e 50 revisões de editores de 39 países diferentes.

O documento é baseado em cerca de 9.000 estudos científicos e 50 mil comentários de especialistas.

Mas em meio a esse conjunto enorme de dados, as coisas podem não sair como o esperado.

No último relatório, publicado em 2007, houve um punhado de erros que ganharam grande projeção, entre eles a afirmação de que as geleiras do Himalaia desapareceriam até 2035. Também houve erro na projeção da porcentagem do território da Holanda que ficaria sob o nível do mar.

O IPCC admitiu os erros e explicou que em um relatório de 3 mil páginas é sempre possível que haja alguns pequenos erros. A afirmação sobre o Himalaia veio da inclusão de uma entrevista que havia sido publicada pela revista New Scientist.

Em 2009, uma revisão da forma como o IPCC analisa as informações sugeriu que o painel seja mais claro no futuro sobre as fontes de informação usadas.

O painel também teve a reputação manchada pela associação com o escândalo provocado pelo vazamento de e-mails trocados entre cientistas que trabalhavam para o IPCC, em 2009.

As mensagens pareciam mostrar algum grau de conluio entre os pesquisadores para fazer com que os dados climáticos se encaixassem mais claramente na teoria das mudanças climáticas induzidas pelo homem.

Porém ao menos três pesquisas não encontraram evidências para apoiar essa conclusão.

Mas o efeito final desses eventos sobre o painel foi o de torná-lo mais cauteloso.

Apesar de o novo relatório possivelmente enfatizar uma certeza maior entre os cientistas de que as atividades humanas estão provocando o aquecimento climático, em termos de escala, níveis e impactos a palavra “incerteza” deverá aparecer com bastante frequência.

*   *   *
23/09/2013 – 03h00

Análise: Com IPCC na defensiva, novo relatório ainda tem combustível para polêmica



Seis anos e sete meses atrás, quando lançou o documento “Mudança Climática 2007: A Base da Ciência Física”, a reputação do IPCC estava no auge. Naquele mesmo ano viria o Prêmio Nobel da Paz, como reconhecimento pela façanha de impor o tema da mudança do clima à agenda política mundial.

A autoridade do grupo formado pela ONU 18 anos antes era tamanha que a climatologista americana Susan Solomon, coordenadora do texto de 21 páginas, deu o passo arriscado: na entrevista coletiva em Paris, repetiu com ênfase a avaliação de que o aquecimento global era “inequívoco”.

Brasil ataca hiato do aquecimento global

Foi a resposta retórica e política daqueles cientistas à repercussão então alcançada pelo grupo dos chamados “céticos” (ou negacionistas). Depois disso, o IPCC nunca mais seria o mesmo.

Em novembro de 2009, um mês antes da Conferência do Clima de Copenhague, hackers invadiram computadores de uma universidade britânica e surrupiaram mensagens eletrônicas entre climatologistas do IPCC que permitia a impressão de que houvera manipulação de dados.

Os autores foram inocentados, mas uma brecha se abrira no prestígio do painel. Ela se agravou dois meses depois, quando veio à tona que o relatório continha erro grosseiro sobre derretimento de geleiras no Himalaia.

Desde então, o IPCC se manteve na defensiva. Criou critérios mais rígidos sobre o tipo de dados científicos que poderiam fundamentar suas previsões. O resultado desse retraimento transparecerá no “Quinto Relatório de Avaliação” (AR5), cujo “Sumário para Formuladores de Políticas” entra agora em sua fase final de redação.

Parece pouco provável que o sumário repita juízos de valor como o contido no adjetivo “inequívoco”. Ainda assim, o documento contém combustível para polêmica.

A primeira coisa a prestar atenção no relatório, além da aparente redução na taxa de aquecimento, é a maneira pela qual lidará com a situação da calota de gelo sobre o oceano Ártico. O IPCC deve reafirmar como muito alta a probabilidade de que ela continue a encolher a cada verão do hemisfério Norte.

O problema é que, neste final do verão setentrional, o gelo no polo Norte se estende por uma área 50% maior (5,1 milhões de km2) do que há um ano. Em 2012, ela caíra para 3,4 milhões de km².

Editoria de Arte/Folhapress

Como se pode ver no gráfico, porém, todos os cinco últimos anos viram a área ficar muito abaixo da média de 1981 a 2010. É dessa escala temporal de transformações (décadas) que se ocupam as projeções do IPCC, não da variação de ano para ano.

O segundo ponto a atentar é a elevação do nível do mar. vAssim como ocorre com a atmosfera, o efeito estufa também esquenta o oceano. Isso expande seu volume, que também aumenta com o derretimento de geleiras sobre terra firme (como as da Groenlândia).

No caso do “Quarto Relatório de Avaliação”, de 2007, o IPCC terminou acusado de ser conservador demais na projeção de que o mar se elevaria entre 18 cm e 59 cm até o ano 2100, pois alguns estudos já indicavam mudanças de até mais de 1 m.

Tudo indica que o limite superior da nova previsão do painel deve chegar perto disso (versões preliminares apontam até 97 cm). Seria o suficiente para inundar as moradias de dezenas de milhões de pessoas no mundo.

O número, sozinho, parecerá alarmante para muitas pessoas. Pode ou não vir acompanhado, na sua divulgação, de ponderações sóbrias– como assinalar o prazo de 86 anos (de 2014 a 2100) disponível para adaptação.

Se não contornarem com muita habilidade essas armadilhas, os cientistas e porta-vozes do IPCC se arriscam a desperdiçar a oportunidade de recompor sua credibilidade como corpo científico e vê-lo, mais uma vez, desqualificado como militante da causa alarmista.

*   *   *
23/09/2013 – 19h19

IPCC promete relatório sem viés e com revisão mais rigorosa



O chefe do conjunto de climatologistas que escreveu a mais nova atualização do IPCC sobre a física do clima, o Grupo de Trabalho 1, prometeu ontem entregar um relatório com uma visão “sem precedentes e não enviesada sobre o estado do sistema climático”.

Abrindo a primeira sessão de trabalhos que vai finalizar a primeira das três partes do AR5, o quinto relatório de avaliação do painel do clima da ONU, Thomas Stocker diz ter levado em consideração os mais de 50 mil comentários que o documento recebeu das delegações de governos, que já tiveram acesso ao “sumário para formuladores de políticas” do relatório. “Não conheço nenhum outro documento que tenha passado por um escrutínio assim”.

Após uma última rodada de discussões, a versão final do relatório sai nesta sexta-feira, e a versão provisória do documento indica que a certeza probabilística sobre a culpa das atividades humanas pelo aquecimento global deve subir de 90% para 95%, em relação ao que o IPCC concluíra em 2007.

Qin Dahe, co-chefe do Grupo 1 do IPCC, ressaltou, porém, que apesar de incertezas permanecerem em alguns aspectos do relatório, o papel humano no clima não está sendo revisado. “A evidência científica da mudança climática antropogênica se fortaleceu ano a ano, deixando poucas incertezas sobre as consequências da inação.”

Uma versão vazada do relatório técnico do Grupo 1 do IPCC, documento mais completo que o sumário para políticos, indica que há espaço para os cientistas explicarem a recente pausa no aquecimento global: o período dos últimos 15 anos em que a subida de temperaturas se desacelerou. Uma versão do documento obtida pela agência de notícias Reuters indica que “períodos de hiato de 15 anos são comuns” no registro climático. A menção ao hiato é um dos pontos criticados pelo governo brasileiro no relatório.

*   *   *

25/09/2013 – 02h57

Para painel do clima, nuvens devem elevar aquecimento



O papel das nuvens na mudança climática ainda é um assunto cheio de incertezas, mas o próximo relatório do IPCC (painel do clima da ONU) dá um passo na direção de um veredito.

Segundo uma versão preliminar do documento, o que a ciência mostra até agora é que a alteração que o aquecimento global provoca na dinâmica de formação de nuvens contribui para que o calor se amplifique.

A versão provisória do AR5, o quinto relatório do IPCC, a ser divulgado na sexta, reconhece que as nuvens têm efeitos paradoxais sobre o clima, algumas delas fazendo a Terra reter mais calor, outras fazendo o planeta refletir radiação solar.

O texto porém, afirma que “o sinal do balanço de feedback radiativo é provavelmente positivo”. Em outras palavras, os cientistas têm 66% de certeza de que a mudança climática cria um ciclo vicioso, no qual nuvens aquecem um planeta que cria mais nuvens causadoras de aquecimento.

Ainda não é um veredito com grau de certeza acachapante como o atribuído aos gases-estufa –a culpa do aquecimento global é da queima de combustíveis fósseis por ação humana com 95% de certeza, diz o relatório. Mas é uma grande evolução desde o último relatório, o AR4, em 2007, que se declarou incapaz de chegar a um consenso sobre a questão.

Editoria de Arte/Folhapress

“O fato de o AR4 ter botado o dedo na ferida e dito que a parte de aerossóis e nuvens era a mais crítica fez com que milhares de cientistas voltassem pesquisas para essa área”, diz Paulo Artaxo, climatologista da USP e coautor do capítulo dedicado ao tema no novo relatório.

O maior problema era –e ainda é– saber se as nuvens baixas têm efeito positivo ou negativo sobre o aquecimento. Por estarem sob mais pressão, elas ficam mais compactas e ajudam a refletir luz solar. Já o vapor comum ou as nuvens mais altas (rarefeitas) retêm calor.

O efeito das nuvens baixas era um dos aspectos mais explorados por grupos que negam o aquecimento global causado pelo homem.

Ainda que o grau de certeza da nova resposta esteja abaixo do máximo, a alegação de que as nuvens vão salvar o planeta não tem obtido sustentação.

O problema agora é projetar o futuro. Para isso, é preciso usar modelos matemáticos de previsão, que ainda não estão prontos para tal.

Uma das principais razões para essa limitação, segundo Artaxo, é que a resolução dos modelos ainda é grosseira demais para tratar de nuvens.

Uma célula do planeta em um modelo é como um pixel de 50 km de largura, mas nuvens são menores que isso, podendo ter 100 m ou menos. Os cientistas precisam então simplificar a representação das nuvens em seus modelos matemáticos do clima.

O novo relatório também descarta uma teoria que ganhou espaço entre críticos do IPCC: a de que a formação de nuvens pudesse estar sendo afetada por uma alteração sazonal na taxa de raios cósmicos. Defendida pelo físico dinamarquês Henrik Svensmark, a hipótese seria uma explicação alternativa para o aquecimento não relacionada aos combustíveis fósseis.

Segundo Artaxo, o texto fez o maior esforço possível para não deixar nenhum aspecto de fora. “Você pode até achar que uma ou outra coisa é bobagem, mas não importa. É preciso analisar as evidências experimentais para verificar se uma coisa que parece a maior loucura do mundo é verdadeira ou não.”

*   *   *

23/09/2013 – 02h59

Brasil ataca ‘hiato’ do aquecimento global



Nos últimos 15 anos, a temperatura média da Terra parou de subir tão rápido quanto antes, mas isso não significa que a mudança climática esteja freando. Essa é a posição do governo brasileiro, que defenderá retirar do mais importante documento internacional sobre clima a menção ao chamado “hiato” do aquecimento global.

O encontro que define o conteúdo final do quinto relatório do IPCC (Painel Intergovernamental de Mudança Climática) começa hoje em Estocolmo, na Suécia, quando se reúne o Grupo de Trabalho 1 da instituição –aquele encarregado de avaliar a ciência física do clima.

O relatório técnico do painel já está pronto, mas só será publicado após a edição final do “Sumário para Formuladores de Políticas”, único anexo do relatório sobre o qual governos podem opinar antes da divulgação, marcada para a próxima sexta (27).

Editoria de Arte/Folhapress

Em junho, um esboço final dessa parte do relatório foi enviado a delegações para comentários. O texto, que vazou para a imprensa, incluía uma frase com referência ao hiato: “A taxa de aquecimento ao longo dos últimos 15 anos (1998-2012; 0,05°C por década) é menor do que a tendência desde 1951 (1951-2012; 0,12°C por década)”.

Editoria de Arte/Folhapress

Explorada por negacionistas da mudança climática, essa flexão no gráfico de temperatura é descrita por alguns como mero ruído estatístico numa tendência clara de aquecimento no longo prazo.

Autores do sumário não deveriam ter incluído um recorte arbitrário de 15 anos num documento que avalia um trajeto só visível em escala maior, defende um dos representantes do governo brasileiro perante o IPCC.

“Alguém escolheu para isso um determinado ano [1998] que foi um ano de El Niño e era mais quente que o padrão”, diz Gustavo Luedemann, coordenador de mudanças globais de clima do Ministério da Ciência. “Isso é obviamente um erro metodológico e deixa o documento um menos contundente.”

Luedeman, porém, considera a menção ao hiato apenas um equívoco pontual e diz crer que o relatório é incisivo ao culpar a humanidade pela mudança climática.

Ainda assim, cientistas tentam entender por que o gráfico de temperaturas se achatou. Segundo Ed Hawkins, climatólogo da Universidade de Reading (Inglaterra) que tem estudado o fenômeno, há vários motivos, incluindo queda de atividade solar e erupções vulcânicas recentes, que tem efeito resfriador sobre a Terra.

“O terceiro fator é a variabilidade natural do clima, com mudanças importantes no Pacífico tropical”, diz. “A energia extra entrando no sistema climático provavelmente está sendo armazenada no oceano profundo.”

*   *   *

26/09/2013 – 02h54

Oceano Ártico terá verão sem gelo em 2050, diz relatório da ONU



Quando o biólogo sueco Tom Arnbom desembarcou neste verão na costa do mar de Laptev, na Rússia, para coletar DNA de morsas, notou que os enormes mamíferos tinham um medo incomum de ursos-polares, animal que normalmente não os ataca.

Após alguns dias no local, o cientista percebeu que, sem terem gelo marinho como base de caça, os ursos não alcançavam focas e outras presas prediletas. A alternativa era tentar abocanhar filhotes de morsa, com alto risco de serem pegos pelos adultos.

Alex Argozino/Editoria de Arte/Folhapress

Esse é um dos impactos que o declínio do gelo marinho no Ártico provocou nos últimos anos. O aumento do ritmo de degelo na região é um dos principais pontos a serem revistos no próximo relatório do IPCC (painel do clima da ONU, formado por milhares de cientistas).

Amanhã, a primeira parte do texto, dedicada à física do clima, será divulgada.

“É muito provável que a cobertura de gelo marinho no Ártico continue a encolher e afinar”, afirma o texto preliminar do documento. “Sob o cenário RCP8.5 [hipótese mais pessimista do relatório], um oceano Ártico quase sem gelo provavelmente será visto antes do meio do século.”

O painel informa que é possível dizer com “alta confiabilidade” que o Ártico vai se aquecer mais rápido que outras regiões e revê para pior o seu prognóstico. Há menos de uma década, porém, o maior relatório sobre o tema, o “Arctic Climate Impact Assessment”, estimava que o temido “setembro sem gelo” só viria no fim do século.

O gelo marinho ajuda a refletir radiação solar. Com o degelo e mais área de águas escuras para absorver calor, a escassez de superfície branca vai retroalimentar a mudança climática, diz o IPCC.

Arnbom, hoje um pesquisador a serviço da ONG ambientalista WWF, trabalhou por muitos anos na região para o governo da Suécia, país que tem 15% de seu território no círculo ártico.
“O que eu vi no Ártico 40 anos atrás não existe mais. É impressionante ver quão rápido se foi. Estava lá todos os anos. Alguns eram mais frios que outros, e a população de animais variava, mas em 2007 me dei conta de que os impactos eram bem visíveis.”

Naquele ano, todo o gelo em alto mar derreteu na região de Laptev, e morsas que costumavam se espalhar em pedaços de gelo marinho migraram para uma única praia, formando uma concentração de mais de 50 mil indivíduos.

Norbert Rosing/National Geographic Stock/WWF Canadá

Morsas amontoadas no Ártico; derretimento do gelo reduz área disponível para os bichos, o que pode causar a morte dos filhotes prensados pelos adultos em espaços pequenos

O local, afastado das áreas de alimentação ricas em moluscos, era pequeno demais para abrigar tantos animais, e muitos morriam esmagados. O fenômeno se repetiu depois, em 2011, com uma concentração estimada em 100 mil morsas.

Ursos e morsas, porém, não são os únicos animais da região a terem mudado de comportamento. Segundo a WWF, a região é habitada por 40 comunidades tradicionais, que enfrentam escassez na caça e pesca artesanal.

E outro grupo de humanos, vendo novas rotas de navegação se abrirem, enxerga agora o potencial econômico da região como rota de transporte marítimo, pesca industrial e fonte de petróleo –o benefício vem justamente para a indústria cujo produto é apontado como causa da mudança climática.

A gigante russa Gazprom, que estabeleceu a primeira plataforma de petróleo “offshore” da região, teve suas instalações no mar de Pechora invadidas por ativistas do Greenpeace na semana passada. Trinta ambientalistas, incluindo uma brasileira, estão presos.

A ONG WWF também intensificou sua atividade na região. O DNA de morsas coletado por Arnbom será usado para pesquisas em universidades dinamarquesas, mas ainda está parado na alfândega russa.

Brazil’s ‘tiger family’ fights to keep custody of house-trained big cats from gov’t agents (Washington Post)

(Renata Brito/ Associated Press ) – Ary Borges feeds his tiger named Dan at his home in Maringa, Brazil, Thursday, Sept. 26, 2013. Borges is in a legal battle with federal wildlife officials to keep his endangered animals from undergoing vasectomies and being taken away from him. He defends his right to breed the animals and says he gives them a better home than they might find elsewhere in Brazil.

By Associated Press, Updated: Friday, September 27, 11:28 AM

MARINGA, Brazil — Dan slurped desperately on his pink nursing bottle and spilled milk all over the place, while his brother Tom patiently waited to take a swim in the family pool.

It would be a typical family scene if not for the fact that Dan and Tom tip the scales at 700 pounds, have claws that could slice a man in two and were raised along with seven other tigers sleeping in the beds of Ary Borges’ three daughters.

The big cats still amble about his humble home in the middle of an industrial neighborhood in this southern Brazil city, even if experts say the situation is “crazy” and sure to eventually lead to a mauling, though one has yet to occur.

Borges also has two lions, a monkey, and a pet Chihuahua named Little inside his makeshift animal sanctuary, where man and beast live together in his spacious red-dirt compound, separated from the outside world by tall metal fences and high wooden walls.

The Brazilian family is now locked in a legal dispute for the cats, with federal wildlife officials working to take them away. While Borges does have a license to raise the animals, Brazilian wildlife officials say he illegally bred the tigers, creating a public danger.

Borges says it all started in 2005 when he first rescued two abused tigers from a traveling circus. He defends his right to breed the animals and argues he gives them a better home than they might find elsewhere in Brazil.

“Sadly there are so many animals dying in zoos that have no oversight. My animals are treated extremely well … we’re preserving and conserving the species,” he said. “We have a great team of veterinarians. We give them only the best, but we’re being persecuted.”

Ibama, Brazil’s environmental protection agency that also oversees wildlife, declined repeated requests for comment.

The agency is working through courts to force Borges to have the male tigers undergo vasectomies so they can’t reproduce. It also wants his caretaker license confiscated and to obtain the cats. Borges appealed and the matter is pending before a federal court.

Borges has strong support in Maringa for his cause, and earlier this year the city council passed a measure that banned vasectomies on wild animals within city limits.

Next door to the tiger compound, Marli Mendes can see the big cats from her office window. “I have nothing against them, they really don’t bother,” she says.

So far, there have been no incidents with the tigers turning aggressive, which the Borges family attributes to cats being raised in such close proximity with humans.

Ary’s daughter Nayara Borges, 20, who grew up with the tiger cubs sleeping in her bed until they became too big, says she thinks the big cats would be mistreated if taken away, “and our family would go into a severe depression.”

Her sister Uyara, 23, agreed, saying the cats are family after spending so many years with the Borges.

“At first we were scared of them, but as time went on, we saw them every day, fed them, gave them baths and water, and we started to fall in love with them,” Uyara said. “We never thought we could live with such ferocious animals.”

Uyara trusts the cats so much, she even allows her 2-year-old daughter Rayara to sit atop them.

Experts, however, sharply question the Borges family’s efforts.

“It’s crazy,” said Patty Finch, executive director of the Washington-based Global Federation of Animal Sanctuaries. “It’s a very dangerous situation, especially if there are young children around, they easily trigger a tiger’s hunting instinct.”

Finch said that “you will see people sometimes get lucky for a while, but sooner or later an accident is going to happen. You never know what’s going to set these animals off because they’re wild.”

Instead of promoting the animal’s welfare, Finch said the Borges have done the opposite.

“Breeding in captivity doesn’t help conserve the tigers unless they’re bred in their native habitat and there is a plan to release them,” she said. “They can’t get habituated to people. They’re condemning these tigers to a life of captivity.”

Upkeep for the tigers and lions costs about $9,000 per month. Borges pays for it by renting the tigers out for movie and commercial shoots, charging $9,000 a day, and with the money he makes in running a dog kennel within his compound.

Inside a high fenced-in area where the tigers now sleep, Borges roughhoused with the animals, playfully slapping one on the flank and then leapt atop him, holding onto the animal’s fur with both fists and grinning widely as the cat growled.

“My father would die or kill himself if these tigers are taken away,” Uyara said. “They’re everything to us, they’re my brothers. We’ve lived with them day and night for eight years.”

Associated Press writers Stan Lehman in Sao Paulo and Bradley Brooks in Rio de Janeiro contributed to this report

Copyright 2013 The Associated Press. All rights reserved. This material may not be published, broadcast, rewritten or redistributed.

And now it’s global COOLING! Record return of Arctic ice cap as it grows by 60% in a year (Daily Mail)

  • Almost a million more square miles of ocean covered with ice than in 2012
  • BBC reported in 2007 global warming would leave Arctic ice-free in summer by 2013
  • Publication of UN climate change report suggesting global warming caused by humans pushed back to later this month


PUBLISHED: 23:37 GMT, 7 September 2013 | UPDATED: 12:01 GMT, 8 September 2013

A chilly Arctic summer has left nearly a million more square miles of ocean covered with ice than at the same time last year – an increase of 60 per cent.

The rebound from 2012’s record low comes six years after the BBC reported that global warming would leave the Arctic ice-free in summer by 2013.

Instead, days before the annual autumn re-freeze is due to begin, an unbroken ice sheet more than half the size of Europe already stretches from the Canadian islands to Russia’s northern shores.

global cooling

The Northwest Passage from the Atlantic to the Pacific has remained blocked by pack-ice all year. More than 20 yachts that had planned to sail it have been left ice-bound and a cruise ship attempting the route was forced to turn back.

Some eminent scientists now believe the world is heading for a period of cooling that will not end until the middle of this century – a process that would expose computer forecasts of imminent catastrophic warming as dangerously misleading.

The disclosure comes 11 months after The Mail on Sunday triggered intense political and scientific debate by revealing that global warming has ‘paused’ since the beginning of 1997 – an event that the computer models used by climate experts failed to predict.

In March, this newspaper further revealed that temperatures are about to drop below the level that the models forecast with ‘90 per cent certainty’.

The pause – which has now been accepted as real by every major climate research centre – is important, because the models’ predictions of ever-increasing global temperatures have made many of the world’s economies divert billions of pounds into ‘green’ measures to counter  climate change.

Those predictions now appear gravely flawed.


Only six years ago, the BBC reported that the Arctic would be ice-free in summer by 2013, citing a scientist in the US who claimed this was a ‘conservative’ forecast. Perhaps it was their confidence that led more than 20 yachts to try to sail the Northwest Passage from the Atlantic to  the Pacific this summer. As of last week, all these vessels were stuck in the ice, some at the eastern end of the passage in Prince Regent Inlet, others further west at Cape Bathurst.

Shipping experts said the only way these vessels were likely to be freed was by the icebreakers of the Canadian coastguard. According to the official Canadian government website, the Northwest Passage has remained ice-bound and impassable  all summer.

The BBC’s 2007 report quoted scientist  Professor Wieslaw Maslowski, who based his views on super-computer models and the fact that ‘we use a high-resolution regional model for the Arctic Ocean and sea ice’.

He was confident his results were ‘much more realistic’ than other projections, which ‘underestimate the amount of heat delivered to the sea ice’. Also quoted was Cambridge University expert

Professor Peter Wadhams. He backed Professor Maslowski, saying his model was ‘more efficient’ than others because it ‘takes account of processes that happen internally in the ice’.

He added: ‘This is not a cycle; not just a fluctuation. In the end, it will all just melt away quite suddenly.’


The continuing furore caused by The Mail on Sunday’s revelations – which will now be amplified by the return of the Arctic ice sheet – has forced the UN’s climate change body to hold a crisis meeting.

The UN Intergovernmental Panel on Climate Change (IPCC) was due in October to start publishing its Fifth Assessment Report – a huge three-volume study issued every six or seven years. It will now hold a pre-summit in Stockholm later this month.

Leaked documents show that governments which support and finance the IPCC are demanding more than 1,500 changes to the report’s ‘summary for policymakers’. They say its current draft does not properly explain the pause.

At the heart of the row lie two questions: the extent to which temperatures will rise with carbon dioxide levels, as well as how much of the warming over the past 150 years – so far, just 0.8C – is down to human greenhouse gas emissions and how much is due to natural variability.

In its draft report, the IPCC says it is ‘95 per cent confident’ that global warming has been caused by humans – up from 90 per cent in 2007.

This claim is already hotly disputed. US climate expert Professor Judith Curry said last night: ‘In fact, the uncertainty is getting bigger. It’s now clear the models are way too sensitive to carbon dioxide. I cannot see any basis for the IPCC increasing its confidence level.’

She pointed to long-term cycles  in ocean temperature, which have a huge influence on climate and  suggest the world may be approaching a period similar to that from 1965 to 1975, when there was a clear cooling trend. This led some scientists at the time to forecast an imminent ice age.

Professor Anastasios Tsonis, of the University of Wisconsin, was one of the first to investigate the ocean cycles. He said: ‘We are already in a cooling trend, which I think will continue for the next 15 years at least. There is no doubt the warming of the 1980s and 1990s has stopped.

Then... NASA satelite images showing the spread of Artic sea ice 27th August 2012Then… NASA satelite images showing the spread of Artic sea ice 27th August 2012

...And now, much bigger: The spread of Artic sea ice on August 15 2013…And now, much bigger: The same Nasa image taken in 2013

‘The IPCC claims its models show a pause of 15 years can be expected. But that means that after only a very few years more, they will have to admit they are wrong.’

Others are more cautious. Dr Ed Hawkins, of Reading University, drew the graph published by The Mail on Sunday in March showing how far world temperatures have diverged from computer predictions. He admitted the cycles may have caused some of the recorded warming, but insisted that natural variability alone could not explain all of the temperature rise over the past 150 years.

Nonetheless, the belief that summer Arctic ice is about to disappear remains an IPCC tenet, frequently flung in the face of critics who point to the pause.

Yet there is mounting evidence that Arctic ice levels are cyclical. Data uncovered by climate historians show that there was a massive melt in the 1920s and 1930s, followed by intense re-freezes that ended only in 1979 – the year the IPCC says that shrinking began.

Professor Curry said the ice’s behaviour over the next five years would be crucial, both for understanding the climate and for future policy. ‘Arctic sea ice is the indicator to watch,’ she said.

Read more: 
Follow us: @MailOnline on Twitter | DailyMail on Facebook

Eduardo Kohn’s How Forests Think: Toward an Anthropology Beyond the Human (Somatosphere)

September 23, 2013


Editor’s note: As part of our new series, Second Opinion (not to be confused with the SMA’s similarly titled newsletter) we ask two contributors to review the same book, respond to the same question, or comment on the same set of issues.  For our first pair of Second Opinion posts, we invited two reviews of Eduardo Kohn’s new book, How Forests Think. The second review will appear within the next few weeks.

How Forests Think: Toward an Anthropology Beyond the Human

 By Eduardo Kohn

University of California Press, 2013. $29.95, £19.95; Paperback, 228 pages.

There is a long genealogy of anthropologists who have borrowed their titles from the translation of Lucien Lévy-Bruhl’s La mentalité primitive — How Natives Think.  Running from Marshall Sahlins’ How “Natives” Think to Maurice Bloch’s How We Think They Think, these transformations run parallel to those of the discipline itself. By entitling his book How Forests Think, Eduardo Kohn indicates that he doesn’t study the way the people he worked with in Ecuador thought about forests, but the way forests actually think. By making a claim about the relation between life and thought, this book takes part in the ontological turn (Candea 2010) that decenters anthropologists’ longstanding focus on cultural representations to ask how representations emerge within forms of life. Following Philippe Descola and Eduardo Viveiros de Castro, Eduardo Kohn shows that Amazonian ethnography challenges our conceptions of life and thought in a way that raises the ontological question of what there is. As the ecological crisis leads to a proliferation of new entities that both blur the opposition between nature and culture and ask for political recognition – “pets, weeds, pests, commensals, new pathogens, ‘wild’ animals, or technoscientific ‘mutants,’” (9) this kind of ethnography cautiously scrutinizes the continuities and discontinuities between humans and nonhumans. The book is ethnographic in a classical sense, and yet its chapters follow a theoretical progression, while powerful images plunge into an “enchanted” world – a term Kohn takes up deliberately – entangling humans and nonhumans in puzzling ways.

The main thesis of the book is about semiosis, the life of signs. If we are troubled by the idea that forests think, it is because we conceive thinking as a conventional relation to the world. Following 19th century American philosopher Charles Saunders Peirce, Kohn argues that all signs are not conventional symbols, and that there are other ways to learn the meaning of signs than to relate them to each other in a cultural context. When a hunter describes the fall of a palm tree under the weight of a monkey as pu’oh, the meaning of this sign is felt with evidence, without knowledge of Quichua (the language spoken by Kohn’s informants), because it relates hunters, monkeys and trees in a complex ecosystem. Kohn asks for “decolonizing thought” and “provincializing language” by looking at relations between signs that are not symbolic. Hence the program of an “anthropology beyond the human” that places human symbols in the forms of life from which they emerge. Without romanticizing tropical nature, Kohn argues that most of our problems are ill-shaped, or filled with anxiety – as in a wonderful description of the bus trip that led him to Avila – if we don’t place them in a larger semiotic field.

Following Terrence Deacon’s interpretation of Peirce (2012), Kohn is less interested in the classifications of signs into indices, icons and symbols than in the process through which they emerge one from the other. A sign refers to something absent that exists in futuro, just as the crashing of the palm tree under the weight of a monkey refers to a coming danger for the monkey, and a possible catch for the hunter. Habits fix the meaning of signs by producing similarity, and are considered as “interpretants” of signs. Using the example of the walking-stick insect, Kohn argues that what appears to look similar is actually the product of a selection from beings that looked different. Signs thus refer to the past as a memory of beings who have disappeared. Since this relation to the past and future is what, for Peirce, constitutes selves, all living beings, and not only humans, can be considered as selves.

The strangeness of Kohn’s text come from the way it interlaces these theoretical analyses of signs with an account of the life of the Runa people, considered not as a cultural context but as “amplifying” certain ontological properties of life itself. “Living beings are loci of selfhood,” Kohn writes. “I make this claim empirically. It grows out of my attention to Runa relations with nonhuman beings as these reveal themselves ethnographically. These relations amplify certain properties of the world, and this amplification can infect and affect our thinking about the world,” (94). This is an original intervention in the ontological reappraisal of animism. Kohn neither contrasts animism to naturalism as two inverse ontologies in the mode of Descola, nor does he engage in the paradoxes of perspectivism like Viveiros.  Instead, he considers living beings as selves in relation to past and future relations, and social life as an amplification of this process of self-formation.

Thus, puma designates both predators like jaguars and shamans who can see the way that jaguars see. Runa people need to learn how jaguars see in order not to be eaten by them. The soul, as what exceeds the limits of the body, is “an effect of intersubjective semiotic interpretance,” (107). What Kohn calls “soul blindness” is an inattention to the effects of the souls of other living beings. The problem is how to live with runa puma: jaguars who act like humans, and kill to revenge other killings, who are dreaded but also considered to be mature selves.

Dreams, analyzed in Chapter 4, are common ways of communication with souls and remediating “soul blindness.” Runa people give hallucinatory drugs to dogs so that they will dream, and their barks during dreaming are interpreted literally—in the same way as their daytime barks–while human dreams of hunting are interpreted metaphorically. Rather than doing a symbolic analysis of dreams, Kohn places them in the semiotic life they express, between humans, dogs and jaguars. Dreams are ways of communicating between species without abolishing them, constituting a “trans-species pidgin.”

In Chapter 5, Kohn makes an important distinction between form and sign. “Whereas semiosis is in and of the living world beyond the human, form emerges from and is part and parcel of the nonliving one as well,” (174). The question he asks is that of the efficacy of form, the constraint it exerts on living beings. Taking the example of the distribution of rubber trees in the Amazonian forest, which depends on the ecology of parasites as well as on the network of rivers, he argues that shamanistic hunting and the colonial extraction of rubber were both constrained by the same form. Forms have a causality that is not moral but that can be called hierarchical: signs emerge from forms, and symbols from signs, in a hierarchy between levels of emergence that cannot be inversed. This is a powerful interpretation of the insertion of colonial extraction in forms that historically precede it: if power brings with it moral categories, this insertion cannot be thought of as an imposition from above, but rather as a fall-out or an incidental movement.

Kohn links this morphodynamic analysis of colonialism to Lévi-Strauss’s analysis of “la pensée sauvage” – a form of thought emerging from relations between signs rather than being imposed upon them. Through forms and signs, Runa people have “frozen” history in such a way that they can interpret events through their dreams. The dream of Oswaldo, who saw a policeman with hair on his shirt, is ambivalent: does it mean he will be caught by the white man, or that he will be successful in hunting peccaries? The final chapter of the book analyses the reversals in relation between the Runa and White missionaries or policemen, as well as the pronouns by which Runa people refer to themselves as subjects, such as amu. “Amu is a particular colonially inflected way of being a self in an ecology of selves filled with a growing array of future-making habits, many of which are not human. In the process, amu renders visible how a living future gives life some of its special properties and how this involves a dynamic that implicates (but is not reducible to) the past. In doing so, amu, and the spirit realm upon which it draws its power, amplifies something general about life—namely, life’s quality of being in futuro,” (208). The question for Runa people is how they can access the realm of the White masters, that is also the heaven of saints: what is generally called the “super-natural.”  To live is to survive, Kohn argues, that is to live beyond life, in the many absences that constitute life as a semiotic process.

The strength of this book is to propose a rigorous demonstration while never leaving empirical analysis. Starting on the level of signs in their triadic mode of existence, Kohn finds form on one side and history on the other, and describes their constraints and ambivalent relationships. This is not a dualism between nature and culture that would be solved through the concept of life – and Kohn tries to avoid an all-encompassing anthropology of life – but a logical tension that is amplified by humans, almost in the way that genetic material is amplified inside and outside the laboratory (Rabinow 1996). Kohn’s anthropology “beyond the human” – but not of the “post-human” – grounds itself in the life of signs where humans emerge to amplify them. The ambition of this ontological claim, its clarity and its theoretical productivity will not doubt be amplified by other ethnographic inquiries on life.

Frédéric Keck is a researcher at the Laboratoire d’anthropologie sociale (CNRS) in Paris. He has published works on the history of philosophy and social anthropology in France (Comte, Lévy-Bruhl, Lévi-Strauss) and translated Paul Rabinow’s French DNA into French. He now works on the management of animal diseases transmitted to humans, or zoonoses (Un monde grippé, Flammarion, 2010, Des hommes malades des animaux, L’Herne, 2012)


Candea, Matei
 (2010) Debate: Ontology Is Just Another Word for Culture.Critique of Anthropology 30 (2): 172-179

Deacon, Terrence (2012) Incomplete Nature: How Mind Emerged from Matter. New York: Norton.

Descola, Philippe (2005) Par-delà nature et culture. Paris: Gallimard.

Viveiros de Castro, Eduardo (1998) Cosmological Deixis and Amerindian Perspectivism. Journal of the Royal Anthropological Institute, n.s., 4, 469-488.

Rabinow, Paul (1996) Making PCR, A Story of Biotechnology. Chicago: University of Chicago Press.

Seca no semiárido deve se agravar nos próximos anos – e outros artigos relacionados à Conclima (Fapesp)

Pesquisadores alertam para necessidade de executar ações urgentes de adaptação e mitigação aos impactos das mudanças climáticas previstos na região (foto: Fred Jordão/Acervo ASACom)


Por Elton Alisson

Agência FAPESP – Os problemas de seca prolongada registrados atualmente no semiárido brasileiro devem se agravar ainda mais nos próximos anos por causa das mudanças climáticas globais. Por isso, é preciso executar ações urgentes de adaptação e mitigação desses impactos e repensar os tipos de atividades econômicas que podem ser desenvolvidas na região.

A avaliação foi feita por pesquisadores que participaram das discussões sobre desenvolvimento regional e desastres naturais realizadas no dia 10 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima).

Organizado pela FAPESP e promovido em parceria com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), o evento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com dados do Centro Nacional de Gerenciamento de Riscos e Desastres (Cenad), só nos últimos dois anos foram registrados 1.466 alertas de municípios no semiárido que entraram em estado de emergência ou de calamidade pública em razão de seca e estiagem – os desastres naturais mais recorrentes no Brasil, segundo o órgão.

O Primeiro Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (PBMC) – cujo sumário executivo foi divulgado no dia de abertura da Conclima – estima que esses eventos extremos aumentem principalmente nos biomas Amazônia, Cerrado e Caatinga e que as mudanças devem se acentuar a partir da metade e até o fim do século 21. Dessa forma, o semiárido sofrerá ainda mais no futuro com o problema da escassez de água que enfrenta hoje, alertaram os pesquisadores.

“Se hoje já vemos que a situação é grave, os modelos de cenários futuros das mudanças climáticas no Brasil indicam que o problema será ainda pior. Por isso, todas as ações de adaptação e mitigação pensadas para ser desenvolvidas ao longo dos próximos anos, na verdade, têm de ser realizadas agora”, disse Marcos Airton de Sousa Freitas, especialista em recursos hídricos e técnico da Agência Nacional de Águas (ANA).

Segundo o pesquisador, o semiárido – que abrange Bahia, Sergipe, Alagoas, Pernambuco, Rio Grande do Norte, Paraíba, Ceará, Piauí e o norte de Minas Gerais – vive hoje o segundo ano do período de seca, iniciado em 2011, que pode se prolongar por um tempo indefinido.

Um estudo realizado pelo órgão, com base em dados de vazão de bacias hidrológicas da região, apontou que a duração média dos períodos de seca no semiárido é de 4,5 anos. Estados como o Ceará, no entanto, já enfrentaram secas com duração de quase nove anos, seguidos por longos períodos nos quais choveu abaixo da média estimada.

De acordo com Freitas, a capacidade média dos principais reservatórios da região – com volume acima de 10 milhões de metros cúbicos de água e capacidade de abastecer os principais municípios por até três anos – está atualmente na faixa de 40%. E a tendência até o fim deste ano é de esvaziarem cada vez mais.

“Caso não haja um aporte considerável de água nesses grandes reservatórios em 2013, poderemos ter uma transição do problema de seca que se observa hoje no semiárido, mais rural, para uma seca ‘urbana’ – que atingiria a população de cidades abastecidas por meio de adutoras desses sistemas de reservatórios”, alertou Freitas.

Ações de adaptação

Uma das ações de adaptação que começou a ser implementada no semiárido nos últimos anos e que, de acordo com os pesquisadores, contribuiu para diminuir sensivelmente a vulnerabilidade do acesso à água, principalmente da população rural difusa, foi o Programa Um Milhão de Cisternas (P1MC).

Lançado em 2003 pela Articulação Semiárido Brasileiro (ASA) – rede formada por mais de mil organizações não governamentais (ONGs) que atuam na gestão e no desenvolvimento de políticas de convivência com a região semiárida –, o programa visa implementar um sistema nas comunidades rurais da região por meio do qual a água das chuvas é capturada por calhas, instaladas nos telhados das casas, e armazenada em cisternas cobertas e semienterradas. As cisternas são construídas com placas de cimento pré-moldadas, feitas pela própria comunidade, e têm capacidade de armazenar até 16 mil litros de água.

O programa tem contribuído para o aproveitamento da água da chuva em locais onde chove até 600 milímetros por ano – comparável ao volume das chuvas na Europa – que evaporam e são perdidos rapidamente sem um mecanismo que os represe, avaliaram os pesquisadores.

“Mesmo com a seca extrema na região nos últimos dois anos, observamos que a água para o consumo da população rural difusa tem sido garantida pelo programa, que já implantou cerca de 500 mil cisternas e é uma ação política de adaptação a eventos climáticos extremos. Com programas sociais, como o Bolsa Família, o programa Um Milhão de Cisternas tem contribuído para atenuar os impactos negativos causados pelas secas prolongadas na região”, afirmou Saulo Rodrigues Filho, professor da Universidade de Brasília (UnB).

Como a água tende a ser um recurso natural cada vez mais raro no semiárido nos próximos anos, Rodrigues defendeu a necessidade de repensar os tipos de atividades econômicas mais indicadas para a região.

“Talvez a agricultura não seja a atividade mais sustentável para o semiárido e há evidências de que é preciso diversificar as atividades produtivas na região, não dependendo apenas da agricultura familiar, que já enfrenta problemas de perda de mão de obra, uma vez que o aumento dos níveis de educação leva os jovens da região a se deslocar do campo para a cidade”, disse Rodrigues.

“Por meio de políticas de geração de energia mais sustentáveis, como a solar e a eólica, e de fomento a atividades como o artesanato e o turismo, é possível contribuir para aumentar a resiliência dessas populações a secas e estiagens agudas”, afirmou.

Outras medidas necessárias, apontada por Freitas, são de realocação de água entre os setores econômicos que utilizam o recurso e seleção de culturas agrícolas mais resistentes à escassez de água enfrentada na região.

“Há culturas no semiárido, como capim para alimentação de gado, que dependem de irrigação por aspersão. Não faz sentido ter esse tipo de cultura que demanda muito água em uma região que sofrerá muito os impactos das mudanças climáticas”, afirmou Freitas.

Transposição do Rio São Francisco

O pesquisador também defendeu que o projeto de transposição do Rio São Francisco tornou-se muito mais necessário agora – tendo em vista que a escassez de água deverá ser um problema cada vez maior no semiárido nas próximas décadas – e é fundamental para complementar as ações desenvolvidas na região para atenuar o risco de desabastecimento de água.

Alvo de críticas e previsto para ser concluído em 2015, o projeto prevê que as águas do Rio São Francisco cheguem às bacias do Rio Jaguaribe, que abastece o Ceará, e do Rio Piranhas-Açu, que abastece o Rio Grande do Norte e a Paraíba.

De acordo com um estudo realizado pela ANA, com financiamento do Banco Mundial e participação de pesquisadores da Universidade Federal do Ceará, entre outras instituições, a disponibilidade hídrica dessas duas bacias deve diminuir sensivelmente nos próximos anos, contribuindo para agravar ainda mais a deficiência hídrica do semiárido.

“A transposição do Rio Francisco tornou-se muito mais necessária e deveria ser acelerada porque contribuiria para minimizar o problema do déficit de água no semiárido agora, que deve piorar com a previsão de diminuição da disponibilidade hídrica nas bacias do Rio Jaguaribe e do Rio Piranhas-Açu”, disse Freitas à Agência FAPESP.

O Primeiro Relatório de Avaliação Nacional do PBMC, no entanto, indica que a vazão do Rio São Francisco deve diminuir em até 30% até o fim do século, o que colocaria o projeto de transposição sob ameaça.

Freitas, contudo, ponderou que 70% do volume de água do Rio São Francisco vem de bacias da região Sudeste, para as quais os modelos climáticos preveem aumento da vazão nas próximas décadas. Além disso, de acordo com ele, o volume total previsto para ser transposto para as bacias do Rio Jaguaribe e do Rio Piranhas-Açu corresponde a apenas 2% da vazão média da bacia do Rio São Francisco.

“É uma situação completamente diferente do caso do Sistema Cantareira, por exemplo, no qual praticamente 90% da água dos rios Piracicaba, Jundiaí e Capivari são transpostas para abastecer a região metropolitana de São Paulo”, comparou.

“Pode-se argumentar sobre a questão de custos da transposição do Rio São Francisco. Mas, em termos de necessidade de uso da água, o projeto reforçará a operação dos sistemas de reservatórios existentes no semiárido”, afirmou.

De acordo com o pesquisador, a água é distribuída de forma desigual no território brasileiro. Enquanto 48% do total do volume de chuvas que cai na Amazônia é escoado pela Bacia Amazônica, segundo Freitas, no semiárido apenas em média 7% do volume de água precipitada na região durante três a quatro meses chegam às bacias do Rio Jaguaribe e do Rio Piranhas-Açu. Além disso, grande parte desse volume de água é perdido pela evaporação. “Por isso, temos necessidade de armazenar essa água restante para os meses nos quais não haverá disponibilidade”, explicou.

As apresentações feitas pelos pesquisadores na conferência, que termina no dia 13, estarão disponíveis em:


Mudanças no clima do Brasil até 2100


Por Elton Alisson*

Mais calor, menos chuva no Norte e Nordeste do país e mais chuva no Sul e Sudeste são algumas das projeções do Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (foto: Eduardo Cesar/FAPESP)

Agência FAPESP – O clima no Brasil nas próximas décadas deverá ser mais quente – com aumento gradativo e variável da temperatura média em todas as regiões do país entre 1 ºC e 6 ºC até 2100, em comparação à registrada no fim do século 20.

No mesmo período, também deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

As conclusões são do primeiro Relatório de Avaliação Nacional (RAN1) do Painel Brasileiro de Mudanças Climáticas (PBMC), cujo sumário executivo foi divulgado nesta segunda-feira (09/08), durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima). Organizado pela FAPESP e promovido com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), oevento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com o relatório, tendo em vista que as mudanças climáticas e os impactos sobre as populações e os setores econômicos nos próximos anos não serão idênticos em todo o país, o Brasil precisa levar em conta as diferenças regionais no desenvolvimento de ações de adaptação e mitigação e de políticas agrícolas, de geração de energia e de abastecimento hídrico para essas diferentes regiões.

Dividido em três partes, o Relatório 1 – em fase final de elaboração – apresenta projeções regionalizadas das mudanças climáticas que deverão ocorrer nos seis diferentes biomas do Brasil até 2100, e indica quais são seus impactos estimados e as possíveis formas de mitigá-los.

As projeções foram feitas com base em revisões de estudos realizados entre 2007 e início de 2013 por 345 pesquisadores de diversas áreas, integrantes do PBMC, e em resultados científicos de modelagem climática global e regional.

“O Relatório está sendo preparado nos mesmos moldes dos relatórios publicados pelo Painel Intergovernamental das Mudanças Climáticas [IPCC, na sigla em inglês], que não realiza pesquisa, mas avalia os estudos já publicados”, disse José Marengo, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e coordenador do encontro.

“Depois de muito trabalho e interação, chegamos aos resultados principais dos três grupos de trabalho [Bases científicas das mudanças climáticas; Impactos, vulnerabilidades e adaptação; e Mitigação das mudanças climáticas]”, ressaltou.

Principais conclusões

Uma das conclusões do relatório é de que os eventos extremos de secas e estiagens prolongadas, principalmente nos biomas da Amazônia, Cerrado e Caatinga, devem aumentar e essas mudanças devem se acentuar a partir da metade e no fim do século 21.

A temperatura na Amazônia deverá aumentar progressivamente de 1 ºC a 1,5 ºC até 2040 – com diminuição de 25% a 30% no volume de chuvas –, entre 3 ºC e 3,5 ºC no período de 2041 a 2070 – com redução de 40% a 45% na ocorrência de chuvas –, e entre 5 ºC a 6 ºC entre 2071 a 2100.

Enquanto as modificações do clima associadas às mudanças globais podem comprometer o bioma em longo prazo, a questão atual do desmatamento decorrente das intensas atividades de uso da terra representa uma ameaça mais imediata para a Amazônia, ponderam os autores do relatório.

Os pesquisadores ressaltam que estudos observacionais e de modelagem numérica sugerem que, caso o desmatamento alcance 40% na região no futuro, haverá uma mudança drástica no padrão do ciclo hidrológico, com redução de 40% na chuva durante os meses de julho a novembro – o que prolongaria a duração da estação seca e provocaria o aquecimento superficial do bioma em até 4 ºC.

Dessa forma, as mudanças regionais decorrentes do efeito do desmatamento se somariam às provenientes das mudanças globais e constituíram condições propícias para a savanização da Amazônia – problema que tende a ser mais crítico na região oriental, ressaltam os pesquisadores.

“As projeções permitirão analisar melhor esse problema de savanização da Amazônia, que, na verdade, percebemos que poderá ocorrer em determinados pontos da floresta, e não no bioma como um todo, conforme previam alguns estudos”, destacou Tércio Ambrizzi, um dos autores coordenadores do sumário executivo do grupo de trabalho sobre a base científica das mudanças climáticas.

A temperatura da Caatinga também deverá aumentar entre 0,5 ºC e 1 ºC e as chuvas no bioma diminuirão entre 10% e 20% até 2040. Entre 2041 e 2070 o clima da região deverá ficar de 1,5 ºC a 2,5 ºC mais quente e o padrão de chuva diminuir entre 25% e 35%. Até o final do século, a temperatura do bioma deverá aumentar progressivamente entre 3,5 ºC e 4,5 ºC  e a ocorrência de chuva diminuir entre 40% e 50%. Tais mudanças podem desencadear o processo de desertificação do bioma.

Por sua vez, a temperatura no Cerrado deverá aumentar entre 5 ºC e 5,5 ºC e as chuvas diminuirão entre 35% e 45% no bioma até 2100. No Pantanal, o aquecimento da temperatura deverá ser de 3,5ºC a 4,5ºC até o final do século, com diminuição acentuada dos padrões de chuva no bioma – com queda de 35% a 45%.

Já no caso da Mata Atlântica, como o bioma abrange áreas desde a região Sul do país, passando pelo Sudeste e chegando até o Nordeste, as projeções apontam dois regimes distintos de mudanças climáticas.

Na porção Nordeste deve ocorrer um aumento relativamente baixo na temperatura – entre 0,5 ºC e 1 ºC – e decréscimo nos níveis de precipitação (chuva) em torno de 10% até 2040. Entre 2041 e 2070, o aquecimento do clima da região deverá ser de 2 ºC a 3 ºC, com diminuição pluviométrica entre 20% e 25%. Já para o final do século – entre 2071 e 2100 –, estimam-se condições de aquecimento intenso – com aumento de 3 ºC a 4 ºC na temperatura – e diminuição de 30% a 35% na ocorrência de chuvas.

Nas porções Sul e Sudeste as projeções indicam aumento relativamente baixo de temperatura entre 0,5 ºC e 1 ºC até 2040, com aumento de 5% a 10% no número de chuva. Entre 2041 e 2070 deverão ser mantidas as tendências de aumento gradual de 1,5 ºC a 2 ºC na temperatura e de 15% a 20% de chuvas.

Tais tendências devem se acentuar ainda mais no final do século, quando o clima deverá ficar entre 2,5 ºC e 3 ºC mais quente e entre 25% e 30% mais chuvoso.

Por fim, para o Pampa, as projeções indicam que até 2040 o clima da região será entre 5% e 10% mais chuvoso e até 1 ºC mais quente. Já entre 2041 e 2070, a temperatura do bioma deverá aumentar entre 1 ºC e 1,5 ºC  e haverá uma intensificação das chuvas entre 15% e 20%. As projeções para o clima da região no período entre 2071 e 2100 são mais agravantes, com aumento de temperatura de 2,5 ºC a 3 ºC e ocorrência de chuvas entre 35% e 40% acima do normal.

“O que se observa, de forma geral, é que nas regiões Norte e Nordeste do Brasil a tendência é de um aumento de temperatura e de diminuição das chuvas ao longo do século”, resumiu Ambrizzi.

“Já nas regiões mais ao Sul essa tendência se inverte: há uma tendência tanto de aumento da temperatura – ainda que não intenso – e de precipitação”, comparou.

Impactos e adaptação

As mudanças nos padrões de precipitação nas diferentes regiões do país, causadas pelas mudanças climáticas, deverão ter impactos diretos na agricultura, na geração e distribuição de energia e nos recursos hídricos das regiões, uma vez que a água deve se tornar mais rara nas regiões Norte e Nordeste e mais abundante no Sul e Sudeste, alertam os pesquisadores.

Por isso, será preciso desenvolver ações de adaptação e mitigação específicas e rever decisões de investimento, como a construção de hidrelétricas nas regiões leste da Amazônia, onde os rios poderão ter redução da vazão da ordem de até 20%, ressalvaram os pesquisadores.

“Essas variações de impactos mostram que qualquer tipo de estratégia planejada para geração de energia no leste da Amazônia está ameaçada, porque há uma série de fragilidades”, disse Eduardo Assad, pesquisador da Empresa Brasileira de Pesquisa Agropecuária (Embrapa).

“Dará para contar com água. Mas até quando e onde encontrar água nessas regiões são incógnitas”, disse o pesquisador, que é um dos coordenadores do Grupo de Trabalho 2 do relatório, sobre Impactos, vulnerabilidades e adaptação.

De acordo com Assad, é muito caro realizar ações de adaptação às mudanças climáticas no Brasil em razão das fragilidades que o país apresenta tanto em termos naturais – com grandes variações de paisagens – como socioeconômicas.

“A maior parte da população brasileira – principalmente a que habita as regiões costeiras do país – está vulnerável aos impactos das mudanças climáticas. Resolver isso não será algo muito fácil”, estimou.

Entre os setores econômicos do país, segundo Assad, a agricultura é um dos poucos que vêm se adiantando para se adaptar aos impactos das mudanças climáticas.

“Já estamos trabalhando com condições de adaptação há mais de oito anos. É possível desenvolver cultivares tolerantes a temperaturas elevadas ou à deficiência hídrica [dos solos], disse Assad.

O pesquisador também ressaltou que os grupos populacionais com piores condições de renda, educação e moradia sofrerão mais intensamente os impactos das mudanças climáticas no país. “Teremos que tomar decisões rápidas para evitar que tragédias aconteçam.”


Mercedes Bustamante, professora da Universidade de Brasília (UnB), e uma das coordenadoras do Grupo de Trabalho 3, sobre Mitigação das Mudanças Climáticas, apresentou uma síntese de estudos e pesquisas sobre o tema, identificando lacunas do conhecimento e direcionamentos futuros em um cenário de aquecimento global.

Bustamante apontou que a redução das taxas de desmatamento entre 2005 e 2010 – de 2,03 bilhões de toneladas de CO2 equivalente para 1,25 bilhão de toneladas – já teve efeitos positivos na redução das emissões de gases de efeito estufa (GEE) decorrentes do uso da terra.

“As emissões decorrentes da geração de energia e da agricultura, no entanto, aumentaram em termos absolutos e relativos, indicando mudanças no perfil das emissões brasileiras”, disse.

Mantidas as políticas atuais, a previsão é de que as emissões decorrentes dos setores de energia e de transportes aumentem 97% até 2030. Será preciso mais eficiência energética, mais inovação tecnológica e políticas de incentivo ao uso de energia renovável para reverter esse quadro.

Na área de transporte, as recomendações vão desde a transformação de um modal – fortemente baseado no transporte rodoviário – e o uso de combustíveis tecnológicos. “É preciso transferir do individual para o coletivo, investindo, por exemplo, em sistemas aquaviários e em veículos elétricos e híbridos”, ressaltou Bustamante.

O novo perfil das emissões de GEE revela uma participação crescente do metano – de origem animal – e do óxido nitroso – relacionado ao uso de fertilizantes. “Apesar desses resultados, a agricultura avançou no desenvolvimento de estratégias de mitigação e adaptação”, ponderou.

Para a indústria, responsável por 4% das emissões de GEE, a lista de recomendações para a mitigação passa pela reciclagem, pela utilização de biomassa renovável, pela cogeração de energia, entre outros.

As estratégias de mitigação das mudanças climáticas exigem, ainda, uma revisão do planejamento urbano de forma a garantir a sustentabilidade também das edificações de forma a controlar, por exemplo, o consumo da madeira e garantir maior eficiência energética na construção civil.

Informação para a sociedade

Os pesquisadores participantes da redação do relatório destacaram que, entre as virtudes do documento, está a de reunir dados de estudos científicos realizados ao longo dos últimos anos no Brasil que estavam dispersos e disponibilizar à sociedade e aos tomadores de decisão informações técnico-científicas críveis capazes de auxiliar no desenvolvimento de estratégias de adaptação e mitigação para os possíveis impactos das mudanças climáticas.

“Nós, cientistas, temos o desafio de conseguir traduzir a seriedade e a gravidade do momento e as oportunidades que as mudanças climáticas globais encerram para a sociedade. Sabemos que a inação representa a ação menos inteligente que a sociedade pode tomar”, disse Paulo Nobre, coordenador da Rede Clima.

Por sua vez, Celso Lafer, presidente da FAPESP, destacou, na abertura do evento, que a Fundação tem interesse especial nas pesquisas sobre mudanças climáticas, expresso no Programa FAPESP de Pesquisa em Mudanças Climáticas Globais (PFPMCG), mantido pela instituição.

“Uma das preocupações básicas da FAPESP é pesquisar e averiguar o impacto das mudanças climáticas globais naquilo que afeta as especificidades do Brasil e do Estado de São Paulo”, afirmou.

Também participaram da abertura do evento Bruno Covas, secretário do Meio Ambiente do Estado de São Paulo, Carlos Nobre, secretário de Políticas e Programa de Pesquisa e Desenvolvimento (Seped) do Ministério da Ciência, Tecnologia e Inovação (MCTI), e Paulo Artaxo, membro da coordenação do PFPMCG.

Carlos Nobre ressaltou que o relatório será a principal fonte de informações que orientará o Plano Nacional de Mudanças Climáticas que, no momento, está em revisão.

“É muito importante que os resultados desse estudo orientem os trabalhos em Brasília e em várias partes do Brasil, em um momento crítico de reorientar a política nacional, que tem de ir na direção de tornar a economia, a sociedade e o ambiente mais resilientes às inevitáveis mudanças climáticas que estão por vir”, afirmou.

Segundo ele, o Brasil já sinalizou compromisso com a mitigação, materializado na Política Nacional de Mudanças Climáticas e que prevê redução de 10% e 15% das emissões entre 2010 e 2020, respectivamente, relativamente a 2005.

“São Paulo lançou, em 2009, um programa ambicioso, de redução de 20% das emissões, já que a questão da mudança no uso da terra não é uma questão tão importante no Estado, mas sim o avanço tecnológico na geração de energia e em processos produtivos. O Brasil é o único país em desenvolvimento com metas voluntárias para redução de emissões”.

Ele ressaltou, entretanto, que “a adaptação ficou desassistida”. “Não é só mitigar; é preciso também se adaptar às mudanças climáticas. As três redes de pesquisa – Clima, INCT e FAPESP – avançam na adaptação, que é o guia para o desenvolvimento sustentável.”

* Colaboraram Claudia Izique e Noêmia Lopes


Modelo para entender as variações climáticas no país


Por Noêmia Lopes

Modelo Brasileiro do Sistema Terrestre é considerado fundamental para pesquisas sobre o clima(foto:Nasa)

Agência FAPESP – O desmatamento da Amazônia, as queimadas, os processos de interação entre o Oceano Atlântico e a atmosfera são algumas das questões climáticas particulares do Brasil que o Modelo Brasileiro do Sistema Terrestre (BESM, na sigla em inglês) leva em consideração e pretende dar conta de uma forma que mesmo os melhores modelos do mundo não são capazes de fazer.

O modelo foi apresentado em detalhes na segunda-feira (09/09) na abertura da 1ª Conferência Nacional de Mudanças Climáticas Globais, realizada em São Paulo.

Determinar o quanto o clima já mudou, o quanto as suas características ainda vão se alterar e onde isso ocorrerá é a base para o planejamento de políticas públicas de adaptação aos impactos das mudanças climáticas globais, segundo Paulo Nobre, coordenador geral do BESM e da Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima), na abertura do evento.

“O BESM é um eixo estruturante da pesquisa em mudanças climáticas no Brasil e oferece subsídios para o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), para a Rede Clima e para o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC)”, disse Nobre.

Com o intuito de colaborar com as previsões sobre as consequências do aquecimento global e o consequente aumento na frequência dos eventos extremos, o BESM roda no supercomputador Tupã da Rede Clima/PFPMCG, reunindo fluxos atmosféricos, oceânicos, de superfície e, em breve, químicos. Adquirido pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) com apoio da FAPESP, o Tupã está instalado na unidade do Instituto Nacional de Pesquisas Espaciais (Inpe) de Cachoeira Paulista

Embora ainda não esteja em sua versão final e completa, o modelo já consegue, por exemplo, reconstituir a ocorrência dos últimos El Niños e estimar o retorno desse fenômeno, explicar as chuvas na Zona de Convergência do Atlântico Sul e até estimar a variação do gelo no globo de maneira satisfatória.

“Os cenários mais atuais, de 2013, estão disponíveis no supercomputador. Estamos tomando medidas para que o acesso seja disponibilizado ao público em geral até o final do ano”, afirmou Nobre.

Trinta pesquisadores estão diretamente envolvidos no desenvolvimento do BESM e outros 40 estão ligados indiretamente. De acordo com Nobre, esse número deve duplicar em cinco anos e duplicar novamente em 10 anos. “Para tanto, é preciso que cada vez mais jovens doutores integrem esse desafio.”

Nobre ressaltou ainda as graves consequências que o aumento da frequência dos eventos extremos – tais como secas, enchentes e tornados – tem sobre a vida das populações: “Nossas cidades e nossos campos não foram projetados para conviver com esse novo clima, o que torna essencial a entrada do Brasil na modelagem das mudanças climáticas”, disse.

Os quatro componentes

Iracema Cavalcanti, pesquisadora do Inpe, apresentou, durante o primeiro dia da conferência, os resultados já obtidos a partir do componente atmosférico do BESM.

Em comparação com os dados observados, o modelo consegue alcançar boas simulações de variabilidade sazonal (modificações climatológicas das estações), fluxos de umidade, variabilidade interanual (diferença entre anomalias de pressão), variabilidade da precipitação, entre outros. “Ainda há deficiências, como na maioria dos modelos globais. Mas as características gerais estão contempladas”, disse Cavalcanti.

Em relação aos oceanos, não é possível separá-los do que ocorre no modelo atmosférico, daí a modelagem acoplada ser estratégica para o funcionamento eficiente do BESM. A avaliação é de Leo Siqueira, também do Inpe, que apresentou os desafios desse componente.

“Já conseguimos boas representações, mas queremos melhorar as simulações de temperatura dos oceanos, principalmente nos trópicos, e do gelo marinho. Também queremos criar uma discussão saudável sobre qual modelo de gelo terrestre será adotado dentro do BESM”, disse Siqueira.

A modelagem do terceiro componente, superfície, foi apresentada por Marcos Heil Costa, da Universidade Federal de Viçosa (UFV). “A principal função de um modelo que integra processos superficiais é fornecer fluxos de energia e vapor d’água entre a vegetação e a atmosfera. Isso é o básico. Mas o aprimoramento do sistema, ocorrido ao longo dos últimos anos, permitiu que outros processos fossem incorporados”, afirmou.

Alguns desses processos são: fluxos de radiação, energia e massa; ciclos do carbono e do nitrogênio terrestres; recuperação de áreas abandonadas; incêndios na vegetação natural; culturas agrícolas; vazão e áreas inundadas sazonais; uso do solo por ações humanas (desmatamento); representação específica dos ecossistemas; fertilidade do solo; entre outros.

Química é o quarto e mais recente dos componentes. “Sem um modelo químico, os demais precisam ser constantemente ajustados”, disse Sérgio Correa, pesquisador da Universidade Estadual do Rio de Janeiro (UERJ). Correa está à frente de estudos sobre química atmosférica que permitirão refinar os dados do BESM quando esse componente for acoplado ao modelo – uma das próximas fases previstas.

Colaborações com pesquisadores de instituições estrangeiras e treinamentos são outras estratégias que estão em vigor para melhorar as representações do Brasil e da América do Sul, com alcance também global.

Mais informações sobre a 1ª Conferência Nacional de Mudanças Climáticas Globais:

Orangutans Plan Their Future Route and Communicate It to Others (Science Daily)

Sep. 11, 2013 — Male orangutans plan their travel route up to one day in advance and communicate it to other members of their species. In order to attract females and repel male rivals, they call in the direction in which they are going to travel. Anthropologists at the University of Zurich have found that not only captive, but also wild-living orangutans make use of their planning ability.

Male orangutans face the direction they plan to travel and emit ‘long calls’ in that direction. (Credit: UZH)

For a long time it was thought that only humans had the ability to anticipate future actions, whereas animals are caught in the here and now. But in recent years, clever experiments with great apes in zoos have shown that they do remember past events and can plan for their future needs. Anthropologists at the University of Zurich have now investigated whether wild apes also have this skill, following them for several years through the dense tropical swamplands of Sumatra.

Orangutans communicate their plans

Orangutans generally journey through the forest alone, but they also maintain social relationships. Adult males sometimes emit loud ‘long calls’ to attract females and repel rivals. Their cheek pads act as a funnel for amplifying the sound in the same way as a megaphone. Females that only hear a faint call come closer in order not to lose contact. Non-dominant males on the other hand hurry in the opposite direction if they hear the call coming loud and clear in their direction.

“To optimize the effect of these calls, it thus would make sense for the male to call in the direction of his future whereabouts, if he already knew about them,” explains Carel van Schaik. “We then actually observed that the males traveled for several hours in approximately the same direction as they had called.”

In extreme cases, long calls made around nesting time in the evening predicted the travel direction better than random until the evening of the next day.Carel van Schaik and his team conclude that orangutans plan their route up to a day ahead. In addition, the males often announced changes in travel direction with a new, better-fitting long call. The researchers also found that in the morning, the other orangutans reacted correctly to the long call of the previous evening, even if no new long call was emitted.

“Our study makes it clear that wild orangutans do not simply live in the here and now, but can imagine a future and even announce their plans. In this sense, then, they have become a bit more like us,” concludes Carel van Schaik.

Journal Reference:

  1. Carel P. van Schaik, Laura Damerius, Karin Isler. Wild Orangutan Males Plan and Communicate Their Travel Direction One Day in AdvancePLoS ONE, 2013; 8 (9): e74896 DOI: 10.1371/journal.pone.0074896

Robots Take Over Economy: Sudden Rise of Global Ecology of Interacting Robots Trade at Speeds Too Fast for Humans (Science Daily)

Sep. 11, 2013 — Recently, the global financial market experienced a series of computer glitches that abruptly brought operations to a halt. One reason for these “flash freezes” may be the sudden emergence of mobs of ultrafast robots, which trade on the global markets and operate at speeds beyond human capability, thus overwhelming the system. The appearance of this “ultrafast machine ecology” is documented in a new study published on September 11 in Nature Scientific Reports.

Typical ultrafast extreme events caused by mobs of computer algorithms operating faster than humans can react. (Credit: Neil Johnson, University of Miami)

The findings suggest that for time scales less than one second, the financial world makes a sudden transition into a cyber jungle inhabited by packs of aggressive trading algorithms. “These algorithms can operate so fast that humans are unable to participate in real time, and instead, an ultrafast ecology of robots rises up to take control,” explains Neil Johnson, professor of physics in the College of Arts and Sciences at the University of Miami (UM), and corresponding author of the study.

“Our findings show that, in this new world of ultrafast robot algorithms, the behavior of the market undergoes a fundamental and abrupt transition to another world where conventional market theories no longer apply,” Johnson says.

Society’s push for faster systems that outpace competitors has led to the development of algorithms capable of operating faster than the response time for humans. For instance, the quickest a person can react to potential danger is approximately one second. Even a chess grandmaster takes around 650 milliseconds to realize that he is in trouble — yet microchips for trading can operate in a fraction of a millisecond (1 millisecond is 0.001 second).

In the study, the researchers assembled and analyzed a high-throughput millisecond-resolution price stream of multiple stocks and exchanges. From January, 2006, through February, 2011, they found 18,520 extreme events lasting less than 1.5 seconds, including both crashes and spikes.

The team realized that as the duration of these ultrafast extreme events fell below human response times, the number of crashes and spikes increased dramatically. They created a model to understand the behavior and concluded that the events were the product of ultrafast computer trading and not attributable to other factors, such as regulations or mistaken trades. Johnson, who is head of the inter-disciplinary research group on complexity at UM, compares the situation to an ecological environment.

“As long as you have the normal combination of prey and predators, everything is in balance, but if you introduce predators that are too fast, they create extreme events,” Johnson says. “What we see with the new ultrafast computer algorithms is predatory trading. In this case, the predator acts before the prey even knows it’s there.”

Johnson explains that in order to regulate these ultrafast computer algorithms, we need to understand their collective behavior. This is a daunting task, but is made easier by the fact that the algorithms that operate below human response times are relatively simple, because simplicity allows faster processing.

“There are relatively few things that an ultrafast algorithm will do,” Johnson says. “This means that they are more likely to start adopting the same behavior, and hence form a cyber crowd or cyber mob which attacks a certain part of the market. This is what gives rise to the extreme events that we observe,” he says. “Our math model is able to capture this collective behavior by modeling how these cyber mobs behave.”

In fact, Johnson believes this new understanding of cyber-mobs may have other important applications outside of finance, such as dealing with cyber-attacks and cyber-warfare.

Journal Reference:

  1. Neil Johnson, Guannan Zhao, Eric Hunsader, Hong Qi, Nicholas Johnson, Jing Meng, Brian Tivnan. Abrupt rise of new machine ecology beyond human response time.Scientific Reports, 2013; 3 DOI: 10.1038/srep02627

Entrevista com Pablo Ortellado (Desentorpecendo a razão)


Por Coletivo DAR e Desinformémonos, 10/09/2013

Com trajetória de ativismo primeiro no movimento punk e depois nas lutas antiglobalização da virada dos 1990 para os 2000, Pablo Ortellado hoje é professor de gestão de políticas públicas na USP Leste. Referência para os ativistas do movimento autônomo e autor de “Estamos vencendo: resistência global no Brasil”, Ortellado lançará nos próximos dias o livro “20 centavos: a luta contra o aumento”, escrito em parceria com Elena Judensnaider, Luciana Lima e Marcelo Pomar, e foi exatamente para entender a conjuntura das lutas sociais após o explosivo mês de junho, tema do livro, que ele encontrou um espaço em sua reta final de escritura para conversar com o Coletivo DAR e oDesinformémonos, que nessa postagem em comum esperam contribuir para a reflexão em torno do que compartilham, a busca pela transformação e pela autonomia.

Na entrevista, Ortellado traça um rico panorama do que foi o movimento autônomo em São Paulo e no Brasil desde suas origens, reflexão que ganha ainda mais importância em um momento em que todos buscam aprender e apreender as lições de horizontalidade e ação direta trazidas pelas mobilizações massivas ocorridas pelo país. Ele comenta as raízes zapatistas do movimento e como este desde seu princípio foi identificado com tecnologias que em verdade foram criadas em seu interior, e situa a importância de iniciativas como o Centro de Mídia Independente (CMI) no processo.

Além de imprescindíveis reflexões sobre o que o MPL tem para ensinar aos ativistas anticapitalistas, sobrou tempo também para uma crítica ao Fora do Eixo, definido por Ortellado não como uma experiência de política alternativa, mas como uma organização “hipercapitalista”.

Quando começou seu ativismo?

Minha militância começou no movimento punk dos anos 1980. É a geração dos punks que se politizaram, no finalzinho dos anos 1980. Deve ser a segunda ou a terceira geração do punk em São Paulo. Tem aquela do final dos 1970, que a gente chamava de “geração 82”, que eram uns caras mais velhos. E a nossa vai até 1988, 1989, é uma geração que se politizou, que fez o encontro da contracultura com a ação política.

Foi a geração que encontrou os sindicatos. Em 1987 e 1988 a gente tentava organizar o sindicato dos office-boys – eu era office-boy – junto com um processo de refundação da Confederação Operária Brasileira, que era a Confederação Operária Anarquista dos anos 1910.

E teve o processo de encontrar os velhinhos, os “anarco-nônos” como a gente chamava, no Centro de Cultural Social nos anos 1980. Foi muito importante para a minha geração, e acho que para eles também foi. Reencontrar com o anarquismo, surgindo de um jeito muito diferente. Foi um encontro importante também porque foi o encontro de duas gerações militantes. Eles já não eram a geração da greve de 1917, eram a geração derrotada, dos anos 1930. O Centro de Cultura Social foi uma estratégia do movimento operário derrotado pelos comunistas e depois pelo Estado Novo, eles optam por essa estratégia cultural de fundações de cultura social. E eles tem ainda, eles guardam a historia das lutas sociais dos anos 1910 e 1920, receberam essa vivencia dos mais velhos, mas sao uma geração da derrota, que foi mantendo vivo o legado do anarquismo em São Paulo durante quase todo o século 20.

Acho que para eles, deve ter sido muito vivo ver aquele bando de adolescentes nos anos 1980 cheios de interesse pelo anarquismo. E foi um movimento interessante de troca, no qual a gente aprendeu bastante com eles a respeito de toda essa história de lutas e eles também. Por incrível que pareça, embora a gente viesse da contracultura, um outro mundo do mundo dos sindicatos anarquistas dos anos 1930, houve muitos contatos. Inclusive nos elementos contraculturais. Por exemplo, o Centro de Cultura Social só tem uma propriedade, que é um sítio naturista. Então eles eram naturistas, eram vegetarianos, eram adeptos do amor livre. Então vários elementos da contracultura que a gente carregava ainda naqueles anos – porque o movimento punk em São Paulo tinha algumas características bem particulares, eram meio incipientes, meio confusos, a gente encontrou apoio e espelhamento na experiência histórica dos velhinhos e houve muita troca.

Houve casos super interessantes já nos anos 1990, dos velhinhos se tornarem veganos, que era uma coisa totalmente da nossa geração, a partir do intercâmbio com os punks. Tinha algumas coisas bem peculiares, a minha geração era uma que não usava drogas. Eu nunca fumei maconha. E fui beber depois dos 25 anos. Isso não tem nada a ver com os straight-edges, era outra coisa. Tem a ver com a cultura da disciplina militante do anarquismo dos anos 1930, uma coisa que a gente, do meu grupo pelo menos, da Santa Cecília, que frequentava o Centro de Cultura Social, incorporou. A gente não tolerava pessoas que bebiam e fumavam, porque “era coisa de gente alienada”. Uma percepção totalmente em desacordo com a cultura punk que é punk de esgoto que bebe pinga.

E já tinha isso.

Ah sim, claro, era a cultura dominante. A nossa geração, a geração dos punks que se politizaram, tinha ojeriza a isso, achava que era coisa de playboy. Eu não sei, acho que gerações posteriores não tiveram isso, mas essa que teve esse contato, incorporou elementos que não eram nossos, eram elementos dos velhinhos. Embora tivesse esse contato com a contracultura, que a gente acha que a contracultura é uma invenção dos anos 1960, dos hippies, mas a gente via nas discussões do movimento operário vários debates sobre feminismo, sobre natureza, sobre vegetarianismo, todos esses elementos que a gente considerava contraculturais, muito presentes.

Eles tratavam com muita tranquilidade, embora de um jeito totalmente diferente. Porque nosso discurso era anti-disciplinar, contra as instituições, contra as regras. O deles não, era auto-disciplinar, era a ideia de praticar o amor livre por não precisar do Estado ou da Igreja ditando para a gente como é, tipo “nós fazemos nossas regras”, diferente do “rejeitamos as regras”. Tinha contatos e diferenças e minha geração é desse intercâmbio, final dos anos 1980.

Como foram os anos 1990?

Acompanhei pouco, porque fui pros Estados Unidos, militei no hardcore, fiz outras coisas e só retomei no fim dos anos 1990, então tenho um hiato na história de São Paulo. Já no final dos anos 1990 surge o movimento antiglobalização que é a confluência de outras coisas. Tinha essa cultura anarquista ligada à contracultura, ao hardcore, ao punk; tinha uma tradição libertária no movimento estudantil, principalmente na FFLCH; e tinha esse contexto mundial de resistência ao neoliberalismo.

No final dos anos 1990 vários de nós estávamos acompanhando as listas das mobilizações, estava acontecendo bastante coisa na América Latina. Teve a greve da UNAM, depois teve o 501 na Argentina. O 501 foi um movimento muito importante, foi o pessoal que depois viria para o movimento antiglobalização. Surgiu contra o processo eleitoral e tem uma lei que o voto é obrigatório se você tiver a até 500 km do seu domicílio eleitoral. Então o movimento era uma caravana, com vários grupos ativistas, que levava você até 501 km.

Isso marcou muito a esquerda argentina porque era uma iniciativa dos jovens não anarquistas, era o que viria a ser o autonomismo argentino. Eles organizaram assembleias cujo lema era “Existe política além do voto”. Então a gente estava muito inspirado por essas coisas. Campanhas de apoio aos zapatistas, a greve na UNAM, o movimento 501 eram mais ou menos o panorama latino-americano.

E aí em 1997, no Segundo Encontro Intergaláctico pela Humanidade e Contra o Neoliberalismo, dos zapatistas, surgiu a ideia de fundar a Ação Global dos Povos (AGP), que era confederar os movimentos sociais de base voltados para a ação direta, para organizar globalmente uma oposição ao neoliberalismo.

No Brasil, como era a AGP?

No Brasil, a gente começou, era isso: a contracultura do hardcore e do punk, o movimento estudantil principalmente da USP não ligado a partidos e pequenos coletivos, pequenos coletivos feministas, pequenos coletivos ambientalistas… Esse era o caldo. A gente começou a se reunir, entrando para valer, no ano 2000.

Já tinha uma cultura de internet no movimento?

Sim, era totalmente cultura de internet. Uma das coisas totalmente distintivas do movimento antiglobalização em relação a movimentos anteriores dos quais ele é filiado é que ele era totalmente organizado globalmente.

Antes as coisas iam, se espelhavam, uma luta influenciava a outra, mas não havia uma organização de fato de as lutas se corresponderem. Com a internet isso mudou completamente, esse movimento foi completamente articulado.

Por exemplo, a gente sofreu repressão no A20 em 20 de abril de 2001. Aí ocuparam a embaixada brasileira em Amsterdã, em Roma e assim, completamente articulado, foi a partir dos relatos que a gente mandou para os companheiros. E vice versa: quando aconteceu a morte do Carlo Giuliani em 2001 a gente ocupou o consulado da Itália, e não era uma coisa espontânea, era uma coisa de articulação da rede de solidariedade. A gente ensaiou essa possibilidade de organização horizontal num nível internacional.

A grande inspiração você diria que foram os zapatistas?

Com certeza. A ideia da AGP nasceu num encontro zapatista, em Barcelona. Nasceu a ideia e o primeiro encontro fundador da AGP foi em Genebra em 1998.

Quais os princípios que ligavam essas pessoas e coletivos?

Todos exatos eu não lembro de cabeça, mas eram os princípios da autonomia, da horizontalidade, a ideia de não ser uma organização. A AGP não era uma organização, era uma espécie de rede de solidariedade e luta. A ideia da diversidade de estratégias de luta, de não termos uma linha única que fosse imposta, de rejeição dos modelos já estabelecidos de luta, e uma crítica muito forte a todas as formas de opressão. O que não era algo necessariamente novo, mas levávamos muito sério. Incorporamos essas lutas do feminismo, do movimento negro, de forma muito forte.

Na verdade a gente via o processo de globalização como uma oportunidade para federar as lutas que tinham se fragmentado nos anos 1960, era nossa leitura. Antes dos anos 1960 era o movimento operário que conduzia a luta social, depois se fragmentou no movimento feminista, movimento ecológico, movimento negro, e assim por diante.

E nossa ideia era que o processo de globalização econômica permitia federar essas lutas porque afetava as mulheres que estavam trabalhando num workshop no México, afetava o problema do desmatamento porque suspendia as regulações ambientais para gerar competitividade entre os países, então o movimento ambiental podia se somar, o movimento trabalhista porque suspendia também a proteção ao direitos trabalhistas para flexibilizar a mão de obra, etc.

Quando demos o nome de anticapitalismo no final dos anos 1990, é curioso, tinha uma acepção diferente, porque não era econômica. Era a ideia de que o capitalismo era a soma de todas essas formas de dominação e exploração, e que o anticapitalismo era a federação de todas essas lutas em uma luta comum, a luta contra o neoliberalismo. Foi realmente uma tentativa. Tanto que por exemplo, na nossa rede da AGP aqui teve vários grupos feministas, vários grupos ambientais, alguns sindicatos pequenos, no Ceará tinha um pessoal do Movimento dos Trabalhadores Sem Terra (MST), então a gente confederava lutas muito diferentes, mas aqui muito orientadas na luta contra a ALCA [Área de Livre Comércio das Américas].

Como funcionava a AGP a nível mundial, como um coletivo daqui se vinculava, se relacionava?

A AGP não era nada. A AGP era uma ideia, uma carta de princípios. Qualquer um que respeitasse essa carta de princípios levantava a mão. Formalmente, nos encontros, tinha delegações da AGP. Então o primeiro que aconteceu em Genebra em 1998, o delegado brasileiro foi o MST. E o MST se somou às nossas primeiras manifestações, participava. Nossa primeira reunião se eu não me engano foi inclusive na sede da Consulta Popular, foi o MST que deu toda a infraestrutura. Mas aos poucos, digamos, eles participavam, mas não eram os atores mais importantes da AGP aqui.

E depois, o que houve para que a AGP fosse se desarticulando?

Esse ciclo se desgastou. Ficamos muito ativos desde 1998, acredito que o auge tenha sido em 2000, a gente fez o S-26, barrando um encontro do Banco Mundial e do FMI em Praga e acho que foi nossa grande conquista. Fizemos ações em cerca de 300 cidades no mundo e eram totalmente dominadas pelo movimento autônomo, conduzidas por nós, o grande feito político foi termos coordenado protestos em centenas de cidades, muitas milhões de pessoas. Depois tiveram outros grandes, protestos em Gênova, houve vários.

Mas a fórmula era tentar copiar o sucesso de Seattle. A ideia original eram os “carnavais contra o capitalismo”, que quem tinha dado a ideia eram os companheiros de Londres, do “Reclaim the streets”. Eles vinham da confluência do movimento de politização das raves e do movimento anti-estradas, ligado a coletivos ambientais. E faziam essas festas de rua que bloqueavam estradas e tal, e eles que lançaram a ideia de carnavais globais contra o capitalismo. Tinha esse caráter meio contracultural.

Essa ideia foi lançada e a primeira fez que aconteceu globalmente de fato foi no J18, 18 de junho de 1998, em dezenas de cidades. Aí em seguida teve Seattle, que foi 30 de novembro de 1999, e depois 26 de setembro de 2000. E em 2000 a gente já estava completamente articulado globalmente, foi quando a coisa atingiu centenas de cidades.

Em Seattle tinha dado muito certo, porque conseguiram barrar fisicamente a reunião da OMC [Organização Mundial do Comércio], da rodada do milênio. A estratégia era pegar um mapa, o lugar do encontro, barrar todos os acessos por meio de bloqueio de ruas. Atrasou os delegados, os sindicatos estavam fazendo uma megamanifestação, o Clinton estava na parede porque tinha eleição próxima, isso gerou um caos. E a rodada do milênio que era um projeto extremamente ambiciosa de desregulamentação econômica em âmbito mundial, falhou miseravelmente.

Isso virou um espécie de paradigma do movimento antiglobalização: fazemos grandes manifestações tentando bloquear ou invadir os eventos, e centenas de protestos pelo mundo para aumentar a pressão. Fizemos isso inclusive aqui, teve o encontro do BID [Banco Interamericano de Desenvolvimento] em 2002 e fizemos protestos em Fortaleza, por exemplo.

Mas esse modelo começou a se esgotar, porque ficávamos correndo atrás, começou um sentimento de que a gente estava girando em falso, que a experiência de Seattle nunca mais ia acontecer. Teve o 11 de setembro que endureceu nos EUA e em outros países a maneira como o Estado combatia esse movimento, ameaçando aplicar leis antiterroristas por um lado e, por outro, a ameaça de uma guerra a nível global fez com que a gente fosse mudando gradativamente para o movimento antiguerra. Acho que essas duas questões foram levando esse modelo para o esgotamento, além dos aspectos internos, a sensação de que não estávamos caminhando para nenhum lugar.

Houve um movimento natural de ir voltando para os coletivos locais. O pessoal da Argentina, por exemplo, foi em peso para o Movimento Piquetero, alguns para o movimento de assembleias. Aqui, teve uma galera que foi para o Movimento Passe Livre (MPL).

Além dos bloqueios e manifestações de solidariedade, quais eram os outros eixos de atuação da AGP?

Aqui, por exemplo, a gente fazia muita campanha pública. Fizemos toda a campanha contra a ALCA, muito antes de entrarem as igrejas, os partidos políticos. A gente ia em escola, sindicato, associação de bairro, produzimos centenas de panfletos, jornais, fizemos uma campanha bem estruturada, de informação. Explicar o que era a ALCA, quais seus impactos, o que significava para as relações trabalhistas, para o meio ambiente, e assim por diante. Isso articulado com os protestos. Acho que adquirimos um nível bom de organização, e tinha bastante gente simpática ao movimento, financiavam nossas publicações.

Embora eu ache que para a coisa ter vingado tenha sido importante a participação dos partidos políticos, da igreja católica, o plebiscito que foi feito sobre a ALCA, isso ajudou a enterrar a ALCA, já por volta de 2003.

Quais as características e especificidades dos movimentos que se seguiram a esse processo, que hoje se convencionou chamar de movimentos autônomos?

A ideia de coletivos autônomos foi sendo construída muito no movimento antiglobalização. Antes a gente tinha uma cena anarquista. Isso tem a ver com a contracultura brasileira, que não teve a interface com a política. Foram dois caminhos, numa trilha os tropicalistas, os hippies, na outra, a luta armada contra a ditadura militar, a crítica ao stalinismo. Essas coisas não se encontravam, como aconteceu, por exemplos nos Estados Unidos, na Itália.

Essa fusão só aconteceu aqui com os punks. Que o punk antes era despolitizado, se associava o que a gente chama de punk 82 com algo mais social que político, era a classe trabalhadora gritando com uma guitarra. Um grito confuso, um grito sem experiência política, mas gritando. Um grito de revolta contra a pobreza, a exclusão, misturado com algo contracultural, existencialista, tudo junto e muito confuso.

Essa coisa do anarquismo é do fim da segunda e da terceira geração do punk, que se aproximou mais da tradição sindical do anarquismo brasileiro. Tem um fato que é muito marcante, em 1988 tem um 1 de maio que fazemos a segurança da manifestação, junto com a CUT [Central Única dos Trabalhadores]. Era a COB, a Confederação Operária Brasileira que a gente estava tentando refundar, junto com a CUT e outras centrais. Nesse momento estava começando a se definir entre os punks um grupo anarquista, que lia Proudhon, Bakunin, frequentava o Centro de Cultura Social, era uma novidade.

Outros grupos de punks, misturados com skinheads, que estavam caminhando para a direita, essa cisão só aconteceu no final dos anos 1980, e eles vão para esse 1 de maio para bater, e tomam uma surra. Menos dos punks porque a gente era muito miudinho, mais dos sindicalistas. Tomam um pau. Acho uma marca dessa cisão ideológica da contracultura brasileira. Para mim a fusão entre contracultura e política se concretizou nesse dia. Tem a direita e tem a esquerda. Os skinheads começaram a flertar com o integralismo e viraram fascistas e outro grupo eram os anarquistas.

No movimento antiglobalização, tinha, por um lado, a rejeição aos partidos políticos, à hierarquia, tinha discurso libertário mas tinha uma visão mais ampla. A gente dialogava com as ONGs, com movimentos mais tradicionais na sua forma de organização, começou a haver certa diferenciação com um anarquismo mais programático. Começou a surgir essa ideia do movimento autônomo, também sob inspiração da teoria político mais autonomista, seja na tradição francesa como Castoriadis, seja na italiana, como Negri ou Mario Tronti. Algumas pessoas começaram a ler, e foi se desenvolvendo esse entendimento, de se juntar também aos marxistas dissidentes mais horizontalistas, que nunca tinham sido bem vindos no movimento anarquista por razões históricas. Autonomia em relação ao Estado e em relação ao mercado. Isso é uma construção do final dos anos 1990, início dos 2000.

E o Fórum Social Mundial?

O Fórum Social Mundial foi uma construção totalmente separada da nossa. Tinha o Fórum Econômico Mundial de Davos, que juntava representantes das empresas, dos governos, do setor acadêmico e fazia um grande encontro de cúpula dos líderes mundiais para discutir assuntos de interesse global. O Fórum Social Mundial foi pensado exatamente nos mesmos termos originalmente. Era para ser um encontro das lideranças dos sindicatos, das lideranças dos movimentos sociais e das lideranças dos partidos políticos, numa grande conferência contra-hegemônica.

Nesse momento já tinha o movimento antiglobalização, um movimento de base horizontalista, e já tinha sua importância. As primeiras propostas do Fórum eram de um encontro de cúpula que as pessoas inscreviam lideranças. Aí abriram um negócio chamado oficinas que permitia a participação de todos. E as oficinas bombaram, porque o movimento era horizontal. E subverteu.

Apesar de não surgir da nossa tradição, os organizadores do Fórum souberam incorporar, digamos, esse caráter horizontalista e deixar o encontro virar outra coisa. Ficou mais participativo, mais rico. A gente nunca participou ativamente, da construção, mas aproveitava que vinha gente do mundo inteiro, e sempre fizemos, ao menos até 2005, encontros paralelos.

Você vê, então, o MPL como uma espécie de continuidade desse processo?

Totalmente. O MPL tem duas origens: o movimento antiglobalização e outra que vem ideologicamente do trotskismo, mas que vem talvez mais que isso, do movimento estudantil pelo passe livre. Nos anos 1990 tem a luta forte pelo passe livre estudantil que traz como inspiração as conquistas no Rio de Janeiro, então tem uma tradição estudantil forte.

Em Florianópolis, por conta do Juventude Revolução Independente, começaram a defender essa ideia da autonomia a partir do trotskismo. A partir de uma leitura e reflexão interna dentro do trotskismo, atuando com o conceito de autonomia nesse campo da luta pelo passe livre estudantil. Aí nasce dessa experiência de Floripa, por um lado da Juventude Revolução Independente por sua vez ligada ao processo do passe livre estudantil dos anos 1990, e por outro,  o movimento antiglobalização.

Vários militantes do movimento antiglobalização compuseram o MPL original de Floripa. Quando a gente faz o primeiro encontro do MPL lá no Fórum Social Mundial de 2005, estão presentes muitos do movimento antiglobalização e principalmente do CMI [Centro de Mídia Independente], que é, digamos, a face mais organizada do movimento.

O CMI era praticamente a expressão midiática do movimento antiglobalização. E o CMI era organizado, tinham vários grupos locais que se reuniam. Sempre funcionou como uma espécie de esqueleto da AGP, mais claramente organizado porque tinha coletivos, endereços, comunicação global, um site de referencia. Foi muito importante para o movimento antiglobalização como um todo. E serviu como meio de difusão do MPL. Tanto é que acho que quase todos os primeiros MPLs em 2005 vieram de coletivos do CMI.

Chegando nos tempos atuais, como você vê esses coletivos e movimentos autônomos que estiveram envolvidos na onda de mobilizações que começou em junho? E também as novas articulações entre esses movimentos que essa jornada de lutas tem impulsionado?

Acho que essa experiência da luta contra o aumento da tarifa trouxe um salto qualitativo muito importante. Essa tradição de luta que a gente remonta ao zapatismo, ao movimento antiglobalização, mais recentemente ao Occupy Wall Street, ao 15M, e lá atrás a maio de 1968, às lutas da autonomia italiana, essa tradição é muito marcada pela valorização do processo de organização.

Ou seja, a ideia de que devemos fazer política pré-figurativa. Que a forma de organização do movimento deve espelhar a sociedade que a gente quer. Então ser horizontal, inclusivo, não ser sexista, não ser racista, um enorme cuidado com o processo. É processo político e também criativo – então fazer intervenções divertidas, contraculturais, é a mesma valorização do processo: queremos uma vida prazerosa, desburocratizada das amarras institucionais.

Eu faço uma avaliação crítica que essa característica fez com que historicamente a gente fosse muito desatento aos resultados da luta. Várias experiências dessa se perderam por serem incapazes de ter um foco claro de luta. No movimento antiglobalização, era um esforço enorme a gente converter a luta em uma luta objetiva contra a ALCA. Vamos pressionar o governo brasileiro a não assinar a ALCA. Fazer isso era um esforço, porque a tendência do movimento era ser algo auto expressivo, carnaval contra o capitalismo. Uma explosão de rebelião antissistêmica.

O que estava valorizado aí? O processo, a forma de luta. Um dia, quando a gente vencer, que a gente não sabe como, vai ser por meio do fortalecimento da luta, que vai ser horizontal, participativa, comunitária. Mas isso fazia com que o movimento não tivesse um objetivo de curto prazo ligado a esse objetivo de longo prazo. Não tinha estratégia para vencer. Por sorte, em Seattle funcionou e criou um paradigma de estratégia para vencer: a gente barra. Foi tentado em vários lugares, nunca mais aconteceu.

Mas se olhar a experiência do 15M, do Occupy Wall Street e das ocupas pelo mundo todo, também daqui como o Ocupa Sampa, essa incapacidade de ter um foco apareceu. Isso aconteceu desde o final dos anos 1960 se pegarmos gênese do movimento.

E eu acho que a grande novidade aqui é que o MPL criou um novo paradigma. Ter um objetivo de curto prazo, que é um processo de uma utopia, de uma transformação mais profunda. Qual a transformação mais profunda? A desmercantilização do transporte. Direitos público à mobilidade urbana. Mas isso se concretiza num passo: a tarifa voltar para trás. É totalmente contra-intuitivo, do jeito que a coisa é, a tarifa sempre cresce. A partir do momento que ela volta para trás, você coloca no horizonte a possibilidade de voltar para trás até seu limite, que é o zero.

E isso, cara, parece selvagem, há dois meses atrás diriam que é coisa de extremista, de gente delirante, e eles mostraram isso que agora está no centro da pauta: não tem um partido, um veículo de comunicação ou um político que não estejam discutindo essa pauta que há dois meses era chamada de delirante, sem pé na realidade.

Eu acho que eles conseguiram criar isso. E era factível, apesar de bem difícil. Foi suado, custou bastante trabalho, muita gente foi presa, muita gente apanhou, teve gente que morreu, mas era factível, foi factível.  E isso ampliou os horizontes.

Mas tem mais do que isso aí, não? Porque já teve outros aumentos que foram barrados…

Já teve, já teve.  Na verdade eu estou falando do MPL como um todo…

Ah, você acha que já nas primeiras vitórias isso está contido?

Já contém isso, sim. Eu acho que o MPL daqui simplesmente deu muita visibilidade por estarmos em São Paulo, mas o MPL é isso, ele nasce do aprendizado da Revolta do Buzú de Salvador. A Revolta do Buzú foi um movimento espontâneo, de jovens – molecada mesmo, adolescentes, até pré-adolescentes – que saíram nas ruas e bloqueram a cidade durante vários dias contra o aumento das passagens e foram traídos pela UNE.

Eles não tinham um instrumento político. O MPL é a busca por aprender com esse erro, aprender com o processo espontâneo. Quem inventou, quem exemplificou essa estratégia de luta foram os meninos de Salvador, só que teve uma falha, já que não havia com quem negociar.  E eles fracassaram, perderam bem perdido com a traição da UNE. E aí a ideia do MPL é dar um estamento político pra essa luta, e fomentar essas revoltas que tinham nascido espontaneamente.  Um grupo político vai fomentar uma revolta.

E aconteceu em Floripa duas vezes, 2004 e 2005. Depois aconteceu em várias cidades, deve ter tido mais de dez revoltas de transporte entre 2004 e agora.  Talvez mais de vinte.  E as instituições políticas foram surdas a esse processo. E os meninos do MPL de São Paulo continuaram, “um dia vai virar aqui, tem que virar, ta virando em todo lugar”.  Eles apostaram, continuaram insistindo na luta e tiveram vários acertos estratégicos, amadureceram estrategicamente, começaram a pensar no curto prazo, em como fazer para pressionar, houve uma maturidade no jeito político de atuar que eu acho um aprendizado  para o movimento autônomo não só do Brasil como do mundo.

Sem brincadeira: Ocuppy WallStreet tinha muito a aprender com o que os meninos do MPL fizeram, se eles tivessem os vinte centavos deles pro sistema financeiro as coisas teriam sido muito diferentes, podia ter tido uma vitória. E que não é só uma pequena reforma,  o passe livre é uma pequena reforma que aponta imediatamente pra sua própria natureza de uma profunda transformação do sistema.  Liga-se com a desmercantilização do transporte, e isso abre o precedente para várias outras desmercantilizações, é como um novelo de lã que você começa a puxar e vai ampliando os horizontes.

Conseguiram colocar uma meta de curto prazo, exequível e intrinsicamente ligada ao processo de transformação da sociedade que a gente quer.  E ao invés de valorizar apenas o processo de luta, valoriza-se também o processo de luta, porque é um movimento autônomo, que faz essas discussões de que o processo tem que ser horizontal, independente dos partidos e etc., mas não descuida da conquista de objetivos práticos de curto prazo que vão acelerar essa passagem pro objetivo de longo prazo.

Desde esse começo da Internet que você fala desenvolve-se também um saber relativo a organização de movimentos pelas redes, mas isso talvez tenha explodido no senso comum agora, não? É de agora que vem mais à tona esse discurso de que as mobilizações são produto das redes sociais e da Internet?

Então, essa conversa não é nova. O movimento antiglobalização foi muito rotulado como o movimento da Internet.  E eu acho essa uma leitura tecno-determinista muito equivocada, porque a história é o inverso do que é contada. A história que a gente escuta é a de que as redes  são horizontais, democráticas e participativas e o movimento das ruas copia a forma de organização das redes.  Ou seja, a forma de organização das redes impõe a organização das ruas. E é exatamente o oposto. As redes foram desenhadas por nós pra ter esse formato e não o contrário, ou seja, as redes adquiriram esse formato horizontal e participativo.

A Internet era uma rede universitária até 1995, ela se privatizou, ou seja, foi aberta pra venda e serviço de acesso a Internet em 1995. E quando ela se privatizou o modelo que se tentou fazer é o modelo do portal, que é o mesmo da comunicação tradicional: um emissor e vários receptores.  E foi isso que estava imposto, o modelo da American Online (AOL),  do iG, do Uol… Eu vou ter um portalzão, uma redação com jornalistas que vão abastecê-lo…

Os portais até proviam acesso.

É, vou prover acesso, vou prover informação, serviço de e-mail… é um modelo de um para muitos, o modelo tradicional da comunicação de massa. E era esse modelo que estava sendo implementado nos anos 1990.

O CMI é um entendimento de que a gente devia usar as possibilidades da Internet, que era um veículo bidirecional, em que se falava e recebia, e subverter essa tentativa de transformá-la numa grande televisão ou numa grande revista e fazer uma forma de comunicação interativa, baseada nas experiências das rádios livres, das TVs comunitárias, dos fanzines, nessa tradição de comunicação alternativa. E foi assim que foi desenhado. O CMI era um site de publicação aberta, quando não existia nem blog. Quem inventou o conceito de blog foi o CMI, não tinha blog, as pessoas não faziam isso, elas faziam sites. Uma ideia de um blog,  que seja um negócio fácil de escrever e que possa ser atualizado rapidamente não existia, o CMI é pré-blog, é précreativecommons.

E não é à toa que do CMI saíram muitas das empresas de redes sociais: Twitter, Youtube, Flickr e Craigslist. Todas foram fundadas por pessoas que vieram do CMI.  Foi um duplo movimento, o CMI servindo como exemplo de que se pode fazer comunicação de outro jeito e gente do CMI que quando ele se exaure vai tentar viver de outra forma. Isso tem a ver também com a forma de organização da esquerda liberal americana que permite essas passagens do movimento social pro mercado de uma  maneira que a gente consideraria  bizarra – mas que no contexto americano não é tão bizarra.

Isso aconteceu, principalmente nos EUA e na Inglaterra, vários técnicos do CMI trabalhando nessas empresas e de certa maneira desenhando essas empresas. Ou elas sofreram influência direta, no sentido que de pessoas saíram e desenharam essas tecnologias,  ou por meio da inspiração do modelo de comunicação participativa. E hoje todo mundo faz né, a Globo News tem lá “mande seu vídeo”. Só que a gente inventou em 1999 o “mande seu vídeo”.

Mas isso aconteceu como? Uma conversão ideológica dessas pessoas ou mais uma questão de trabalho?

Eu acho que era mais uma coisa de decisão pessoal de arrumar um trabalho, mas nisso você carrega essa sua bagagem. Quando você vai desenvolver um projeto pra uma empresa, pensa em fazer algo participativo.  Mas é uma história oculta: essa história nunca foi contada porque os atores têm vergonha.  Conheço vários deles, eles têm vergonha porque são pessoas que são militantes até hoje. Do mesmo jeito que eu fui pra universidade eles foram trabalhar em empresas, se eu estava fazendo mestrado e tinha isso como caminho, o do cara que era programador era trabalhar em uma empresa onde pudesse programar pra viver.

Mas seria importante exemplificar pra ficar claro que nós não estamos copiando as redes, e sim foram elas que nos copiaram. Se você olhar hoje pra esse panorama de que hoje toda a comunicação eletrônica é participativa de certa maneiro isso é uma vitória do nosso projeto. E não precisava ser assim, cara, aliás a tendência nos meados dos anos 1990 era a de que a Internet fosse uma grande televisão e a interatividade seria você mudar de canal. Ela foi outra coisa porque houve participação popular e se tentou pegar as formas participativas de comunicação que vinham da comunicação popular e aplicar explorando as potencialidades da Internet.

Por exemplo no livro Mídia Radical, do Joe Downing, ele vai contando a história das rádios livres, das TVs comunitárias, e como tudo isso converge no CMI no final dos anos 1990.  Daria pra fazer um segundo volume do livro dele, mostrando como a partir daí acontece uma revolução nas empresas de tecnologia da informação.

Seu próximo livro é esse então?

Não, não. Mas eu já pedi pra vários amigos, vocês precisam contar essa história, perder a vergonha porque é importante, é uma história oculta, essa ninguém sabe.

E como fica o “terceiro setor” dessa história, que não é propriamente movimento nem mercado, esse negócio estranho aí que é o Fora do Eixo. Seriam também um produto dessa evolução?

Cara, eu acho que o Fora do Eixo é uma coisa totalmente à parte. Acho que o Fora do Eixo não tem nada a ver com essa história, de nenhum dos lados, acho que ele é uma tentativa de positivar a natureza do trabalho contemporâneo. O Fora do Eixo é o grupo político mais impressionante que eu já vi em mais de vinte anos de militância, nunca vi ninguém mais eficiente do que eles, são um fenômeno político impressionante.

Eles são uma organização hipercapitalista. O que eles fizeram: quando a natureza do trabalho virou informacional, você já não consegue mais separar trabalho de não trabalho. Você  trabalha com jornalismo, você não desliga, não é que nem um operário que pendura o macacão e vai pra casa. Você não desliga o cérebro, você tá pensando na pauta, senta pra conversar e está conversando sobre a pauta, aquilo te toma. Por isso que é muito difícil organizar tempo de trabalho neste tipo de trabalho informacional.

Todo mundo que trabalha atrás de uma tela de computador trabalha assim, você não tem como se desligar de um trabalho dessa natureza simbólica. E aí você tem essa mistura de trabalho e não trabalho, que é massacrante.  O que eles fizeram foi transformar isso numa coisa positiva e militante.

E escondem o lucro.

Eu acho que eles não são capitalistas nesse sentido, porque eles não estão atrás do lucro econômico. É curioso, você vai ver o núcleo do Fora do Eixo, os caras que moram na casa, eles vivem que nem estudante.  Moram em beliches, vivem muito pior do que eu. E têm uma conta com três milhões de reais. Não é orientado pro lucro: o que é mais capitalista, e não menos.

Mas se é muito orientado pro poder de Estado, que implica em lucros pessoais, de uma forma é orientado pro lucro, não?

Eu acho que a questão deles é poder, não é dinheiro. Posso estar enganado, estou analisando aqui de fora.  Quer ver o que eu penso? Guardadas as proporções, não estou querendo supervalorizar, eles são superinteressantes mas também não são tudo isso que o pessoal pinta não, mas pega o Webber, a ética protestante. Pega a definição de capitalismo marxista, é geração de valor pra geração de mais-valor, pegar dinheiro, investir e gerar lucro é totalmente pré-capitalista, é desde a Antiguidade.

Mas nessa época o que você faz? Pega e gasta. Na Antiguidade uma das condições de ser rico é que você não trabalhava, você entrava num empreendimento econômico pra não trabalhar, punha as pessoas pra trabalhar e só vivia na riqueza.  E o Webber fala assim: o capitalismo não é isso. Capitalismo é outra coisa, eu pego a riqueza e reinvisto,  gerando um processo de expansão econômica.  Isso é o que diferencia o capitalismo de outros processos econômicos, e ele vai buscar no ascetismo protestante essa lógica.

Os protestantes acumulavam dinheiro e reinvestiam. E a partir do momento que você tem essa lógica de não vou gastar com mulheres, bebidas e na vida de luxo, que é a forma tradicional das pessoas ricas viverem a vida, mas eu vou reinvestir na produção, a partir do momento que você faz isso você obriga todos os competidores do mercado a seguirem a sua mesma lógica. A lógica de trabalho capitalista, de expansão: trabalho, mais trabalho, mais rigor, mais acúmulo de capital.

E quem não entra nessa lógica perde pra você, e é comprado por você. O  capitalismo é uma lógica de expansão, e vai expandindo essa lógica do trabalho pra todas as esferas da vida.  É isso, cara. Então o capitalismo não é acumular dinheiro,  o capitalismo é não acumular dinheiro.  Por isso eu acho o projeto do Fora do Eixo profundamente perigoso, porque é um projeto de vida para o trabalho. Sem acumulação.

A acumulação é de poder?

É acumulação de poder, é um projeto que usa uma estrutura econômica para um projeto de poder oculto. Qual o projeto político do Fora do Eixo? Desconhecido.  Não tem documento público. Mas eles têm projeto político, eles são um partido, obviamente eles são um partido político. Eles não estão nessa por dinheiro, vai lá na casa deles, os caras comem miojo e vivem que nem estudante.  E eles trabalham pra caralho, e bem. Eles deram um choque de capitalismo, de organização capitalista, na cultura alternativa.  Chegaram em São Carlos e falaram “vamo organizar o circuito de bandas de São Carlos”.  Na cultura até a parte capitalista é super desorganizada, a parte alternativa da cultura é caótica. Cara, é o caos. Aí eles chegam com uma ética de trabalho rigorosa, com gente eficaz, e impõem isso.

E fazem isso positivando a distinção entre trabalho e não trabalho, criando uma cultura de que minha vida é o trabalho. Com um discurso ativista. Como se eles estivessem fazendo ativismo, mas eles não estão fazendo ativismo, estão fazendo atividade econômica sem finalidade de lucro, gerando mais acumulação.  É brilhante. E perigoso.

E desse processo de junho aparentemente eles saem favorecidos, afinal depois do MPL quem ganhou mais visibilidade foi a tal Mídia Ninja.

É impressionante. Eles têm um entendimento muito sofisticado da natureza do nosso capitalismo contemporâneo. Eles sabiam que como eles não tinham capacidade de ser um ator relevante, se eles controlassem a comunicação do movimento eles controlam o movimento, controlam a imagem de como o movimento é representado.

O que é o Ninja, cara? É uma coisa minúscula perto do que aconteceu, do fenômeno político que aconteceu. Mas eles são superexpostos, porque eles controlam a comunicação e a comunicação é chave pra maneira como as pessoas percebem o movimento e como o movimento se percebe. Então é estratégico.  E eles fazem de um jeito sofisticado, eles trabalham marca…  O trabalho de marca deles é impressionante, que organização política trabalha marca? Exposição do nome, exposição do logo,  constroem um texto político colocando o logo e o nome, trabalhando com alavancagem de marca pra usar a expressão publicitária.

Já falei várias vezes que a gente deveria aproveitar isso pra gente ganhar maturidade política, porque a gente só vai enfrentar um ator político dessa natureza se tornando muito mais sério no nosso entendimento da luta social, a gente é muito amador. Eles colocam o desafio num outro nível.  São mais eficientes que os capitalistas.

Mas engajam seus membros sob uma perspectiva de militância.

Essa forma é militante mas é despolitizada. Qual a plataforma pública deles? Nenhuma. Fizeram Marcha da Liberdade, em defesa da liberdade. Lutaram pra que mantivesse esse sentido genérico.  Fizeram Existe Amor em SP. É amor, liberdade, vão fazer algo pela paz, porque é uma estratégia de mobilizar sem causa. Curioso, é extremamente despolitizante.

Mas o Existe Amor em SP tinha uma causa, era eleitoral.

Tinha, mas era oculta. Era contra os fascistas, em tese. E depois que saiu o Russomano ficou ainda mais vago. Pela cidade… é um nível de total despolitização, eles não têm um programa político.  Eles não podem ter um programa político, por isso começaram pela cultura, que é o setor mais despolitizado. É muito interessante, porque é uma militância do não político. Porque não tem causa.

É uma grande construção política. Agora, eles chegaram a um limite. Porque o que aconteceu em junho é um grande chacoalhão. É uma enorme politização da sociedade brasileira. Minha tia está falando de política, tá todo mundo falando de política, a sociedade se politizou. E como eles vão reagir frente a isso? Se politizar é tomar posição, apoiar isso ou aquilo, essa forma de organização. Eles defendem qual forma de organização?  São a favor do mercado privado, são a favor da socialização, são a favor do PT, contra o PT?  Nada, você nunca sabe.

É que isso é uma discussão muito “rancorosa”.

Exatamente… Mas você não sabe, e essa é exatamente a força e o limite do projeto político. Imagino que em algum momento eles vão dar um salto, porque isso vai chegar no limite, e como eles são muito habilidosos eles vão criar uma outra coisa a partir do que eles construíram.  Eles já tão muito perto desse limite.

Por exemplo, eles fizeram o Ninja, que é um relativo sucesso,  mas ao mesmo tempo é um fracasso, porque eles não tiveram papel ativo nessa mobilização.

Mas esse desafio que eles lançam é importante pro movimento autônomo, porque eles expõem como a gente é amador. Isso é outro assunto, mas os movimentos autônomos são muito, mas muito principistas.

Outro aprendizado do MPL: eles foram, falaram no Jornal Nacional, falaram no Roda Viva,  sem pudor, sentaram pra negociar no Conselho da Cidade. Porra, isso é um ganho. Se você olhar pra história desses movimentos, fazer isso com essa maturidade, com clareza, com estratégia, nada disso era possível no movimento antiglobalização. Essas coisas eram absolutamente necessárias. O que acontecia? Pessoas faziam isso nas costas do movimento.

Porque é necessário, como é que eu vou organizar um movimento global sem dinheiro? Tem que fazer compra internacional, imprimir material, pagar servidor de Internet. E aí como eu gerencio doações?  O movimento não quer decisões delicadas desse tipo. Então algumas pessoas faziam. “Recebemos uma doação de cinquenta mil dólares”. Alguém falou com alguém pra conseguir esse dinheiro, não cai do céu – foi feito nas costas do movimento. E isso sabotava a autonomia do movimento. O movimento antiglobalização, ao contrário do MPL, não falava com a imprensa. E aí alguém falava com a imprensa, porque tinha setores da imprensa que apoiavam o movimento. Porque o movimento não tem maturidade pra lidar com essas coisas, com dinheiro, falar com a imprensa, pressionar o governo, trabalhos necessários se você ta fazendo luta política.

Eu acho que o MPL deu um show de maturidade política em relação aos nossos padrões anteriores. Fizeram tudo que era necessário e o resultado está aí. 600 milhões por ano no bolso da classe trabalhadora! Isso não tem o que discutir. E não eram coisas assim terríveis. Dar entrevista pra deus e o mundo fez uma puta diferença. E tinha gente nos meios de comunicação que apoiava. E que quando a coisa virou e o editor permitiu fez coisa boa. Tem que explorar isso, muda muito. MPL mostrou maturidade, de mostrar que se leva a sério, e assim consegue efeito político.

Esse aprendizado a gente tem que incorporar, eu espero que a lição de junho não seja nós fomos às ruas e vencemos, que é parte da verdade, mas não a mais importante. Nós fomos às ruas e vencemos com estratégia e com maturidade política, o que é muito diferente. Que é o que o OcuppyWallStreet não fez, o 15M não fez, o movimento antiglobalização não fez.

Interessante também que em relação ao diálogo com o governo, eles aceitaram os convites mas não negociaram nada.

Faz parte da estratégia deles, mas eles podiam estar numa estratégia em que fosse estratégico negociar. Mas no caso deles a reivindicação era muito simples.  O que a gente quer é revogar o aumento. “Vem aqui, vamos discutir corredor de ônibus, licitações, municipalização do imposto da gasolina…” Não, revogação do aumento. É uma mensagem simples, do ponto de vista de comunicar com a população é claríssimo. E significa um rompimento de paradigma, a tarifa volta para trás e é isso que eles tavam querendo, o projeto deles é zero. E eles conseguiram colocar isso, ganharam a revogação e tarifa zero ta na boca do povo.

E tarifa zero é muita coisa, é mobilidade como direito social. E uma vez que você conquista isso você fala: nossa, que mais é direito social? Quero mais. Que mais como membro de uma coletividade eu tenho direito, só por ser membro dessa coletividade?

Arctic sea ice delusions strike the Mail on Sunday and Telegraph (Guardian)

Monday 9 September 2013 04.26 BST

Both UK periodicals focus on short-term noise and ignore the rapid long-term Arctic sea ice death spiral

Arctic iceberg

It’s only a matter of time before we experience an Arctic sea ice-free summer. Photograph: Jenny E Ross/Corbis

When it comes to climate science reporting, the Mail on Sunday and Telegraph are only reliable in the sense that you can rely on them to usually get the science wrong. This weekend’s Arctic sea ice articles fromDavid Rose of the Mail and Hayley Dixon at the Telegraph unfortunately fit that pattern.

Both articles claimed that Arctic sea ice extent grew 60 percent in August 2013 as compared to August 2012. While this factoid may be technically true (though the 60 percent figure appears to be an exaggeration), it’s also largely irrelevant. For one thing, the annual Arctic sea ice minimum occurs in September – we’re not there yet. And while this year’s minimum extent will certainly be higher than last year’s, that’s not the least bit surprising. As University of Reading climate scientist Ed Hawkins noted last year,

“Around 80% of the ~100 scientists at the Bjerknes [Arctic climate science] conference thought that there would be MORE Arctic sea-ice in 2013, compared to 2012.”

Regression toward the Mean

The reason so many climate scientists predicted more ice this year than last is quite simple. There’s a principle in statistics known as “regression toward the mean,” which is the phenomenon that if an extreme value of a variable is observed, the next measurement will generally be less extreme. In other words, we should not often expect to observe records in consecutive years. 2012 shattered the previous record low sea ice extent; hence ‘regression towards the mean’ told us that 2013 would likely have a higher minimum extent.

The amount of Arctic sea ice left at the end of the annual melt season is mainly determined by two factors – natural variability (weather patterns and ocean cycles), and human-caused global warming. The Arctic has lost 75 percent of its summer sea ice volume over the past three decades primarily due to human-caused global warming, but in any given year the weather can act to either preserve more or melt more sea ice. Last year the weather helped melt more ice, while this year the weather helped preserve more ice.

Last year I created an animated graphic called the ‘Arctic Escalator’ that predicted the behavior we’re now seeing from the Mail on Sunday and Telegraph. Every year when the weather acts to preserve more ice than the previous year, we can rely on climate contrarians to claim that Arctic sea ice is “rebounding” or “recovering” and there’s nothing to worry about. Given the likelihood that 2013 would not break the 2012 record, I anticipated that climate contrarians would claim this year as yet another “recovery” year, exactly as the Mail on Sunday and Telegraph have done.

Arctic sea ice extent data

Arctic sea ice extent data, 1980–2012. Data from NSIDC.In short, this year’s higher sea ice extent is merely due to the fact that last year’s minimum extent was record-shattering, and the weather was not as optimal for sea ice loss this summer. However, the long-term trend is one of rapid Arctic sea ice decline, and research has shown this is mostly due to human-caused global warming.

When Will the Arctic be Ice-Free?

Both Rose and Dixon referenced a 2007 BBC article quoting Professor Wieslaw Maslowski saying that the Arctic could be ice free in the summer of 2013. In a 2011 BBC article, he predicted ice-free Arctic seas by 2016 “plus or minus three years.” Other climate scientists believe this prediction is too pessimistic, and expect the first ice-free Arctic summersby 2040.

It’s certainly difficult to predict exactly when an ice-free Arctic summer will occur. While climate research has shown that the Arctic sea ice decline is mostly human-caused, there may also be a natural component involved. The remaining sea ice may abruptly vanish, or it may hold on for a few decades longer. What we do know is that given its rapid decline, an ice-free Arctic appears to be not a question of if, but when.

Continuing Global Warming

Both articles also claimed that “some scientists” are predicting that we’re headed into a period of global cooling. Both named just one scientist making this claim – Professor Tsonis of the University of Wisconsin,whose research shows that slowed global surface warming is only temporary. In fact, Tsonis’ co-author Kyle Swanson wrote,

“What do our results have to do with Global Warming, i.e., the century-scale response to greenhouse gas emissions? VERY LITTLE, contrary to claims that others have made on our behalf.”

Both articles also wrongly claimed that global warming has “paused” since 1997. In reality, global surface temperatures have warmed over the past 15 years, albeit more slowly than during the previous 15 years. It is possible to cherry pick a shorter time frame over which global surface temperatures haven’t warmed, as I illustrated in my other animated ‘Escalator’ graphic.

Average of NASA GISS, NOAA NCDC, and HadCRUT4 monthly global surface temperature anomalies from January 1970 through November 2012 (green) with linear trends applied to the timeframes Jan '70 - Oct '77, Apr '77 - Dec '86, Sep '87 - Nov '96, Jun '97 - Dec '02, and Nov '02 - Nov '12.

Average of NASA GISS, NOAA NCDC, and HadCRUT4 monthly global surface temperature anomalies from January 1970 through November 2012 (green) with linear trends applied to the timeframes Jan ’70 – Oct ’77, Apr ’77 – Dec ’86, Sep ’87 – Nov ’96, Jun ’97 – Dec ’02, and Nov ’02 – Nov ’12.However, the opposite is true of the overall warming of the planet – Earth has accumulated more heat over the past 15 years than during the prior 15 years.

Global heat content data from Nuccitelli et al. 2013

Global heat accumulation data (ocean heating in blue; land, atmosphere, and ice heating in red) from Nuccitelli et al. (2012). Recent research strongly suggests that the main difference between these two periods comes down to ocean heat absorption. Over the past decade, heat has been transferred more efficiently to the deep oceans, offsetting much of the human-caused warming at the surface. During the previous few decades, the opposite was true, with heat being transferred less efficiently into the oceans, causing more rapid warming at the surface. This is due to ocean cycles, but cycles are cyclical – meaning it’s only a matter of time before another warm cycle occurs, causing accelerating surface warming (as Tsonis’ research shows).

It would be foolhardy for anyone to predict future global cooling, and those few who are so foolish are unwilling to put their money where their mouth is, as my colleague John Abraham found out when challenging one to a bet, only to find the other party unwilling to stand behind it.

Rose and Dixon Invent an IPCC ‘Crisis Meeting’

Both articles also claimed the Intergovernmental Panel on Climate Change (IPCC), whose Fifth Assessment Report is due out in a few weeks, has been forced “to hold a crisis meeting.” This claim made both articles even though Ed Hawkins noted,

“I told David Rose on the phone and by email on Thursday about the IPCC process and lack of ‘crisis’ meeting.”

Unfortunately that didn’t stop Rose from inventing this meeting, or Dixon from repeating Rose’s fictional reporting in the Telegraph.

Yes, Humans are Driving Global Warming

Finally, both articles quoted climate scientist Judith Curry claiming that the anticipated IPCC statement of 95 percent confidence that humans are the main cause of the current global warming is unjustified. However, Curry has no expertise in global warming attribution, and has a reputation for exaggerating climate uncertainties. In reality, the confident IPCC statement is based on recent global warming attribution research. More on this once the IPCC report is actually published – any current commentaries on the draft report are premature.

Shoddy Climate Reporting

These two articles at the Mail on Sunday and Telegraph continue the unfortunate trend of shoddy climate reporting in the two periodicals,particularly from David Rose. They suffer from cherry picking short-term data while ignoring the long-term human-caused trends, misrepresenting climate research, repeating long-debunked myths, and inventing IPCC meetings despite being told by climate scientists that these claims are pure fiction.

Based on their history of shoddy reporting, the safest course of action when reading a climate article in the Mail on Sunday or Telegraph is to assume they’re misrepresentations or falsehoods until you can verify the facts therein for yourself.

*   *   *

Global warming? No, actually we’re cooling, claim scientists (Telegraph)

A cold Arctic summer has led to a record increase in the ice cap, leading experts to predict a period of global cooling.

Global warming? No, actually we're cooling, claim scientists

Major climate research centres now accept that there has been a “pause” in global warming since 1997.  Photo: ALAMY

9:55AM BST 08 Sep 2013

There has been a 60 per cent increase in the amount of ocean covered with ice compared to this time last year, the equivalent of almost a million square miles.

In a rebound from 2012’s record low, an unbroken ice sheet more than half the size of Europe already stretches from the Canadian islands to Russia’s northern shores, days before the annual re-freeze is even set to begin.

The Northwest Passage from the Atlantic to the Pacific has remained blocked by pack-ice all year, forcing some ships to change their routes.

A leaked report to the UN Intergovernmental Panel on Climate Change (IPCC) seen by the Mail on Sunday, has led some scientists to claim that the world is heading for a period of cooling that will not end until the middle of this century.

If correct, it would contradict computer forecasts of imminent catastrophic warming. The news comes several years after the BBC predicted that the arctic would be ice-free by 2013.

The original predictions led to billions being invested in green measures to combat the effects of climate change.

The changing predictions have led to the UN’s climate change’s body holding a crisis meeting, and the IPCC is due to report on the situation in October. A pre-summit meeting will be held later this month.

But the leaked documents are said to show that the governments who fund the IPCC are demanding 1,500 changes to the Fifth Assessment Report – a three-volume study issued every six or seven years – as they claim its current draft does not properly explain the pause.

The extent to which temperatures will rise with carbon dioxide levels and how much of the warming over the past 150 years, a total of 0.8C, is down to human greenhouse gas emissions are key issues in the debate.

The IPCC says it is “95 per cent confident” that global warming has been caused by humans – up from 90 per cent in 2007 – according to the draft report.

However, US climate expert Professor Judith Curry has questioned how this can be true as that rather than increasing in confidence, “uncertainty is getting bigger” within the academic community.

Long-term cycles in ocean temperature, she said, suggest the world may be approaching a period similar to that from 1965 to 1975, when there was a clear cooling trend.

At the time some scientists forecast an imminent ice age.

Professor Anastasios Tsonis, of the University of Wisconsin, said: “We are already in a cooling trend, which I think will continue for the next 15 years at least. There is no doubt the warming of the 1980s and 1990s has stopped.”

The IPCC is said to maintain that their climate change models suggest a pause of 15 years can be expected. Other experts agree that natural cycles cannot explain all of the recorded warming.

Related Articles

Anthropology and the Anthropocene (Anthropology News)

Anthropology and Environment Society

September 2013

Amelia Moore

“The Anthropocene” is a label that is gaining popularity in the natural sciences.  It refers to the pervasive influence of human activities on planetary systems and biogeochemical processes.   Devised by Earth scientists, the term is poised to formally end the Holocene Epoch as the geological categorization for Earth’s recent past, present, and indefinite future.  The term is also poised to become the informal slogan of a revitalized environmental movement that has been plagued by popular indifference in recent years.

Climate change is the most well known manifestation of anthropogenic global change, but it is only one example of an Anthropocene event.  Other examples listed by the Earth sciences include biodiversity loss, changes in planetary nutrient cycling, deforestation, the hole in the ozone layer, fisheries decline, and the spread of invasive species.  This change is said to stem from the growth of the human population and the spread of resource intensive economies since the Industrial Revolution (though the initial boundary marker is in dispute with some scientists arguing for the Post-WWII era and others for the advent of agriculture as the critical tipping point).  Whatever the boundary, the Anthropocene signifies multiple anthropological opportunities.

What stance should we, as anthropologists, take towards the Anthropocene? I argue that there are two (and likely more), equally valid approaches to the Anthropocene: anthropology in the Anthropocene and anthropology of the Anthropocene.  Anthropology in the Anthropocene already exists in the form of climate ethnography and work that documents the lived experience of global environmental change.  Arguably, ethnographies of protected areas and transnational conservation strategies exemplify this field as well.  Anthropology in the Anthropocene is characterized by an active concern for the detrimental affects of anthropogenesis on populations and communities that have been marginalized to bear the brunt of global change impacts or who have been haphazardly caught up in global change solution strategies.  This work is engaged with environmental justice and oriented towards political action.

Anthropology of the Anthropocene is much smaller and less well known than anthropology in the Anthropocene, but it will be no less crucial.  Existing work in this vein includes those who take a critical stance towards climate science and politics as social processes with social consequences.  Beyond deconstruction, these critical scholars investigate what forms scientific and political assemblages create and how they participate in remaking the world anew.  Other existing research in this mode interrogates the idea of biodiversity and the historical and cultural context for the notion of anthropogenesis itself.  In the near future, we will see more work that can enquire into both the sociocultural and socioecological implications and manifestations of Anthropocene discourse, practice and logic.

I have only created cursory sketches of anthropology in the Anthropocene and anthropology of the Anthropocene here.  However, these modes are not at all mutually exclusive, and they should inspire many possibilities for future work.  The centrality of anthropos, the idea of the human, within the logics of the Anthropocene is an invitation for anthropology to renew its engagements with the natural sciences in research collaborations and as the object of research, especially the ecological and Earth sciences.

For starters, we should consider the implications of the Anthropocene idea for our understandings of history and collectivity.  If the natural world is finally gaining recognition within the authoritative sciences as intimately interconnected with human life such that these two worlds cease to be separate arenas of thought and action or take on different salience, then both the Humanities and the natural sciences need to devise more appropriate modes of analysis that can speak to emergent socioecologies.  This has begun in anthropology with some recent works of environmental health studies, political ecology, and multispecies ethnography, but is still in its infancy.

In terms of opportunities for legal and political engagement, the Anthropocene signifies possibilities for reconceptualizing environmentalism, conservation and development.  Anthropologists should be cognizant of new design paradigms and models for organizing socioecological collectives from the urban to the small island to the riparian.  We should also be on the lookout for new political collaborations and publics creating conversations utilizing multiple avenues for communication in the academic realm and beyond.  Emergent asymmetries in local and transnational markets and the formation of new multi-sited assemblages of governance should be of special importance.

In terms of science, the Anthropocene signals new horizons for studying and participating in global change science.  The rise of interdisciplinary socioecology, the biosciences of coupled natural and human complexity, geoengineering and the biotech interest in de-extinction are just a sampling of important transformations in research practices, research objects, and the shifting boundaries between the lab and the field.  Ongoing scientific reorientation will continue to yield new arguments about emergent forms of life that will participate in the creation of future assemblages, publics, and movements.

I would also like to caution against potentially unhelpful uses of the Anthropocene idea.  The term should not become a brand signifying a specific style of anthropological research.  It should not gloss over rigid solidifications of time, space, the human, or life.  We should not celebrate creativity in the Anthropocene while ignoring instances of stark social differentiation and capital accumulation, just as we should not focus on Anthropocene assemblages as only hegemonic in the oppressive sense.   Further, we should be cautious with our utilization of the crisis rhetoric surrounding events in the Anthropocene, recognizing that crisis for some can be turned into multiple forms of opportunity for others.  Finally, we must admit the possibility that the Anthropocene may not succeed in gaining lasting traction through formal designation or popularization, and we should not overstate its significance by assuming its universal acceptance.

In the next year, the Section News Column of the Anthropology and Environment Society will explore news, events, projects, and arguments from colleagues and students experimenting with various framings of the Anthropocene in addition to its regular content.  If you would like to contribute to this column, please contact Amelia Moore at

– See more at:

Climate Change’s Silver Bullet? Our Interview With One Of The World’s Top Geoengineering Scholars (Climate Progress)


Clive HamiltonMELBOURNE, Australia — Since coming to Australia almost two months ago I’ve heard about Clive Hamilton in the process of reporting just about every story I’ve done. Then I picked up his new book Earthmasters: The Dawn of the Age of Climate Engineeringand now I see what all the fuss is about.

In all of the debates over how to address climate change, climate engineering — or geoengineering — is among the most contentious. It involves large-scale manipulation of the Earth’s climate using grand technological interventions, such as fertilizing the oceans with iron to absorb carbon dioxide or releasing sulfur into the atmosphere to reduce radiation. While its proponents call geoengineering a silver bullet for our climate woes, its skeptics are far more critical. Joe Romm, for one, likens geoengineering to a dangerous course of chemotherapy and radiation to treat a condition curable through diet and exercise — or, in this case, emissions reduction.

According to the cover of Hamilton’s new book, “The potential risks are enormous. It is messing with nature on a scale we’ve never seen before, and it’s attracting a flood of interest from scientists, venture capitalists and oil companies.”

Hamilton is an Australian author and public intellectual. Until 2008 he was the Executive Director of The Australia Institute, a progressive think tank that he founded in 1993. Now he’s Professor of Public Ethics at the Centre for Applied Philosophy and Public Ethics, a joint center of Charles Stuart University and the University of Melbourne.

His books include Requiem for a Species: Why we resist the truth about climate changeScorcher: The dirty truth about climate change and Growth Fetishamongst others.

Hamilton’s next book will be about the anthropocene — a new geologic era in which human activities have had a significant impact on the Earth’s ecosystems. He took some time to talk with me about this new era, the future of geoengineering and what it all means for humanity. This interview has been edited for clarity and length.

How has the environmental community responded to your book on geoengineering?


I remember back in late 1990s around Kyoto there was a great deal of resistance amongst environmentalists and climate activists, including myself, against any talk of adaptation. It was seen to be a capitulation to a kind of defeatism that we ought not to be talking about adaptation because that means that mitigation has failed. Eventually I think we all came around to view that some climate change is going to happen and therefore adaptation has to be considered. It’s better to have seat at the table, as it were, when adaptation is being discussed.

I think we’re in the same stage now with geoengineering. Most environmentalists don’t want to know about it. Most climate activists don’t want to talk about it. There is a sense that in doing so you are conceding that it could well be possible that geoengineering will be necessary because the world community will continue to fail, perhaps even more egregiously, at responding to scientific warnings.

But I wrote the book because I became aware in writing my previous book that the genie was out of the bottle: geoengineering was going to grow in importance. Therefore, climate campaigners and environmental groups sooner or later are going to have to engage in the issue. It’s a question of whether they start now or leave it for another five years, at which point the lobby backing geoengineering will be much more powerful and will have had an opportunity to frame it more inflexibly in the media and in broader public mind.

Did you come across any big surprises while writing the book?

There were a couple of big surprises. One was the extent of the geoengineering lobby and the links between the scientists and the investors. I developed a much stronger sense of the likelihood of a powerful geoengineering constituency emerging, which would — if it were not countered by a skeptical community of thinkers and campaigners — essentially take control of whole agenda. Plotting those links and laying them out was something that I go into quite a lot of detail over. At the same time it stimulated me to think about the military-industrial complex, the famous lobby group that help such sway in the U.S. in the middle of the 20th century.

One thing I noticed while doing this research and looking at scientists involved was the density of the linkages with the Lawrence Livermore National Laboratory. So I investigated further and thought it’s really quite astonishing the extent to which many, if not most, prominent scientific researchers in geoengineering in the U.S. worked at Livermore or have close links with people there now or those who used to work there.

Then when I read Hugh Gusterson’s book on Livermore and it’s role in the cold war and nuclear weapons development, I started to think much more carefully about the type of mindset that is especially drawn to geoengineering as a technological response to global warming. I think it’s quite alarming in its implications. That lead me to further think about the geostrategic implications of climate engineering, which is something that’s received almost no attention, but we do know that people in the military and related strategic communities are starting to think about geoengineering and what it would mean for international relations and conflict.

What about the potential for financial gain?

A noble desire to save the world from climate change will attract less noble intentions. That’s just the way of the world. Never let a good crisis go to waste. Already we’re seeing it with Canadian oil sands billionaire Murray Edwards investing in geoengineering technologies.

I spend quite a bit of time talking about Bill Gates in the book. Earlier this year, I was talking about the scientific entrepreneurial lobby group that was emerging during a debate with Peter Singer (another Australian philosopher) and I mentioned Bill Gates. Singer said, “Well what’s wrong with Bill Gates? He’s well motivated. He does a lot of good charity work. If you’re going to have millionaires investing in geoengineering then Bill Gates would be one of the first.”

I made the point that yes, Bill Gates is now in philanthropic mode, and The Bill and Melinda Gates Foundation does praiseworthy work, but it’s not Bill Gates’ motives I’m worried about; it’s his worldview. That Silicon Valley, ‘we’ve-got-an-app-for-that’ kind of understanding. Joe Romm (Editor of Climate Progress) has been very critical of Gates for his dissing of renewable energy technology. Gates described solar energy as cute.

So Gates is drawn to big, new, shiny technological responses that clever people dream up. You know, brainstorming over pizza and coke. That’s where he comes from and that’s how he thinks. It’s one thing to think about computers and software that way, but it’s a completely different matter to think about the earth as a whole as in need of a snazzy new app that will solve the problem. I think that’s an extremely dangerous way to understand it for all sorts of reasons.

Perhaps the most important of which is that the climate change problem is not a technological one. It’s a social and political one. The more people focus on techno-fixes, the more they distract us from the real problems, which are the social and political difficulties of responding to climate change. We have the technology and have had it for many years. So arguing that the blockage is the absence of technology is extremely unhelpful and plays into the hands of the fossil fuel lobby.

In the book you say the slippery slope to a techno-fix promises a substitute for the slippery slope to revolution.

Revolutions take all different forms of course, from the industrial revolution to Tahrir Square to the cultural revolution of the 60s and 70s, and it’s more along the lines of the latter that I was thinking of, and into which new forms of climate activism can feed. There’s often a sort of terror in environmental groups that if they do something radical or outrageous, they’ll alienate mom and dad in the suburbs.

But social movements that have radically changed the way our world works — think of the woman’s movement — have frequently started out being rancorous and difficult and attracting the derision of the conservative press and politicians. And indeed, mystifying and often alienating people living in the suburbs or high-rises. If people have to be shocked and outraged before they come around to seeing that some fundamental transformation is necessary, then so be it. I think that there’s a level of fear and complacency and unwillingness to shift to change on the part of our societies, and some kind of circuit breaker is necessary.

You talk about the acceptance of the “solution” of geoengineering even by people who don’t seem to think climate change is a problem in the first place.

That’s one of the, on the face of it, mystifying aspects of the geoengineering debate. Why conservative think tanks like The American Enterprise Institute, The Cato Institute and even The Heartland Institute, which have for years worked hard to deny climate science and block all measures to reduce carbon emissions, have come out in favor of geoengineering.

What it shows us is that the debate over climate change and the role of the deniers is not about the science. They want to make it about the science because that gives it an air of legitimacy, but it’s really about fundamental cultural and political values. So if geoengineering is the solution then they’re happy to concede that there’s a problem because geoengineering is a big, technological, macho, system-justifying response to climate change. And that’s the kind of response that fits with their political orientation.

How does the “American Way of Life” factor into all of this?

Already we’re seeing what authorities in the U.S. need to do in order to protect people from massive hurricanes and monster wildfires and frequent floods. As the effects of climate change become even more severe we’ll see nations like the U.S. that are in a position to adapt start spending billions of dollars dong so.

And of course, the more the climate deniers persuade politicians that hurricanes and wildfires aren’t due to climate change, the less responsive authorities are likely to be and the more people will die, in effect. Eventually it will be impossible to continue to pretend that mitigation is not the first best option. It might take five years, it might take ten, let’s hope it doesn’t take twenty.

The sort of tragedy of all this is that if the world had become serious ten or so years ago that cost would have been vastly smaller than it’s going to be. But you know that’s in a perfect world where human beings are rational and take reasonable measures to protect themselves from the warnings of scientists. But we now know that the enlightenment conception of human beings as rational creatures who assess the evidence and take measures to protect themselves from harm, that has now collapsed before us. We can no longer maintain that belief.

That feeds into this idea of the anthropocene and the ethical implications of living in a world with climate change.

I am writing a book about the anthropocene because it seems to me that when human beings become so powerful that they transform the fundamental cycles and processes that govern the evolution of the earth itself that we’re entering into an era, or we’ve reached an event, that’s as significant as the industrial revolution, or even the process of civilization itself.

It causes us to rethink pretty much everything. It certainly causes us to rethink what the relationship of human beings is to the planet, but in a harder way, what is a human being. The sort of modern conception of what a human being is is an isolated ego existing inside a body. And most of us think that’s just what we are. But in fact that’s a very recent and culturally specific understanding of what a human being is. And it’s the conception of a human being that’s consistent with an advanced consumer society.

Collectively though, we are the kind of creatures, like certain types of microbes, that can completely transform the nature of the planet on which we live. If this is so, then it causes us to rethink who we are and what the place of this strange, clever creature is on planet earth.

We can no longer think of the Earth as the passive and unresponsive backdrop to the human drama where we play out our parts in a kind of Shakespearean play and not worry about the backdrop. We now find that the backdrop, the stage scenery, has entered into the play and is disrupting the whole proceedings.

Something very profound has happened. Human history, which we think of as only being a few thousand years old and is the history of human actions, has converged with geologic history, which we always thought of as operating in a very distinct domain having nothing to do with us. But now we find that our history affects the history of the earth.

If there is no more human history distinct from earth history, then what does that mean?