Arquivo da tag: Enquadramento

O dióxido de carbono está reconfigurando o planeta (IPS)

Ambiente

30/9/2013 – 08h08

por Stephen Leahy, da IPS

stephen6401 O dióxido de carbono está reconfigurando o planeta

O derretimento da geleira de Orizaba, no México, é outra consequência do aquecimento global. Foto: Maurício Ramos/IPS

Nantes, França, 30/9/2013 – A Groenlândia pode acabar se tornando verde, pois a maior parte de sua enorme camada de gelo está condenada a derreter, informou, no dia 27, o Grupo Intergovernamental de Especialistas sobre Mudança Climática (IPCC). O resumo de 36 páginas apresentado em Estocolmo pelo IPCC, que funciona na órbita da Organização das Nações Unidas (ONU), inclui um alerta de que há 20% de possibilidades de os gelos da Groenlândia iniciarem um derretimento irreversível com apenas 0,2 grau de aquecimento adicional.

Essa quantidade de aquecimento agregado é uma certeza agora. Contudo, o derretimento definitivo do gelo na Groenlândia consumirá mil anos. “O novo informe é outro chamado para despertar, que nos diz que estamos com grandes problemas e vamos rumo a graus perigosos de mudança climática”, destacou David Cadman, presidente da Iclei, a única rede de cidades sustentáveis que opera em todo o mundo e envolve 1.200 governos locais.

“O IPCC será atacado por interesses (da indústria dos combustíveis fósseis e seus defensores. Eles tentarão assustar o público, alegando que tomar medidas coloca em risco os empregos e a economia. Isso não é verdade. Pelo contrário”, afirmou Cadman à IPS. O Resumo para Responsáveis por Políticas do Informe do Grupo de Trabalho I – Bases de Ciência Física estabelece claramente que os seres humanos estão esquentando o planeta, e confirma estudos que datam de 1997. Desde os anos 1950, cada década foi mais quente do que a anterior, diz o documento.

O texto completo será divulgado hoje e é o primeiro dos quatro volumes (os dos três grupos de trabalho mais a síntese) do Quinto Informe de Avaliação do IPCC, conhecido como AR5. No Hemisfério Norte, “as temperaturas entre 1983 e 2012 foram as mais quentes dos últimos 1.400 anos”, destacou Thomas Stocker, copresidente do Grupo de Trabalho I.

Em resposta às notícias dos últimos dias, falando sobre uma “interrupção do aquecimento”, Stocker disse que o sistema climático é dinâmico, sendo provável que nos últimos anos tenha ingressado mais calor nos oceanos e que tenha diminuído ligeiramente o ritmo dos aumentos das temperaturas superficiais. Há mais de cem anos pesquisadores demonstraram que o dióxido de carbono prende o calor do Sol.

A queima de combustíveis fósseis, o desmatamento, a agricultura e outras atividades humanas emitem esse gás na atmosfera, onde permanece quase para sempre. Os maiores volumes de dióxido de carbono, por sua vez, acrescentam mais calor, pois atuam como outra camada de isolamento. Mais de 90% desta energia térmica adicional é absorvida pelos oceanos, segundo o Resumo. Isso explica a causa de as temperaturas da superfície ainda não terem superado o aumento médio mundial de 0,8 grau.

O Resumo destaca que a redução da camada de gelo do Ártico nas últimas três décadas foi a maior dos últimos 1.450 anos. Embora o derretimento no último verão boreal tenha sido menor que no ano passado, o Ártico segue no caminho de ficar sem gelo na temporada estival de 2050, bem antes do projetado por relatórios anteriores.

O informe do IPCC, uma revisão das pesquisas científicas disponíveis, se baseou em trabalhos de 259 autores de 39 países, e contou com 54.677 comentários. O informe de avaliação anterior, ou AR4, é de 2007. O IPCC não realiza pesquisas próprias e está sob a direção de 110 governos que passaram os últimos quatro dias aprovando o texto do sumário. “Cada palavra contida nas 36 páginas foi debatida. Alguns parágrafos foram discutidos por mais de uma hora”, contou Stocker em entrevista coletiva em Estocolmo. “Nenhum outro relatório científico jamais passou por um escrutínio tão crítico”, ressaltou.

O Resumo, redigido com cautela, detalha e confirma os impactos observados, com o aumento das temperaturas, as mudanças nos padrões pluviométricos e os extremos climáticos. Também confirma que estes e outros impactos vão piorar na medida em que aumentarem as emissões de dióxido de carbono. As atuais emissões deste gás estão no rumo do pior cenário.

O resumo do AR5 diz que a camada gelada da Groenlândia perdeu, em média, 177 bilhões de toneladas de gelo por ano entre 1992 e 2001. Estudos mais recentes demonstram que o gelo perdido aumentou substancialmente desde então. Segundo o relatório, há uma possibilidade em cinco de a camada gelada da Groenlândia derreter totalmente se as temperaturas globais aumentarem entre 0,8 grau e mais de um, como parece inevitável agora.

Um dos motivos é que a elevação das temperaturas no Ártico é quase três vezes maior do que o aumento médio mundial. Se a temperatura média mundial aumentar cerca de quatro graus será desencadeado um derretimento na Groenlândia, que elevaria o nível do mar em até sete metros. Apesar disto, o AR5 diz que não se espera que o nível do mar suba mais de um metro neste século.

Outros cientistas, entre eles James Hansen, ex-diretor do Instituto Goddar de Estudos Espaciais da Nasa (agência espacial dos Estados Unidos), acreditam que o acelerado derretimento observado no Ártico, na Groenlândia, na Antártida e nas geleiras é um sinal de que neste século o mar pode subir vários metros, a menos que as emissões sejam reduzidas.

Mesmo antes de se tornar público o novo informe do IPCC, “os que negam a mudança climática” o atacaram e tergiversaram, tentando retratar suas conclusões como radicais ou extremistas, afirmou Charles Greene, professor de ciências atmosféricas e da terra na Cornell University, de Nova York. Greene se referia a um orquestrado esforço de propaganda de atores da indústria dos combustíveis fósseis e de organizações que tentam convencer o público de que o aquecimento global não é um assunto de extrema urgência. “Na verdade, o IPCC tem um longo histórico de subestimar os impactos” da mudança climática, afirmou Greene.

Embora a ação mundial contra o aquecimento esteja em ponto morto, algumas cidades já estão reduzindo suas emissões de carbono. Os membros do Iclei se comprometeram com uma redução de 20% até 2020 e de 80% até 2050. A maioria dos governos não está tomando iniciativas, o que revela claramente o poder e a influência do setor dos combustíveis fósseis, pontuou Cadman. “As cidades podem fazer até dez vezes mais, mas, simplesmente, não têm dinheiro”, ressaltou.

Envolverde/IPS

IPCC sustenta que aquecimento global é inequívoco (IPS)

Ambiente

30/9/2013 – 08h01

por Fabíola Ortiz, da IPS

IPCC1 IPCC sustenta que aquecimento global é inequívoco

A elevação do nível do mar pode alagar várias regiões do Recife, no Nordeste do Brasil. Foto: Alejandro Arigón/IPS

Rio de Janeiro, Brasil, 30/9/2013 – Em meio a rumores de que o aquecimento global se deteve nos últimos 15 anos, o novo informe do Grupo Internacional de Especialistas sobre a Mudança Climática (IPCC) indica que as três últimas décadas foram, sucessivamente, mais quentes do que qualquer outra desde 1850. O Resumo para Responsáveis por Políticas do informe do Grupo de Trabalho I – Bases de Ciência Física, foi divulgado no dia 27, em Estocolmo, na Suécia.

O texto completo, sem edições, será conhecido hoje e constitui o primeiro dos quatro volumes do Quinto Informe de Avaliação do IPCC. O aquecimento é “inequívoco”, afirma o IPCC. “A atmosfera e o oceano esquentam, a quantidade de neve e gelo diminui, o nível do mar sobe e as concentrações de gases-estufa aumentam”, destaca o estudo.

Para o especialista brasileiro em clima, Carlos Nobre, um dos autores principais do Quarto Informe de Avaliação, o novo relatório não dá “nenhuma razão para o otimismo. Cada uma das três últimas décadas foi sucessivamente mais quente do que qualquer outra desde 1850. No Hemisfério Norte, o período 1983-2012 representa, provavelmente, os 30 anos mais quentes dos últimos 1.400”, diz o novo resumo. Os dados “das temperaturas médias terrestres e da superfície do oceano, calculados como uma tendência linear, mostram um aquecimento de 0,85 grau no período 1880-2012”, acrescentou Nobre

A respeito da suposta pausa no aumento do calor, o IPCC afirma que “a taxa de aquecimento dos últimos 15 anos (1998-2012) – que foi de 0,05 grau por década e que começou com um potente El Niño (fase quente da Oscilação do Sul) – é menor do que a calculada entre 1951 e 2012, que foi de 0,12 grau por década”.

Entretanto, argumenta, “devido à variabilidade natural, as tendências baseadas em registros de períodos curtos são muito sensíveis às datas de começo e final, e não refletem, em geral, as tendências climáticas de longo prazo”. Resumindo, diz o documento, “é virtualmente certo (99% a 100% de certeza) que a troposfera esquenta desde meados do século 20”.

Nobre indicou à IPS que “o resumo observa com mais detalhe o que está mudando e reduz as incertezas com um conhecimento científico aperfeiçoado”. Além disso, confirma que as alterações do clima se originam principalmente nas ações humanas, destacou Nobre, secretário de Pesquisa e Desenvolvimento do Ministério de Ciência e Tecnologia.

A humanidade deverá se decidir a deixar grande parte dos combustíveis fósseis – responsáveis pela emissão de gases que esquentam a atmosfera – e passar para outras formas de energia renovável, advertiu Nobre. Tecnicamente, é possível, falta uma opção consciente de todos os países, ressaltou. “Essa transição tem um custo, mas que é cada vez menor do que o estimado há 15 anos. O problema não é a tecnologia, mas a decisão política”, acrescentou.

Para Carlos Rittl, coordenador do programa de mudanças climáticas e energia do WWF-Brasil (Fundo Mundial para a Natureza), “embora o aquecimento tenha apresentado uma aparente estabilização quanto à temperatura média, os anos mais quentes foram registrados na última década. Isso não nos deixa em uma situação de conforto”.

O informe do IPCC, uma revisão das pesquisas científicas disponíveis, se baseou em trabalhos de 259 autores de 39 países, e contou com 54.677 comentários. Sua divulgação veio permeada de uma renovada onda mediática de dúvidas e rumores sobre a existência do aquecimento global.

Com base em diferentes trajetórias de emissão de gases-estufa, o resumo projeta para este final de século uma elevação da temperatura superior a 1,5 grau em relação ao período 1850-1900 em todos os cenários, menos no de menor concentração de gases. Também afirma que, provavelmente, o aumento exceda os dois graus até 2100 nos dois cenários de maior emissão de gases. O informe anterior, de 2007, previa aumento de dois graus, no melhor dos casos, e de até seis, no pior.

Após o fracasso da conferência intergovernamental de Copenhague, em dezembro de 2009, quando os países não conseguiram obter um acordo para reduzir a contaminação climática, foram redobrados os questionamentos ao IPCC, em particular por uma errônea estimativa do derretimento das geleiras do Himalaia. A informação “foi usada de forma irresponsável por quem nega o aquecimento global”, alertou Rittl.

Seis anos depois, há mais e melhores evidências científicas para estimar, por exemplo, quanto o derretimento de gelos contribui para a elevação do nível do mar. Até o final de 2100 a elevação média do mar oscilará entre 24 centímetros e 63 centímetros, segundo o melhor e o pior cenários de contaminação atmosférica. As chuvas “aumentarão nas regiões mais úmidas e diminuirão naquelas onde há escassez pluviométrica”, detalhou Rittl, que é doutor em ecologia.

No Brasil os exemplos são a árida região do Nordeste e as mais úmidas do Sul e Sudeste. A incidência de chuvas crescerá entre 1% e 3% em zonas do sul, segundo a velocidade do aquecimento, enquanto as áridas apresentarão padrões de seca mais severos. Todas as tendências confirmadas pelo informe são “alarmantes”, apontou Rittl. “Nós, humanos, somos responsáveis por essas mudanças, que vão piorar o cenário atual em que já há centenas de milhões de pessoas sofrendo escassez de água, de comida e de condições adequadas para sobreviver”, ressaltou.

O primeiro volume do Quinto Informe de Avaliação do IPCC é divulgado dois meses antes de acontecer em Varsóvia, na Polônia, a 19ª Conferência das Partes da Convenção das Nações Unidas sobre Mudança Climática. Nesse encontro deverá ser feito um esforço mundial para garantir a transição para uma economia baixa em dióxido de carbono, disse Nobre. “Este informe é um choque de realidade”, ressaltou.

Em sua opinião, o Brasil é um dos “poucos bons exemplos”, pois conseguiu reduzir em 38,4% suas emissões de gases-estufa entre 2005 e 2010, devido à queda no desmatamento da Amazônia. “O Brasil adotou compromissos voluntários, mas no global não há um acordo ambicioso”, explicou Nobre. Quanto mais tempo se demorar em “adotar ações concretas, mais difícil e improvável será conseguir uma trajetória sustentável de acomodação e adaptação à mudança climática”, enfatizou.

Rittl acredita que os governos devem enfrentar a mudança climática como um desafio nacional para o desenvolvimento, a inclusão social e a redução da pobreza. “É necessário lidar com os riscos e as oportunidades com muita responsabilidade”, concluiu.

Envolverde/IPS

Ahead of IPCC report, fossil-fuel groups organize climate denial campaign (Grist)

By , 20 Sep 2013 11:38 AM

tiny man, huge megaphone
Shutterstock
If only they would shut up.

Watch out: A tsunami of stupidity is due to crash over the world next Friday.

That’s when the Intergovernmental Panel on Climate Change will release a summary of its big new climate assessment report, the first since 2007. But that’s not the stupid part.

A global campaign funded by fossil-fuel interests has been steadily building to discredit the report. That’s where the stupidity comes in. From The Guardian:

Organisations that dismiss the science behind climate change and oppose curbs on greenhouse gas pollution have made a big push to cloud the release of the IPCC report, the result of six years of work by hundreds of scientists.

Those efforts this week extended to promoting the fiction of a recovery in the decline of Arctic sea ice.

The IPCC assessments, produced every six or seven years, are seen as the definitive report on climate change, incorporating the key findings from some 9,000 articles published in scientific journals.

Climate deniers are pushing their messages out through blogs as well as old-fashioned outlets like the Daily MailFrom Skeptical Science:

Like the way a picnic on a sunny afternoon in August tends to attract lots of annoying wasps, major events on the climate change timeline tend to see certain contrarian figures and organisations dialling up the rhetorical output.

This is frustrating yet it has over the years become quite predictable: arguing with some climate change contrarians is similar to attempting debate with a well-trained parrot. Imagine: the parrot has memorised some twenty statements that it can squawk out at random. Thus it will follow up on ‘no warming since 1997′ with ‘in the 1970s they said there’d be an ice-age’ and so on. Another piece in the UK-based Daily Mail’s Sunday edition of September 8th 2013, written by a figure familiar to Skeptical Science readers, Mail and Vanity Fair journalist David Rose, gives a classic example of such parroting. There’s another in the UK’s Daily Telegraph along remarkably similar lines (it could even be the same parrot).

Meanwhile, the Koch-funded Heartland Institute has already published a compilation of lies in its own preemptive report. Its “experts” are so desperate to get their climate-denying messages out that they would probably turn up at your kid’s birthday party if you asked them nicely enough.

The news here is predictable but not terrible. Scientists and activists are doing better jobs of organizing communication strategies in the face of anti-science blather. From Inside Climate News:

Dozens of prominent scientists involved with drafting IPCC reports formed a Climate Science Rapid Response Team that punches back against misleading claims about climate research.

Kevin Trenberth is part of that team as well as a climate scientist at the National Center for Atmospheric Research and an author and editor on the forthcoming IPCC report. He explained that nearly every time there is a scientific paper linking man-made carbon dioxide emissions to climate change, the “denial-sphere” immediately responds with accusations that the research is wrong.

“The scientists get nasty emails. Certain websites comment. … So a bunch of us formed this rapid response team to deflate these arguments.” The group has been very busy in recent weeks.

Although those who make a living by denying climate science are screaming as loudly as ever, most people are getting better at tuning out their histrionics. Again from the Inside Climate News article:

Cindy Baxter, a longtime climate campaigner, said she thinks climate skeptics “are getting more shrill, but getting less notice,” because Americans are more convinced that global warming is real.

“Hurricane Sandy. Droughts. Flooding. Wildfires. People are feeling the effects of climate change. That makes it harder to deny,” said Baxter, who is also a co-author of Greenpeace’s new report Dealing in Doubt, which chronicles the history of climate skeptic campaigns. Polls say a larger majority of Americans from both parties see recent waves of deadly weather as a sign of climate change.

Unfortunately, this denier campaign will be around for a while. The IPCC report due out next Friday is just the first of four scheduled to be released over the coming year. Maybe after the final one comes out, the denial pushers will finally potter off to find new work, perhaps as baby-seal clubbers, orphan poisoners, or textbook reviewers for the Texas State Board of Education.

John Upton is a science fan and green news boffin who tweets, posts articles to Facebook, and blogs about ecology. He welcomes reader questions, tips, and incoherent rants: johnupton@gmail.com.

Sociological explanations for climate change denial (resilience.org)

by Olga Bonfiglio, originally published by Energy Bulletin  | MAR 17, 2012

Talk about climate change seems to be a taboo subject in America today.

Three years ago promises by both major political parties to do something have gone by the wayside while today’sRepublican presidential candidates reject evidence that humans are responsible for the warming of the earth

The mainstream media routinely report on extreme weather, like this winter’s high temperatures and last summer’s droughts, but reporters and commentators typically veer away from connecting it to climate change.

Last October, the New York Times reported that those who believed the Earth was warming dropped from 79 percent in 2006 to 59 percent.  However, a month laterpolling experts blamed this decline on a collapse in media coverage and pollsters’ deeply flawed questions.

It turns out that the United States is one of the few countries in the world still quibbling over climate change, and its influence is stymieing progress at environmental summits like Durbin (2011), Cancun (2010), and Copenhagen (2009).

What’s going on?

As you may expect, it’s about money, politics, culture and media bias.

Ron Kramer, a sociologist at Western Michigan University, has been studying how sociological and cultural factors are preventing Americans from talking about or acting on climate change.  He drew on the research of sociologist Stanley Cohen, professor emeritus at the London School of Economics, who says that denial “refers to the maintenance of social worlds in which an undesirable situation (event, condition, phenomenon) is unrecognized, ignored or made to seem normal.”

He cites three categories of denial:

  • literal denial is: “the assertion that something did not happen or is not true.”
  • With an interpretive denial, the basic facts are not denied, however, “…they are given a different meaning from what seems apparent to others.” People recognize that something is happening but that it’s good for us.
  • Implicatory denial “covers the multitude of vocabularies, justifications, rationalizations, evasions that we use to deal with our awareness of so many images of unmitigated suffering.” Here, “knowledge itself is not an issue. The genuine challenge is doing the ‘right’ thing with this knowledge.”

Through literal and interpretive denial, climate change deniers declare that the earth is not warming even though 98 percent of our scientists have written thousands of peer-reviewed papers and reports concluding that climate change is real and caused by human activity.

Actually, deniers are organized by conservative think tanks funded by the fossil fuel industry that attempt to create doubt about climate science and block actions that would reduce greenhouse gas emissions and create clean energy alternatives.

To do this they use conspiracy theories and “fake” experts with no background in climate science.  They insist on absolute certainty, cherry-pick the data and ignore the larger body of evidence or misrepresent data and promote logical fallacies like “the climate has changed in the past, therefore current change is natural.”

“Creating doubt blocks any action,” said Kramer.  “This is the same tactic the tobacco industry used to deny that smoking was harmful to people’s health. And, some of the same people are now doing this with climate change.”

The “conservative climate change denial counter-movement,” as Kramer calls it, was led by the George W. Bush administration and congressional Republicans who obstruct and manipulate the political system to promote their view.  They are complemented by right-wing media outlets such as Fox News and Rush Limbaugh.  The mainstream media’s “balancing norm” practice then allows the denialists to be placed on par with the climate scientists.

The rationale behind this counter-movement is that corporations make money if Americans continue their materialistic attitudes and practices so they lobby politicians to protect their interests and they fund think tanks that accuse “eco-scientists” of destroying capitalism, as revealed by the New YorkTimes.

Corporations provide research monies to university scientists, who rely on them as support from state legislatures and benefactors dwindles.  They advance narratives that people from other parts of the world are worse off than Americans, so we don’t have to change.  They make claims to virtue on TV ads about all they are doing for the environment (a.k.a. “greenwashing”).  And, they argue that doing something about global warming will cost too much and cause them to lose their competitive edge.

Research shows that conservative white males are more likely to espouse climate change denial than other groups for two reasons.  They tend to filter out any information that is different from their already-held worldview because it threatens the identity, status and esteem they receive by being part of their group, he said.  Sociologists call this “Identity Protective Cognition.”

Secondly, conservative white males have a stronger need to justify the status quo and resist attempts to change it.  Sociologists call this “System Justification.”

For example, successful conservative white males stridently defend the capitalist system because it has worked well for them. For anyone to imply the system is not functioning is an unfathomable impossibility akin to blasphemy. [Climatewire via Scientific American]

“Identity Protective Cognition” should also inform environmental activists that the information deficit model of activism is not always a good approach, warned Kramer.  Just providing more information may not change anyone’s views given their commitment to a particular cultural worldview.

In implicatory denial people recognize that something untoward is happening but they fail to act because they are emotionally uncomfortable or troubled about it.

For example, there are the people who are aware of climate change and have some information about it, but take no action, make no behavioral changes and remain apathetic.

This response occurs when people confront confusing and conflicting information from political leaders and the media.  Consequently, they have yet another reason for denial—or they believe the problem can be overcome with technology and they can go on with their lives.

“At some level people understand that climate change can alter human civilization, but they feel a sense of helplessness and powerlessness at the prospect,” said Kramer.  “Others feel guilty that they may have caused the problem.”

Several cultural factors also thwart any decisive action on climate change, said Kramer.

Americans have a tendency toward “anti-intellectualism,” so “nerdy” climate scientists are easily suspect.

Our strong sense of “individualism” helps us strive toward our individual goals, but it likewise keeps us from joining together to do something about climate change.  They ask:  “What good does it do to recycle or drive less when we have such a huge, complex problem as climate change?”

“American exceptionalism” celebrates the American way of life, which has given us a vast bounty of wealth and material goods.  We want to continue this life and, in fact, deserve it.  Nothing bad will happen to us.

Finally, “political alienation” keeps us from trusting our political system to tackle the problem.

“What we ultimately need is international agreement about what to do about climate change,” said Kramer.  “Nothing will happen, however, until the United States commits to doing something.”

What to do about climate change?

Kramer believes we should regard climate change as a matter of social justice and not just science because the people most affected by it are not the ones who created it.

North American and European lifestyles, which are based on easy and cheap access to fossil fuels for energy, agriculture and consumer products have inadvertently caused much suffering, poverty and environmental degradation to the people of the Global South.

To illustrate, analysts at Maplecroft have produced a map that measures of the risk of climate change impacts and the social and financial ability of communities and governments to cope with it.  The most vulnerable nations are Haiti, Bangladesh and Zimbabwe.

Second, Kramer emphasized the moral obligation we have to future generations and other species.  Simply put, we must reduce our use of fossil fuels that are largely responsible for emitting greenhouse gases into the atmosphere and causing extreme weather conditions like hurricanes, floods, drought, tsunami, earthquakes, heat waves, warm winters and melting polar ice caps.

Again, people’s lives, livelihoods and communities are affected and it shouldn’t escape notice that human encroachment on animal habitats is contributing to massive species losses, what some call the Sixth Great Extinction.  Criminologists are grappling with the language characterizing this wonton disregard with words like “ecocide” and “biocide.”

Kramer suggests that we shift our lifestyles from a culture based on materialistic consumption to a culture based on the caretaking of the Earth, as advocated by Scott Russell Sanders in A Conservationist Manifesto (2009).  Sanders asks such questions as (see a video with Sanders)

  • What would a truly sustainable economy look like?
  • What responsibilities do we bear for the well-being of future generations?
  • What responsibilities do we bear toward Earth’s millions of other species?
  • In a time of ecological calamity and widespread human suffering, how should we imagine a good life?

Third, Kramer calls for a more “prophetic imagination” as put forward by Walter Brueggeman, a theologian and professor emeritus at Columbia Theological Seminary, where we take a reasoned approach and face the realities of climate change, confront the truth, “penetrate the numbness and despair,” and avoid drowning in our sense of loss and grief that is paralyzing us from action.

Such an approach can give voice to a “hope-filled responsibility” where people are empowered to act rather than left listless and inattentive.

“It’s not about someone being responsible, but all of us,” said Kramer, “because we are all affected by climate change.”

One major way we can do that is by reducing greenhouse gas emissions—and we have a way to measure our progress.

Bill McKibben, author of The End of Nature (1988), one of the first popularized books about global warming, contends that rising counts in greenhouse gas emissions are threatening our world.  Today, we are at 400 parts per million (ppm) and heading toward 550-650 ppm compared to pre-industrial counts that measured at 275 ppm.  McKibben advocates a goal of 350 ppm and has encouraged people in 188 countries to reduce carbon emissions in their communities.  (See the video explaining this charge.)

However, can people really be motivated to act given the complexity of the problem?

Kramer harkens to Howard Zinn’s autobiographical book, You Can’t Be Neutral on a Moving Train (1994).  In it Zinn says that we have to “look to history” to see that people working at the grassroots level were able to make change despite tremendous and entrenched obstacles.  It was people who ended slavery and Apartheid, liberated India, dismantled the Soviet Union and initiated the Arab Spring of 2011.  (See a video with Zinn)

“Climate change is a political issue” Kramer insisted.  “We know what to do.  We know that we need to mitigate the carbon emissions from fossil fuels.  What we lack is the political will and the mechanisms to move forward.”

Kramer insisted that climate change is not a party or ideological issue but rather a humanity issue.

“Planet Earth will survive,” he concluded, “but will human civilization?”

Quinto relatório do IPCC: repercussão

Documento divulgado nesta sexta (27/09) afirma que a temperatura do planeta pode subir quase 5 °C durante este século, o que poderá elevar o nível dos oceanos em até 82 centímetros (foto do Oceano Ártico: Nasa)

Especiais

Quinto relatório do IPCC mostra intensificação das mudanças climáticas

27/09/2013

Por Karina Toledo, de Londres

Agência FAPESP – Caso as emissões de gases do efeito estufa continuem crescendo às atuais taxas ao longo dos próximos anos, a temperatura do planeta poderá aumentar até 4,8 graus Celsius neste século – o que poderá resultar em uma elevação de até 82 centímetros no nível do mar e causar danos importantes na maior parte das regiões costeiras do globo.

O alerta foi feito pelos cientistas do Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês), da Organização das Nações Unidas (ONU), que divulgaram no dia 27 de setembro, em Estocolmo, na Suécia, a primeira parte de seu quinto relatório de avaliação (AR5). Com base na revisão de milhares de pesquisas realizadas nos últimos cinco anos, o documento apresenta as bases científicas da mudança climática global.

De acordo com Paulo Artaxo, professor do Instituto de Física da Universidade de São Paulo (USP) e um dos seis brasileiros que participaram da elaboração desse relatório, foram simulados quatro diferentes cenários de concentrações de gases de efeito estufa, possíveis de acontecer até o ano de 2100 – os chamados “Representative Concentration Pathways (RCPs)”.

“Para fazer a previsão do aumento da temperatura são necessários dois ingredientes básicos: um modelo climático e um cenário de emissões. No quarto relatório (divulgado em 2007) também foram simulados quatro cenários, mas se levou em conta apenas a quantidade de gases de efeito estufa emitida. Neste quinto relatório, nós usamos um sistema mais completo, que leva em conta os impactos dessas emissões, ou seja, o quanto haverá de alteração no balanço de radiação do sistema terrestre”, explicou Artaxo, que está em Londres para a FAPESP Week London, onde participou de um painel sobre mudança climática.

O balanço de radiação corresponde à razão entre a quantidade de energia solar que entra e que sai de nosso planeta, indicando o quanto ficou armazenada no sistema terrestre de acordo com as concentrações de gases de efeito estufa, partículas de aerossóis emitidas e outros agentes climáticos.

O cenário mais otimista prevê que o sistema terrestre armazenará 2,6 watts por metro quadrado (W/m2) adicionais. Nesse caso, o aumento da temperatura terrestre poderia variar entre 0,3 °C e 1,7 °C de 2010 até 2100 e o nível do mar poderia subir entre 26 e 55 centímetros ao longo deste século.

“Para que esse cenário acontecesse, seria preciso estabilizar as concentrações de gases do efeito estufa nos próximos 10 anos e atuar para sua remoção da atmosfera. Ainda assim, os modelos indicam um aumento adicional de quase 2 °C na temperatura – além do 0,9 °C que nosso planeta já aqueceu desde o ano 1750”, avaliou Artaxo.

O segundo cenário (RCP4.5) prevê um armazenamento de 4,5 W/m2. Nesse caso, o aumento da temperatura terrestre seria entre 1,1 °C e 2,6 °C e o nível do mar subiria entre 32 e 63 centímetros. No terceiro cenário, de 6,0 W/m2, o aumento da temperatura varia de 1,4 °C até 3,1 °C e o nível do mar subiria entre 33 e 63 centímetros.

Já o pior cenário, no qual as emissões continuam a crescer em ritmo acelerado, prevê um armazenamento adicional de 8,5 W/m2. Em tal situação, segundo o IPCC, a superfície da Terra poderia aquecer entre 2,6 °C e 4,8 °C ao longo deste século, fazendo com que o nível dos oceanos aumente entre 45 e 82 centímetros.

“O nível dos oceanos já subiu em média 20 centímetros entre 1900 e 2012. Se subir outros 60 centímetros, com as marés, o resultado será uma forte erosão nas áreas costeiras de todo o mundo. Rios como o Amazonas, por exemplo, sofrerão forte refluxo de água salgada, o que afeta todo o ecossistema local”, disse Artaxo.

Segundo o relatório AR5 do IPCC, em todos os cenários, é muito provável (90% de probabilidade) que a taxa de elevação dos oceanos durante o século 21 exceda a observada entre 1971 e 2010. A expansão térmica resultante do aumento da temperatura e o derretimento das geleiras seriam as principais causas.

O aquecimento dos oceanos, diz o relatório, continuará ocorrendo durante séculos, mesmo se as emissões de gases-estufa diminuírem ou permanecerem constantes. A região do Ártico é a que vai aquecer mais fortemente, de acordo com o IPCC.

Segundo Artaxo, o aquecimento das águas marinhas tem ainda outras consequências relevantes, que não eram propriamente consideradas nos modelos climáticos anteriores. Conforme o oceano esquenta, ele perde a capacidade de absorver dióxido de carbono (CO2) da atmosfera. Se a emissão atual for mantida, portanto, poderá haver uma aceleração nas concentrações desse gás na atmosfera.

“No relatório anterior, os capítulos dedicados ao papel dos oceanos nas mudanças climáticas careciam de dados experimentais. Mas nos últimos anos houve um enorme avanço na ciência do clima. Neste quinto relatório, por causa de medições feitas por satélites e de observações feitas com redes de boias – como as do Projeto Pirata que a FAPESP financia no Atlântico Sul –, a confiança sobre o impacto dos oceanos no clima melhorou muito”, afirmou Artaxo.

Acidificação dos oceanos

Em todos os cenários previstos no quinto relatório do IPCC, as concentrações de CO2 serão maiores em 2100 em comparação aos níveis atuais, como resultado do aumento cumulativo das emissões ocorrido durante os séculos 20 e 21. Parte do CO2 emitido pela atividade humana continuará a ser absorvida pelos oceanos e, portanto, é “virtualmente certo” (99% de probabilidade) que a acidificação dos mares vai aumentar. No melhor dos cenários – o RCP2,6 –, a queda no pH será entre 0,06 e 0,07. Na pior das hipóteses – o RCP8,5 –, entre 0,30 e 0,32.

“A água do mar é alcalina, com pH em torno de 8,12. Mas quando absorve CO2 ocorre a formação de compostos ácidos. Esses ácidos dissolvem a carcaça de parte dos microrganismos marinhos, que é feita geralmente de carbonato de cálcio. A maioria da biota marinha sofrerá alterações profundas, o que afeta também toda a cadeia alimentar”, afirmou Artaxo.

Ao analisar as mudanças já ocorridas até o momento, os cientistas do IPCC afirmam que as três últimas décadas foram as mais quentes em comparação com todas as anteriores desde 1850. A primeira década do século 21 foi a mais quente de todas. O período entre 1983 e 2012 foi “muito provavelmente” (90% de probabilidade) o mais quente dos últimos 800 anos. Há ainda cerca de 60% de probabilidade de que tenha sido o mais quente dos últimos 1.400 anos.

No entanto, o IPCC reconhece ter havido uma queda na taxa de aquecimento do planeta nos últimos 15 anos – passando de 0,12 °C por década (quando considerado o período entre 1951 e 2012) para 0,05°C (quando considerado apenas o período entre 1998 e 2012).

De acordo com Artaxo, o fenômeno se deve a dois fatores principais: a maior absorção de calor em águas profundas (mais de 700 metros) e a maior frequência de fenômenos La Niña, que alteram a taxa de transferência de calor da atmosfera aos oceanos. “O processo é bem claro e documentado em revistas científicas de prestígio. Ainda assim, o planeta continua aquecendo de forma significativa”, disse.

Há 90% de certeza de que o número de dias e noites frios diminuíram, enquanto os dias e noites quentes aumentaram na escala global. E cerca de 60% de certeza de que as ondas de calor também aumentaram. O relatório diz haver fortes evidências de degelo, principalmente na região do Ártico. Há 90% de certeza de que a taxa de redução da camada de gelo tenha sido entre 3,5% e 4,1% por década entre 1979 e 2012.

As concentrações de CO2 na atmosfera já aumentaram mais de 20% desde 1958, quando medições sistemáticas começaram a ser feitas, e cerca de 40% desde 1750. De acordo com o IPCC, o aumento é resultado da atividade humana, principalmente da queima de combustíveis fósseis e do desmatamento, havendo uma pequena participação da indústria cimenteira.

Para os cientistas há uma “confiança muito alta” (nove chances em dez) de que as taxas médias de CO2, metano e óxido nitroso do último século sejam as mais altas dos últimos 22 mil anos. Já mudanças na irradiação solar e a atividade vulcânica contribuíram com uma pequena fração da alteração climática. É “extremamente provável” (95% de certeza) de que a influência humana sobre o clima causou mais da metade do aumento da temperatura observado entre 1951 e 2010.

“Os efeitos da mudança climática já estão sendo sentidos, não é algo para o futuro. O aumento de ondas de calor, da frequência de furacões, das inundações e tempestades severas, das variações bruscas entre dias quentes e frios provavelmente está relacionado ao fato de que o sistema climático está sendo alterado”, disse Artaxo.

Impacto persistente

Na avaliação do IPCC, muitos aspectos da mudança climática vão persistir durante muitos séculos mesmo se as emissões de gases-estufa cessarem. É “muito provável” (90% de certeza) que mais de 20% do CO2 emitido permanecerá na atmosfera por mais de mil anos após as emissões cessarem, afirma o relatório.

“O que estamos alterando não é o clima da próxima década ou até o fim deste século. Existem várias publicações com simulações que mostram concentrações altas de CO2 até o ano 3000, pois os processos de remoção do CO2 atmosférico são muito lentos”, contou Artaxo.

Para o professor da USP, os impactos são significativos e fortes, mas não são catastróficos. “É certo que muitas regiões costeiras vão sofrer forte erosão e milhões de pessoas terão de ser removidas de onde vivem hoje. Mas claro que não é o fim do mundo. A questão é: como vamos nos adaptar, quem vai controlar a governabilidade desse sistema global e de onde sairão recursos para que países em desenvolvimento possam construir barreiras de contenção contra as águas do mar, como as que já estão sendo ampliadas na Holanda. Quanto mais cedo isso for planejado, menores serão os impactos socioeconômicos”, avaliou.

Os impactos e as formas de adaptação à nova realidade climática serão o tema da segunda parte do quinto relatório do IPCC, previsto para ser divulgado em janeiro de 2014. O documento contou com a colaboração de sete cientistas brasileiros. Outros 13 brasileiros participaram da elaboração da terceira parte do AR5, que discute formas de mitigar a mudança climática e deve sair em março.

De maneira geral, cresceu o número de cientistas vindos de países em desenvolvimento, particularmente do Brasil, dentro do IPCC. “O Brasil é um dos países líderes em pesquisas sobre mudança climática atualmente. Além disso, o IPCC percebeu que, se o foco ficasse apenas nos países desenvolvidos, informações importantes sobre o que está acontecendo nos trópicos poderiam deixar de ser incluídas. E é onde fica a Amazônia, um ecossistema-chave para o planeta”, disse Artaxo.

No dia 9 de setembro, o Painel Brasileiro de Mudanças Climáticas (PBMC) divulgou o sumário executivo de seu primeiro Relatório de Avaliação Nacional (RAN1). O documento, feito nos mesmos moldes do relatório do IPCC, indica que no Brasil o aumento de temperatura até 2100 será entre 1 °C e 6 °C, em comparação à registrada no fim do século 20. Como consequência, deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

“A humanidade nunca enfrentou um problema cuja relevância chegasse perto das mudanças climáticas, que vai afetar absolutamente todos os seres vivos do planeta. Não temos um sistema de governança global para implementar medidas de redução de emissões e verificação. Por isso, vai demorar ainda pelo menos algumas décadas para que o problema comece a ser resolvido”, opinou Artaxo.

Para o pesquisador, a medida mais urgente é a redução das emissões de gases de efeito estufa – compromisso que tem de ser assumido por todas as nações. “A consciência de que todos habitamos o mesmo barco é muito forte hoje, mas ainda não há mecanismos de governabilidade global para fazer esse barco andar na direção certa. Isso terá que ser construído pela nossa geração”, concluiu.

*   *   *

JC e-mail 4822, de 27 de Setembro de 2013.

IPCC lança na Suécia novo relatório sobre as mudanças climáticas (O Globo)

O documento reúne previsões do aquecimento global até 2100 apontando aumento de temperatura superior a 2 graus. ‘A influência humana no clima é clara’, diz trabalho

A previsão do Painel Intergovernamental sobre Mudanças Climáticas da ONU (IPCC) é que o aquecimento global até o final do século 21 seja “provavelmente superior” a 2 graus (com pelo menos 66% de chances disto acontecer), superando o limite considerado seguro pelos especialistas. Até 2100, o nível do mar deve aumentar perigosamente de 45 a 82 centímetros, considerando o pior cenário (ou de 26 a 55 centímetros, no melhor), e o gelo do Ártico pode diminuir até 94% durante o verão local.

Além disso, o relatório do IPCC — publicado na manhã desta sexta-feira em Estocolmo, na Suécia, com as bases científicas mais atualizadas sobre as mudanças climáticas — considera que há mais de 95% de certeza para afirmar que o homem causou mais da metade da elevação média da temperatura entre 1951 e 2010. Neste período, o nível dos oceanos aumentou 19 centímetros.

O documento, com o trabalho de 259 cientistas e representantes dos governos de 195 países, inclusive o Brasil, ressalta que parte das emissões de CO2 provocadas pelo homem continuará a ser absorvida pelos oceanos. Por isso, é praticamente certo (99% de probabilidade) que a acidificação dos mares vai aumentar, afetando profundamente a vida marinha.

– A mudança de temperatura da superfície do planeta deve exceder 1,5 grau, e, provavelmente, será superior a 2 graus – disse o copresidente do trabalho Thomas Stocker. – É muito provável que as ondas de calor ocorram com mais frequência e durem mais tempo. Com o aquecimento da Terra, esperamos ver regiões atualmente úmidas recebendo mais chuvas, e as áridas, menos, apesar de haver exceções.

Os especialistas fizeram quatro projeções considerando situações diferentes de emissões de gases-estufa. Em todas, há aumento de temperatura. As mais brandas ficam entre 0,3 ºC e 1,7 ºC. Nestes casos, seria necessário diminuir muito as emissões. Já no cenário mais pessimista, o aquecimento ficaria entre 2,6 ºC e 4,8 ºC.

– Na minha opinião, o relatório é muito bom, repleto de informações e todas muito bem fundamentadas – comentou a especialista brasileira Suzana Kahn, que faz parte do grupo de pesquisadores do IPCC em Estocolmo. – No fundo, o grande ganho é a comprovação do que tem sido dito há mais tempo, com muito mais informação sobre o papel dos oceanos, das nuvens e aerossóis. Isto é muito importante para o mundo científico, pois aponta para áreas que precisam ser mais investigadas.

Suzana conta que a dificuldade de fazer projeções e análises para o Hemisfério Sul causou muita polêmica. O grande problema é a falta de dados:

– Acho que isto foi interessante para comprovar que estávamos certos ao criar o Painel Brasileiro de Mudança Climática para suprir esta lacuna.

De acordo com Carlos Rittl, Coordenador do Programa de Mudanças Climáticas e Energias do WWF-Brasil, o relatório do IPCC deixa uma mensagem clara: o aquecimento global é incontestável. E é preciso começar agora contra os piores efeitos.

– O relatório do IPCC reafirma algumas certezas e vai além. Aponta a perda de massa de gelo, o aumento do nível dos oceanos, o incremento de chuvas onde já se chove muito, além da diminuição da umidade nas regiões mais áridas. No Brasil, o semiárido pode se tornar mais árido. Por outro lado, o Sul e Sudeste podem ter mais chuvas do que hoje – enumerou Rittl. – É importante ressaltar que o relatório fala de médias. Ou seja, em algumas regiões do país pode haver aumento de seis graus, com picos de mais de oito graus. A gente não está preparado para isso. E nossas emissões nos colocam numa trajetória de altíssimo risco, mais próxima dos piores cenários.

Para Rittl, a ciência está dando uma mensagem clara: é preciso diminuir as emissões. Isso significa levar os temas relacionados às mudanças climáticas para as decisões políticas:

– Hoje o aquecimento global ainda é um tema marginal. Os investimentos em infraestrutura, energia, o plano Safra, todos os grandes investimentos da escala de trilhões de reais não têm praticamente nenhuma vinculação com a lógica de baixo carbono. Estamos sendo pouco responsáveis.

Diplomacia e ciência
John Kerry, secretário de Estado dos EUA, ressalta que o relatório do IPCC não deve ser esquecido num armário, nem interpretado como uma peça política feita por políticos: “é ciência”, resume. De acordo com ele, os Estados Unidos estão “profundamente comprometidos em combater as mudanças climáticas”, reduzindo emissões de gases-estufa e investindo em formas eficientes de energia.

Este é mais um chamado de atenção: aqueles que negam a ciência ou procuram desculpas para evitar a ação estão brincando com fogo – afirmou Kerry. – O resumo do relatório do IPCC é este: a mudança climática é real, está acontecendo agora, os seres humanos são a causa dessa transformação, e somente a ação dos seres humanos pode salvar o mundo de seus piores impactos.

Lançado a cada seis anos, os relatórios do IPCC estão sob críticas de especialistas. O processo de análise dos documentos por representantes do governo acaba chegando a uma situação intermediária entre diplomacia e ciência, explica Emilio La Rovere, pesquisador da Coppe/UFRJ.

– O resultado é um meio termo entre diplomacia e ciência – afirmou Rovere.
Um dos pontos mais polêmicos são os chamados hiatos, períodos de cerca de 15 anos em que a temperatura média do planeta não aumenta. Por exemplo, a Agência Estatal de Meteorologia da Espanha anunciou, nesta semana, que o último trimestre na Península Ibérica foi o menos quente desde 2008. Entretanto, o relatório de 2007 do IPCC não citou estas pausas do aquecimento, dando argumento aos céticos.

Limite do aquecimento global
As informações do IPCC são importantes para a criação de estratégias de combate às mudanças climáticas. Na Convenção do Clima da Dinamarca (COP-15, realizada em 2009), foi criada a meta de limitar o aquecimento global em 2 graus. Para isso acontecer em 2050, explica Emilio La Rovere, da Coppe/UFRJ, seria necessário cortar 80% das emissões em comparação com 1990:

– Os modelos matemáticos simulando evolução demográfica, economia mundial, demanda e oferta de energia mostram que fica realmente quase impossível atingir este objetivo.

Este é o Quinto Relatório do IPCC, que será lançado em quatro partes, entre setembro de 2013 e novembro de 2014. Nesta sexta-feira, foi publicado o documento do Grupo de Trabalho I (sobre os aspectos científicos das mudanças climáticas). Entre os dias 25 e 29 de março de 2014, será a vez do Grupo de Trabalho II (analisando os impactos, a adaptação e a vulnerabilidade), que se reunirá em Yokohama, no Japão. O Grupo de Trabalho III (especializado na mitigação dos impactos das mudanças climáticas) está previsto para os dias 7 e 11 de abril em Berlim, na Alemanha. Por fim, será criado um relatório síntese, cujos trabalhos ocorrerão entre os dias 27 e 31 de outubro, em Copenhague, na Dinamarca.

(Cláudio Motta/O Globo)

http://oglobo.globo.com/ciencia/ipcc-lanca-na-suecia-novo-relatorio-sobre-as-mudancas-climaticas-10173671#ixzz2g6D6tmU6

Matéria complementar de O Globo:

Relatório destaca como a ação humana agrava o aquecimento
http://oglobo.globo.com/ciencia/relatorio-destaca-como-acao-humana-agrava-aquecimento-1-10171896#ixzz2g6MfZIsl

Veja mais em:

Folha de S.Paulo
Relatório sobe tom de alerta sobre aquecimento
http://www1.folha.uol.com.br/fsp/saudeciencia/131005-relatorio-sobe-tom-de-alerta-sobre-aquecimento.shtml

Agência Estado
ONU culpa atividades humanas por aquecimento global
http://www.territorioeldorado.limao.com.br/noticias/not297255.shtm

Zero Hora
Temperatura da Terra subirá entre 0,3°C e 4,8°C neste século, aponta IPCC
http://zerohora.clicrbs.com.br/rs/geral/planeta-ciencia/noticia/2013/09/temperatura-da-terra-subira-entre-0-3c-e-4-8c-neste-seculo-aponta-ipcc-4283083.html

Correio Braziliense
Temperatura do planeta subirá entre 0,3 e 4,8ºC no século 21, diz IPCC
http://www.correiobraziliense.com.br/app/noticia/ciencia-e-saude/2013/09/27/interna_ciencia_saude,390388/temperatura-do-planeta-subira-entre-0-3-e-4-8-c-no-seculo-21-diz-ipcc.shtml

 

Por trás do desmatamento da Amazônia (Fapesp)

Mais de 50% das emissões de gases de efeito estufa do bioma são causados pela demanda do restante do país e do exterior por insumos produzidos na região, aponta estudo feito na USP (Nasa)

Especiais

20/09/2013

Por Elton Alisson

Agência FAPESP – O consumo interno do Brasil e as exportações de soja, carne bovina e outros produtos primários provenientes da Amazônia são responsáveis por mais da metade das taxas de desmatamento e, consequentemente, das emissões de gases de efeito estufa (GEE) registradas pelo bioma.

A avaliação é de um estudo realizado por pesquisadores da Faculdade de Economia, Administração e Contabilidade (FEA), da Universidade de São Paulo (USP), no âmbito de um Projeto Temático, realizado no Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG).

Os resultados do estudo foram apresentados no dia 12 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima), realizada pela FAPESP em parceria com a Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), em São Paulo.

“Mais da metade das emissões de GEE da Amazônia acontecem por conta da demanda de consumo fora da região, para abastecimento interno do país ou para exportação”, disse Joaquim José Martins Guilhoto, professor da FEA e um dos pesquisadores participantes do projeto.

De acordo com dados apresentados pelo pesquisador, obtidos do segundo Inventário Nacional de Emissões de Gases de Efeito Estufa – publicado no final de 2010, abrangendo o período de 1990 a 2005 –, em 2005 o Brasil emitiu mais de 2,1 gigatoneladas de CO2 equivalente. A Amazônia contribui com mais de 50% das emissões de GEE do país.

A fim de identificar e entender os fatores econômicos causadores do desmatamento e, por conseguinte, das emissões de GEE na Amazônia naquele ano, os pesquisadores fizeram um mapeamento das emissões diretas por atividade produtiva separando a Região Amazônica do restante do Brasil e calcularam a parcela de contribuição de cada um na emissão de CO2 equivalente, assim como a participação das exportações.

Os cálculos revelaram que as exportações diretas da Amazônia são responsáveis por 16,98% das emissões de GEE da região. Já as exportações do resto do país são responsáveis por mais 6,29% das emissões da Amazônia, uma vez que há produtos provenientes da região que são processados e exportados por outros estados brasileiros.

O consumo interno, por sua vez, responde por 46,13% das emissões amazônicas, sendo 30,01% pelo consumo no restante do país e 16,12% pelo consumo dentro da própria Região Amazônica, aponta o estudo.

“A soma desses percentuais demonstra que mais de 50% das emissões de GEE da Amazônia ocorrem por conta do consumo de bens produzidos na região, mas consumidos fora dela”, afirmou Guilhoto. “Essa constatação indica que os fatores externos são mais importantes para explicar as emissões de GEE pela Amazônia.”

Segundo o estudo, a pecuária, a produção de soja e de outros produtos agropecuários são os setores produtivos que mais contribuem para as emissões de GEE pela Amazônia. Mas, além deles, há outros setores econômicos, como o de mobiliário, entre outros, que são fortemente dependentes de insumos produzidos na região.

“Os dados obtidos no estudo mostram que, de modo geral, apesar de haver uma dependência muito maior da Amazônia pelos insumos produzidos pelo resto do Brasil, a pouca dependência que o resto do Brasil tem do bioma se dá em insumos fortemente relacionados com a emissão de GEE na região”, resumiu Guilhoto.

Redução do desmatamento

Em outro estudo também realizado por pesquisadores da FEA, no âmbito do Projeto Temático, constatou-se que entre 2002 e 2009 houve uma grande expansão da área de produção agropecuária brasileira e, ao mesmo tempo, uma redução drástica das taxas de desmatamento da Amazônia.

A cana-de-açúcar, a soja e o milho responderam por 95% da expansão líquida da área colhida entre 2002 e 2009, enquanto o rebanho bovino teve um acréscimo de 26 milhões de cabeças de gado. Nesse mesmo período a Amazônia registrou uma queda de 79% do desmatamento.

A fim de investigar os principais vetores do desmatamento no país, uma vez que boa parte dos eventos de expansão agropecuária ocorre fora da Amazônia, os pesquisadores fizeram um estudo usando análises espaciais integradas do território brasileiro, incluindo os seis biomas do país.

Para isso, utilizaram dados sobre desmatamento obtidos do Projeto Prodes, do Ministério do Meio Ambiente (MMA) e do Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais (Ibama), além de imagens georreferenciadas obtidas dos satélites Landsat, da agência espacial norte-americana Nasa.

O estudo revelou que, no período de 2002 a 2009, foram desmatados 12,062 milhões de hectares da Amazônia, 10,015 milhões de hectares do Cerrado, 1,846 milhão de hectares da Caatinga, 447 mil hectares do Pantanal, 375 mil hectares da Mata Atlântica e 257 mil hectares do Pampa.

“A soma desses números indica que o Brasil desmatou em sete anos o equivalente ao Estado de São Paulo mais o Triângulo Mineiro ou uma Grã-Bretanha”, calculou Rafael Feltran-Barbieri, pesquisador da FEA e um dos autores do estudo.

De acordo com o pesquisador, uma das principais conclusões do estudo foi que os outros biomas estão funcionando como uma espécie de “amortecedor” do desmatamento da Amazônia.

“Quando consideramos a expansão agropecuária do Brasil como um todo, vemos que boa parte da redução das taxas de desmatamento da Amazônia se deve ao fato de que os outros biomas estão sofrendo essas consequências [registrando aumento no desmatamento]”, afirmou.

Outra conclusão do estudo é de que há um impacto espacial sinérgico dos vetores do desmatamento no Brasil, uma vez que a expansão das diversas atividades agropecuárias – como o cultivo da cana e da soja ou a criação de gado – ocorre de forma concomitante e disputa território.

No caso da cana-de-açúcar, uma das constatações foi que, no período de 2002 a 2009, a cultura passou a ocupar áreas desmatadas por outras atividades agropecuárias, embora ela própria não tenha vocação para desmatar.

“Estamos percebendo que existe uma formação quase complementar entre as expansões [nos diferentes biomas] e isso faz com que os efeitos de desmatamento sejam altamente correlacionados”, disse Feltran-Barbieri.

“Essa constatação leva à conclusão de que, se o Brasil pretende assumir uma posição de fato responsável em relação às mudanças climáticas – e disso depende a agropecuária –, é preciso fazer planejamento estratégico do território, porque o planejamento setorial não está dando conta de compreender esses efeitos sinérgicos”, avaliou.

Painel do clima da ONU sobe alerta para aquecimento global (Folha de S.Paulo)

27/09/2013 – 05h07

RAFAEL GARCIA, ENVIADO ESPECIAL A ESTOCOLMO

Atualizado às 09h47.

Quem esperava ver o IPCC (Painel Intergovernamental de Mudança Climática) emitir um relatório mais enfraquecido em razão da recente desaceleração no aquecimento global, testemunhou os cientistas da entidade subirem o tom de alerta, destacando uma subida acelerada no nível do mar e no derretimento do Ártico.

Além de manter que a mudança climática é “inequívoca”, o documento mostra projeções para o futuro com um grau de certeza melhorado. “A atmosfera e o oceano se aqueceram, a quantidade de neve e gelo diminuiu, o nível do mar subiu, e as concentrações de gases-estufa aumentaram”, diz o Sumário para Formuladores de Política, a seção do documento divulgada nesta manhã.

Mensageiro Sideral: Que diabos acontece com nosso planeta?

No final deste século, a temperatura média da superfície terrestre provavelmente vai exceder um aumento médio de 1,5°C até 2100, em relação à média de 1850 a 1900. Isso vale para todos os cenários considerados exceto o mais otimista, no qual emissões de gases estufa sofrem cortes drásticos, atingindo um pico daqui a dez anos e caindo para zero 50 anos depois.

Em um cenário intermediário, no qual as emissões dobram até 2060 e recuam a um nível maior que o atual antes de 2100, a temperatura provavelmente excederá um aumento de 2°C, limite considerado perigoso por cientistas.

Manifestantes gritam em protesto em Estocolmo, onde foi divulgado o novo relatório do painel do clima da ONU

No pior cenário, um no qual a humanidade triplica a emissão de gases do efeito estufa até 2100, a temperatura média provavelmente subiria até 4,8°C.

A palavra “provavelmente”, na linguagem do painel, significa uma propensão acima de 66%, a melhor confiabilidade possível para projeções futuras, baseadas em modelos matemáticos de simulação do clima.

Ao avaliar o efeito das emissões de gases estufa no clima passado, o relatório é bem mais contundente. O texto afirma ser “extremamente provável” (95% de certeza) que o aquecimento observado desde o meio do século 20 seja resultado da influência humana no clima. O último relatório, de 2007, dizia que o mesmo era “muito provável” (90%).

OCEANOS

O relatório também afirma com “alta confiabilidade” que o aquecimento dos oceanos domina o aumento da energia armazenada no sistema climático. Mais de 90% da energia acumulada pela Terra desde 1971 foi armazenada nos mares, diz o relatório.

“À medida que os oceanos se aquecem e as geleiras e plataformas de gelo se reduzem, o nível do mar continuará a aumentar, mas a uma taxa mais rápida do que aquela que experimentamos ao longo dos últimos 40 anos”, afirmou Qin-Dahe, co-presidente do Grupo 1 do IPCC.

O aumento do nível do mar entre 1900 e 2012 foi de 19 cm. Mesmo dentro do melhor cenário, com uma queda brusca de emissões, esse número pode quase triplicar, em razão de os oceanos já terem absorvindo muita temperatura. A hipótese mais pessimista dentro do pior cenário vê um aumento de 82 cm, que impactaria uma população de um tamanho da ordem de dezenas de milhões.

Uma das razões para a revisão dos números é que os modelos lidam melhor agora com o derretimento da Groenlândia e do oeste da Antártida. Antes, os números eram basicamente uma projeção da expansão térmica da água oceânica, que continua sendo a maior causa do aumento do nível do mar.

HIATO

A questão da desaceleração do aquecimento global nos últimos 15, o “hiato” da mudança climática, tomou grande parte do tempo de discussão dos delegados do IPCC que se reuniram nesta semana. O texto final do relatório lidou com o fenômeno afirmando que a tempereatura média global de superfície “exibe substancial variabilidade interanual e decadal” apesar de um “robusto aquecimento multi-decadal” verificado.

“Como exemplo, a taxa de aquecimento ao longo dos últimos 15 anos (1998-2012); 0,05°C por década), que começa com um forte El Niño, é menor do que a taxa calculada desde de 1951 (1951-2012; 0,12°C por década)”, afirma o relatório.

Apesar de haverem estudos recentes indicando que o calor da atmosfera está sendo roubado por águas oceânicas profundas, o relatório não menciona esse fenômeno. “É preciso colher mais evidências disso”, diz Thomas Stocker, o outro co-presidente do Grupo 1 do IPCC.

Editoria de Arte/Folhapress

 

 

Manifestantes do grupo Avaaz usam gangorra gigante para demonstrar os 95% de certeza sobre a culpa do homem nas mudanças climáticas; de um lado fica a maioria dos cientitas e, de outro, um homem com uma maleta de dinheiro

Faixa em protesto em Estocolmo diz: “o debate acabou”, em referência ao novo relatório do painel do clima, que aumenta o grau de certeza sobre a responsabilidade do homem na mudança climática

Protesto em Estocolmo, na Suécia, pede ação imediata para conter efeitos da mudança climática

*   *   *
24/09/2013 – 02h53

Previsão de aumento do nível do mar piora

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

A julgar pela versão preliminar do quinto relatório do IPCC (painel do clima da ONU), a ser divulgado na próxima sexta-feira, a principal atualização nas projeções da mudança climática não serão relacionadas ao aumento de temperatura, mas sim do nível do mar.

Quando o quarto relatório, que projetava um aumento de 18 cm a 59 cm, saiu em 2007, muitos cientistas o consideraram conservador. O esboço do novo texto fala agora de uma margem entre 28 cm e 89 cm de aumento até 2100.

Uma mudança da escala de dezenas de centímetros na projeção não é pequena. A margem de erro para o cenário mais pessimista chega a quase um metro de altura, o que afetaria áreas habitadas por algumas dezenas de milhares de pessoas.

Editoria de Arte/Folhapress

O principal fenômeno por trás do aumento do nível do mar é o fato de que a água aumenta de volume quando está mais quente –e os oceanos absorvem boa parte do calor aprisionado na atmosfera.

“A expansão termal é a maior contribuição para o aumento futuro do nível do mar, sendo responsável por 30% a 55% do total, com a segunda maior contribuição vindo das geleiras”, afirma a versão preliminar do sumário político do documento.

“Há alta confiabilidade em que o aumento do derretimento da superfície da Groenlândia vai exceder a elevação da queda de neve, levando à contribuição positiva [aumentando o nível do mar].”

INCERTEZAS
Se o novo relatório do IPCC será mais contundente ao dizer que o impacto do aquecimento sobre o nível do mar será maior, ele ainda tem limitações quando tenta especificar quão maior.
Um dos problemas por trás das projeções do painel do clima é que o balanço do derretimento e da formação de gelo na Antártida ainda é difícil de prever.

Apesar de a maioria das observações e dos modelos de computador alertar para o derretimento da parte ocidental do continente gelado, o aumento de precipitação na Antártida oriental deixa o cenário incerto.

Divulgação/Nasa/France Presse
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira

“Há uma cofiabilidade média de que nevascas na Antártida vão aumentar, enquanto o derretimento de superfície continuará pequeno, resultando numa contribuição negativa [de redução do nível do mar]”, diz o texto.

Um avanço do novo relatório é a tentativa de lidar melhor com as incertezas regionais. Por exemplo, apesar de a Groenlândia ter a massa de gelo terrestre que mais vai contribuir para a elevação do mar, lá ele não deve subir.

Como a massa de gelo da região vai diminuir, ela perde força de gravidade que puxa água na direção da costa. E o mesmo deve ocorrer com a Península Antártica.

“O efeito gravitacional do derretimento da Antártida, combinado com o efeito da dinâmica de correntes e a temperatura abaixo da média, deve deixar o nível do mar abaixo da média na ponta da América do Sul”, diz Aimée Slangen, da Universidade de Utrecht, na Holanda.

“Indo para o Equador, o efeito gravitacional se reverte, deixando o nível do mar acima da média.”

Slangen publicou no ano passado um estudo sobre diferenças regionais na subida da linha d’água, mas diz que ainda é difícil fazer um mapa preciso. “Precisamos entender o papel das plataformas de gelo, das geleiras, o efeito térmico e saber como a crosta vai se mover”, diz.

O último esboço do relatório afirma que, em 95% das áreas oceânicas do mundo, o nível do mar vai subir, e que 70% das áreas costeiras terão um aumento com desvio de menos de 20% da média.

Para os cientistas, porém, é preciso aprimorar o mapeamento. “Para uma cidade ou um país, a média mundial não importa, é preciso saber o que está acontecendo logo à porta de casa”, diz Slangen.

*   *   *
26/09/2013 – 20h04

Relatório eleva o tom de alerta sobre o aquecimento global

RAFAEL GARCIA, ENVIADO ESPECIAL A ESTOCOLMO

O IPCC (painel do clima da ONU) divulgará na manhã desta sexta-feira (27) um relatório que eleva o nível de alerta para o aquecimento global. Apesar de a desaceleração na subida de temperaturas nos últimos 15 anos ter tomado bom tempo da discussão, a nova versão do “Sumário para Formuladores de Política” do documento deve indicar que as alterações climáticas têm sido mais acentuadas e mais rápidas do que se esperava, não o inverso.

As discussões finais sobre o conteúdo do documento ainda ocorrem a portas fechadas nesta madrugada em Estocolmo, mas algumas questões cruciais já foram resolvidas. A versão final do texto do Grupo 1 do IPCC –responsável pela física do clima– deve ganhar então um tom acima do que a daquela enviada aos governos para comentários em junho.

Algumas nações, incluindo o Brasil, haviam pedido que o documento excluísse a menção ao “hiato” de 15 anos, mas ela será mantida, acompanhada de explicação.

“Está escrito que esta descontinuidade decorre de um fenômeno atípico em águas no Pacífico e que um período tão curto não pode ser usado para projeções de longo prazo”, disse à Folha um dos cientistas brasileiros presentes na discussão.

Christian Åslund/Greenpeace
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo

O debate sobre esse problema tomou tanto tempo que, no início do terceiro dos quatro dias de trabalho, o painel só tinha avançado 30% da pauta. “Entendo a frustração dos cientistas em gastar tanto tempo nisso, mas eles não tinham a opção evitar essa discussão, que se tornou pública”, afirmou a observadora de uma ONG presente à reunião.

“O que vemos é que níveis não tão altos de aquecimento estão causando impactos maiores do que aqueles que esperávamos, como no derretimento do gelo do Ártico e da Groenlândia ou no aumento do nível do mar.”

Em relação ao relatório anterior do IPCC, publicado em 2007, muitas das novidades têm a ver com o grau de confiabilidade de fenômenos conhecidos. A certeza de que o aquecimento global é causado pelos humanos, por exemplo, aumentou de 90% para 95%. Houve até uma proposta derrubada de aumentar o número para 99%, relata um delagado holandês.

Algumas tentativas de aguar o esboço inicial também falharam. Ao descrever as principais fontes de gases do efeito estufa, delegados sauditas queriam que o texto equiparasse em gravidade o desmatamento e a agricultura à queima de combustíveis fósseis, mas foram derrotados. Apesar de não ter grandes mudanças de conteúdo, a versão final do texto sairá com “palavras mais fortes”, disse outro observador.

A divulgação da versão definitiva do “Sumário para Formuladores de Políticas” do Grupo 1 do IPCC está marcada para as 5h00 desta sexta-feira. A versão completa do relatório, incluindo o “Sumário Técnico” destinado a cientistas, ocorre na segunda-feira.

*   *   *
26/09/2013 – 13h20

Veja dez perguntas para entender as discussões sobre clima na ONU

DA BBC BRASIL

O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) divulga na sexta-feira em Estocolmo, na Suécia, um novo relatório no qual pretende estabelecer, com o maior grau de certeza já obtido, o papel das atividades humanas nas mudanças climáticas.

Para ajudar a entender melhor o tema, a BBC preparou uma lista com dez perguntas e respostas sobre a questão:

O que é mudança climática?

O clima do planeta está mudando constantemente ao longo do tempo geológico. A temperatura média global hoje é de cerca de 15ºC, mas as evidências geológicas sugerem que ela já foi muito maior ou muito menor em outras épocas no passado.

Entretanto, o atual período de aquecimento está ocorrendo de maneira mais rápida do que em muitas ocasiões no passado. Os cientistas estão preocupados de que a flutuação natural, ou variabilidade, está dando lugar a um aquecimento rápido induzido pela ação humana, com sérias consequências para a estabilidade do clima no planeta.

O que é ‘efeito estufa’?

O efeito estufa se refere à maneira como a atmosfera da Terra “prende” parte da energia do Sol. A energia solar irradiada de volta da superfície da Terra para o espaço é absorvida por gases atmosféricos e reemitida em todas as direções.

A energia que irradia de volta para o planeta aquece tanto a baixa atmosfera quanto a superfície da Terra. Sem esse efeito, a Terra seria 30ºC mais fria, deixando as condições no planeta hostis para a vida.

Os cientistas acreditam que estamos contribuindo para o efeito natural de estufa com gases emitidos pela indústria e pela agricultura, absorvendo mais energia e aumentando a temperatura.

O mais importante desses gases no efeito estufa natural é o vapor de água, mas suas concentrações mostram pouca mudança. Outros gases do efeito estufa incluem dióxido de carbono, metano e óxido nitroso, que são liberados pela queima de combustíveis fósseis. O desmatamento contribui para seu aumento ao eliminar florestas que absorvem carbono.

Desde o início da revolução industrial, em 1750, os níveis de dióxido de carbono (CO2) aumentaram mais de 30%, e os níveis de metano cresceram mais de 140%. A concentração de CO2 na atmosfera é agora maior do que em qualquer momento nos últimos 800 mil anos.

Qual é a evidência sobre o aquecimento?

Os registros de temperatura, a partir do fim do século 19, mostram que a temperatura média da superfície da Terra aumentou cerca de 0,8ºC nos últimos cem anos. Cerca de 0,6ºC desse aquecimento ocorreu nas últimas três décadas.

Dados de satélites mostram um aumento médio nos níveis do mar de cerca de 3 milímetros por ano nas últimas décadas. Uma grande proporção da mudança nos níveis do mar se deve à expansão dos oceanos pelo aquecimento. Mas o derretimento das geleiras de montanhas e das camadas de gelo polar também contribuem para isso.

A maioria das geleiras nas regiões temperadas do mundo e na Península Antártica estão encolhendo. Desde 1979, registros de satélites mostram um declínio dramático na extensão do gelo no Ártico, a uma taxa anual de 4% por década. Em 2012, a extensão de gelo alcançou o menor nível já registrado, cerca de 50% menor do que a média do período entre 1979 e 2000.

O manto de gelo da Groenlândia verificou um derretimento recorde nos últimos anos. Se a camada inteira, de 2,8 milhões de quilômetros cúbicos, derretesse, haveria um aumento de 6 metros nos níveis dos mares.

Dados de satélites mostram que a capa de gelo do oeste da Antártica também está perdendo massa, e um estudo recente indicou que o leste da Antártica, que não havia mostrado tendências claras de aquecimento ou resfriamento, também pode ter começado a perder massa nos últimos anos. Mas os cientistas não esperam mudanças dramáticas. Em alguns lugares, a massa de gelo pode aumentar, na verdade, com as temperaturas em alta provocando mais tempestades de neve.

Os efeitos de uma mudança climática também podem ser vistos na vegetação e nos animais terrestres. Isso inclui também o florescimento e frutificação precoces em plantas e mudanças nas áreas ocupadas pelos animais terrestres.

Há uma pausa no aquecimento?

Alguns especialistas argumentam que desde 1998 não houve um aquecimento global significativo, apesar do aumento contínuo nos níveis de emissão de CO2. Os cientistas tentam explicar isso de várias formas.

Isso inclui: variações na emissão de energia pelo Sol, um declínio no vapor de água atmosférico e uma maior absorção de calor pelos oceanos. Mas até agora, não há um consenso geral sobre o mecanismo preciso por trás dessa pausa.

Céticos destacam essa pausa como um exemplo da falibilidade das previsões baseadas em modelos climáticos computadorizados. Por outro lado, os cientistas do clima observam que o hiato no aquecimento ocorre em apenas um dos componentes do sistema climático – a média global da temperatura da superfície -, e que outros indicadores, como o derretimento do gelo e as mudanças na fauna e na flora demonstram que a Terra continua a se aquecer.

Quanto as temperaturas vão aumentar no futuro?

Em seu relatório de 2007, o IPCC previu um aumento da temperatura global entre 1,8ºC e 4ºC até 2100.

Mesmo que as emissões de gases do efeito estufa caiam dramaticamente, os cientistas dizem que os efeitos continuarão, porque partes do sistema climático, particularmente os grandes corpos de água e gelo, podem levar centenas de anos para responder a mudanças na temperatura. Também leva décadas para que os gases do efeito estufa sejam removidos da atmosfera.

Quais serão os impactos disso?

A escala do impacto potencial é incerto. As mudanças podem levar à escassez de água potável, trazer mudanças grandes nas condições para a produção de alimentos e aumentar o número de mortes por inundações, tempestades, ondas de calor e secas.

Os cientistas preveem mais chuvas em geral, mas dizem que o risco de seca em áreas não costeiras deverá aumentar durante os verões mais quentes. Mais inundações são esperadas por causa de tempestades e do aumento do nível do mar. Deverá haver, porém, muitas variações regionais nesse padrão.

Os países mais pobres, que estão menos capacitados para lidar com a mudança rápida, deverão sofrer mais.

A extinção de plantas e animais está prevista, por conta de mudanças nos habitats mais rápidas do que a capacidade de adaptação das espécies à estas. A Organização Mundial da Saúde (OMS) advertiu que a saúde de milhões de pessoas pode ser ameaçada por aumentos nos casos de malária, doenças transmitidas pela água e malnutrição.

O aumento na absorção de CO2 pelos oceanos pode levá-los a se tornar mais ácidos. Esse processo de acidificação em andamento poderia provocar grandes problemas para os recifes de corais, já que as mudanças químicas impedem os corais de formar um esqueleto calcificado, que é essencial para sua sobrevivência.

O que não sabemos?

Os modelos computadorizados são usados para estudar a dinâmica do clima na Terra e fazer projeções sobre futuras mudanças de temperatura. Mas esses modelos climáticos diferem sobre a “sensibilidade climática” – a quantidade de aquecimento ou esfriamento que ocorre por conta de um fator específico, como a elevação ou a queda na concentração de CO2.

Os modelos também diferem na forma como expressam “feedback climático”.

O aquecimento global deverá provocar algumas mudanças com probabilidade de criar mais aquecimento, como a emissão de grandes quantidades de gases do efeito estufa com o derretimento do permafrost (gelo eterno da superfície da Terra). Isso é conhecido como feedback climático positivo (no sentido de adicionar calor).

Mas também existem os feedbacks negativos, que compensam o aquecimento. Por exemplo, os oceanos e a terra absorvem CO2 como parte do ciclo do carbono.

A questão é saber qual o resultado final da soma dessas variáveis.

As inundações vão me atingir?

Detalhes vazados do relatório a ser apresentado nesta semana indicam que no pior cenário traçado pelo IPCC, com o maior nível de emissões de dióxido de carbono, os níveis dos mares no ano 2100 poderiam subir até 97 centímetros.

Alguns cientistas criticam os modelos usados pelo IPCC para calcular esse aumento. Usando o que é chamado de modelo semiempírico, as projeções para o aumento do nível do mar podem chegar a 2 metros. Nessas condições, 187 milhões de pessoas a mais no mundo sofreriam com inundações.

Mas o IPCC deve dizer que não há consenso sobre o enfoque semiempírico e manterá o dado pouco inferior a 1 metro.

O que vai acontecer com os ursos polares?

O estado dos polos Norte e Sul tem sido uma preocupação crescente para a ciência, conforme os efeitos do aquecimento global se tornam mais intensos nessas regiões.

Em 2007, o IPCC disse que as temperaturas no Ártico aumentaram quase duas vezes mais que a média global nos últimos cem anos. O relatório destacou que a região pode ter uma grande variação, com um período quente observado entre 1925 e 1945.

Nos rascunhos do relatório desta semana, os cientistas dizem que há uma evidência maior de que as camadas de gelo e as geleiras estão perdendo massa e que a camada de gelo está diminuindo no Ártico.

Em relação à Groenlândia, que por si só tem a capacidade de aumentar os níveis globais dos mares em 6 metros, o painel diz estar 90% certo de que a velocidade da perda de gelo entre 1992 e 2001 aumentou seis vezes no período entre 2002 e 2011.

Enquanto a extensão média do gelo no Ártico caiu cerca de 4% por década desde 1979, o gelo na Antártica aumentou até 1,8% por década no mesmo período.

Para o futuro, as previsões são bastante dramáticas. No pior cenário traçado pelo IPCC, um Ártico sem gelo no verão é provável até o meio deste século.

E a perspectiva para os ursos polares e para outras espécies que vivem nesse ambiente não é bom, segundo disse à BBC o professor Shang-Ping Xie, do Instituto de Oceanografia da Universidade da Califórnia em San Diego.

“Haverá bolsões de gelo marítimo em alguns mares marginais. Esperamos que os ursos polares sejam capazes de sobreviver no verão nesses bolsões de gelo remanescentes”, disse.

Qual a credibilidade do IPCC?

A escala global do envolvimento científico com o IPCC dá uma ideia do peso dado ao painel.

Dividido em três grupos de trabalho que analisam a ciência física, os impactos e as opções para limitar as mudanças climáticas, o painel envolve milhares de cientistas de todo o mundo.

O relatório a ser apresentado em Estocolmo tem 209 autores coordenadores e 50 revisões de editores de 39 países diferentes.

O documento é baseado em cerca de 9.000 estudos científicos e 50 mil comentários de especialistas.

Mas em meio a esse conjunto enorme de dados, as coisas podem não sair como o esperado.

No último relatório, publicado em 2007, houve um punhado de erros que ganharam grande projeção, entre eles a afirmação de que as geleiras do Himalaia desapareceriam até 2035. Também houve erro na projeção da porcentagem do território da Holanda que ficaria sob o nível do mar.

O IPCC admitiu os erros e explicou que em um relatório de 3 mil páginas é sempre possível que haja alguns pequenos erros. A afirmação sobre o Himalaia veio da inclusão de uma entrevista que havia sido publicada pela revista New Scientist.

Em 2009, uma revisão da forma como o IPCC analisa as informações sugeriu que o painel seja mais claro no futuro sobre as fontes de informação usadas.

O painel também teve a reputação manchada pela associação com o escândalo provocado pelo vazamento de e-mails trocados entre cientistas que trabalhavam para o IPCC, em 2009.

As mensagens pareciam mostrar algum grau de conluio entre os pesquisadores para fazer com que os dados climáticos se encaixassem mais claramente na teoria das mudanças climáticas induzidas pelo homem.

Porém ao menos três pesquisas não encontraram evidências para apoiar essa conclusão.

Mas o efeito final desses eventos sobre o painel foi o de torná-lo mais cauteloso.

Apesar de o novo relatório possivelmente enfatizar uma certeza maior entre os cientistas de que as atividades humanas estão provocando o aquecimento climático, em termos de escala, níveis e impactos a palavra “incerteza” deverá aparecer com bastante frequência.

*   *   *
23/09/2013 – 03h00

Análise: Com IPCC na defensiva, novo relatório ainda tem combustível para polêmica

MARCELO LEITE

DE SÃO PAULO

Seis anos e sete meses atrás, quando lançou o documento “Mudança Climática 2007: A Base da Ciência Física”, a reputação do IPCC estava no auge. Naquele mesmo ano viria o Prêmio Nobel da Paz, como reconhecimento pela façanha de impor o tema da mudança do clima à agenda política mundial.

A autoridade do grupo formado pela ONU 18 anos antes era tamanha que a climatologista americana Susan Solomon, coordenadora do texto de 21 páginas, deu o passo arriscado: na entrevista coletiva em Paris, repetiu com ênfase a avaliação de que o aquecimento global era “inequívoco”.

Brasil ataca hiato do aquecimento global

Foi a resposta retórica e política daqueles cientistas à repercussão então alcançada pelo grupo dos chamados “céticos” (ou negacionistas). Depois disso, o IPCC nunca mais seria o mesmo.

Em novembro de 2009, um mês antes da Conferência do Clima de Copenhague, hackers invadiram computadores de uma universidade britânica e surrupiaram mensagens eletrônicas entre climatologistas do IPCC que permitia a impressão de que houvera manipulação de dados.

Os autores foram inocentados, mas uma brecha se abrira no prestígio do painel. Ela se agravou dois meses depois, quando veio à tona que o relatório continha erro grosseiro sobre derretimento de geleiras no Himalaia.

Desde então, o IPCC se manteve na defensiva. Criou critérios mais rígidos sobre o tipo de dados científicos que poderiam fundamentar suas previsões. O resultado desse retraimento transparecerá no “Quinto Relatório de Avaliação” (AR5), cujo “Sumário para Formuladores de Políticas” entra agora em sua fase final de redação.

POLÊMICAS
Parece pouco provável que o sumário repita juízos de valor como o contido no adjetivo “inequívoco”. Ainda assim, o documento contém combustível para polêmica.

A primeira coisa a prestar atenção no relatório, além da aparente redução na taxa de aquecimento, é a maneira pela qual lidará com a situação da calota de gelo sobre o oceano Ártico. O IPCC deve reafirmar como muito alta a probabilidade de que ela continue a encolher a cada verão do hemisfério Norte.

O problema é que, neste final do verão setentrional, o gelo no polo Norte se estende por uma área 50% maior (5,1 milhões de km2) do que há um ano. Em 2012, ela caíra para 3,4 milhões de km².

Editoria de Arte/Folhapress

Como se pode ver no gráfico, porém, todos os cinco últimos anos viram a área ficar muito abaixo da média de 1981 a 2010. É dessa escala temporal de transformações (décadas) que se ocupam as projeções do IPCC, não da variação de ano para ano.

O segundo ponto a atentar é a elevação do nível do mar. vAssim como ocorre com a atmosfera, o efeito estufa também esquenta o oceano. Isso expande seu volume, que também aumenta com o derretimento de geleiras sobre terra firme (como as da Groenlândia).

No caso do “Quarto Relatório de Avaliação”, de 2007, o IPCC terminou acusado de ser conservador demais na projeção de que o mar se elevaria entre 18 cm e 59 cm até o ano 2100, pois alguns estudos já indicavam mudanças de até mais de 1 m.

Tudo indica que o limite superior da nova previsão do painel deve chegar perto disso (versões preliminares apontam até 97 cm). Seria o suficiente para inundar as moradias de dezenas de milhões de pessoas no mundo.

O número, sozinho, parecerá alarmante para muitas pessoas. Pode ou não vir acompanhado, na sua divulgação, de ponderações sóbrias– como assinalar o prazo de 86 anos (de 2014 a 2100) disponível para adaptação.

Se não contornarem com muita habilidade essas armadilhas, os cientistas e porta-vozes do IPCC se arriscam a desperdiçar a oportunidade de recompor sua credibilidade como corpo científico e vê-lo, mais uma vez, desqualificado como militante da causa alarmista.

*   *   *
23/09/2013 – 19h19

IPCC promete relatório sem viés e com revisão mais rigorosa

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

O chefe do conjunto de climatologistas que escreveu a mais nova atualização do IPCC sobre a física do clima, o Grupo de Trabalho 1, prometeu ontem entregar um relatório com uma visão “sem precedentes e não enviesada sobre o estado do sistema climático”.

Abrindo a primeira sessão de trabalhos que vai finalizar a primeira das três partes do AR5, o quinto relatório de avaliação do painel do clima da ONU, Thomas Stocker diz ter levado em consideração os mais de 50 mil comentários que o documento recebeu das delegações de governos, que já tiveram acesso ao “sumário para formuladores de políticas” do relatório. “Não conheço nenhum outro documento que tenha passado por um escrutínio assim”.

Após uma última rodada de discussões, a versão final do relatório sai nesta sexta-feira, e a versão provisória do documento indica que a certeza probabilística sobre a culpa das atividades humanas pelo aquecimento global deve subir de 90% para 95%, em relação ao que o IPCC concluíra em 2007.

Qin Dahe, co-chefe do Grupo 1 do IPCC, ressaltou, porém, que apesar de incertezas permanecerem em alguns aspectos do relatório, o papel humano no clima não está sendo revisado. “A evidência científica da mudança climática antropogênica se fortaleceu ano a ano, deixando poucas incertezas sobre as consequências da inação.”

Uma versão vazada do relatório técnico do Grupo 1 do IPCC, documento mais completo que o sumário para políticos, indica que há espaço para os cientistas explicarem a recente pausa no aquecimento global: o período dos últimos 15 anos em que a subida de temperaturas se desacelerou. Uma versão do documento obtida pela agência de notícias Reuters indica que “períodos de hiato de 15 anos são comuns” no registro climático. A menção ao hiato é um dos pontos criticados pelo governo brasileiro no relatório.

*   *   *

25/09/2013 – 02h57

Para painel do clima, nuvens devem elevar aquecimento

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

O papel das nuvens na mudança climática ainda é um assunto cheio de incertezas, mas o próximo relatório do IPCC (painel do clima da ONU) dá um passo na direção de um veredito.

Segundo uma versão preliminar do documento, o que a ciência mostra até agora é que a alteração que o aquecimento global provoca na dinâmica de formação de nuvens contribui para que o calor se amplifique.

A versão provisória do AR5, o quinto relatório do IPCC, a ser divulgado na sexta, reconhece que as nuvens têm efeitos paradoxais sobre o clima, algumas delas fazendo a Terra reter mais calor, outras fazendo o planeta refletir radiação solar.

O texto porém, afirma que “o sinal do balanço de feedback radiativo é provavelmente positivo”. Em outras palavras, os cientistas têm 66% de certeza de que a mudança climática cria um ciclo vicioso, no qual nuvens aquecem um planeta que cria mais nuvens causadoras de aquecimento.

Ainda não é um veredito com grau de certeza acachapante como o atribuído aos gases-estufa –a culpa do aquecimento global é da queima de combustíveis fósseis por ação humana com 95% de certeza, diz o relatório. Mas é uma grande evolução desde o último relatório, o AR4, em 2007, que se declarou incapaz de chegar a um consenso sobre a questão.

Editoria de Arte/Folhapress

“O fato de o AR4 ter botado o dedo na ferida e dito que a parte de aerossóis e nuvens era a mais crítica fez com que milhares de cientistas voltassem pesquisas para essa área”, diz Paulo Artaxo, climatologista da USP e coautor do capítulo dedicado ao tema no novo relatório.

O maior problema era –e ainda é– saber se as nuvens baixas têm efeito positivo ou negativo sobre o aquecimento. Por estarem sob mais pressão, elas ficam mais compactas e ajudam a refletir luz solar. Já o vapor comum ou as nuvens mais altas (rarefeitas) retêm calor.

O efeito das nuvens baixas era um dos aspectos mais explorados por grupos que negam o aquecimento global causado pelo homem.

Ainda que o grau de certeza da nova resposta esteja abaixo do máximo, a alegação de que as nuvens vão salvar o planeta não tem obtido sustentação.

O problema agora é projetar o futuro. Para isso, é preciso usar modelos matemáticos de previsão, que ainda não estão prontos para tal.

Uma das principais razões para essa limitação, segundo Artaxo, é que a resolução dos modelos ainda é grosseira demais para tratar de nuvens.

Uma célula do planeta em um modelo é como um pixel de 50 km de largura, mas nuvens são menores que isso, podendo ter 100 m ou menos. Os cientistas precisam então simplificar a representação das nuvens em seus modelos matemáticos do clima.

RAIOS CÓSMICOS
O novo relatório também descarta uma teoria que ganhou espaço entre críticos do IPCC: a de que a formação de nuvens pudesse estar sendo afetada por uma alteração sazonal na taxa de raios cósmicos. Defendida pelo físico dinamarquês Henrik Svensmark, a hipótese seria uma explicação alternativa para o aquecimento não relacionada aos combustíveis fósseis.

Segundo Artaxo, o texto fez o maior esforço possível para não deixar nenhum aspecto de fora. “Você pode até achar que uma ou outra coisa é bobagem, mas não importa. É preciso analisar as evidências experimentais para verificar se uma coisa que parece a maior loucura do mundo é verdadeira ou não.”

*   *   *

23/09/2013 – 02h59

Brasil ataca ‘hiato’ do aquecimento global

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

Nos últimos 15 anos, a temperatura média da Terra parou de subir tão rápido quanto antes, mas isso não significa que a mudança climática esteja freando. Essa é a posição do governo brasileiro, que defenderá retirar do mais importante documento internacional sobre clima a menção ao chamado “hiato” do aquecimento global.

O encontro que define o conteúdo final do quinto relatório do IPCC (Painel Intergovernamental de Mudança Climática) começa hoje em Estocolmo, na Suécia, quando se reúne o Grupo de Trabalho 1 da instituição –aquele encarregado de avaliar a ciência física do clima.

O relatório técnico do painel já está pronto, mas só será publicado após a edição final do “Sumário para Formuladores de Políticas”, único anexo do relatório sobre o qual governos podem opinar antes da divulgação, marcada para a próxima sexta (27).

Editoria de Arte/Folhapress

Em junho, um esboço final dessa parte do relatório foi enviado a delegações para comentários. O texto, que vazou para a imprensa, incluía uma frase com referência ao hiato: “A taxa de aquecimento ao longo dos últimos 15 anos (1998-2012; 0,05°C por década) é menor do que a tendência desde 1951 (1951-2012; 0,12°C por década)”.

Editoria de Arte/Folhapress

Explorada por negacionistas da mudança climática, essa flexão no gráfico de temperatura é descrita por alguns como mero ruído estatístico numa tendência clara de aquecimento no longo prazo.

Autores do sumário não deveriam ter incluído um recorte arbitrário de 15 anos num documento que avalia um trajeto só visível em escala maior, defende um dos representantes do governo brasileiro perante o IPCC.

“Alguém escolheu para isso um determinado ano [1998] que foi um ano de El Niño e era mais quente que o padrão”, diz Gustavo Luedemann, coordenador de mudanças globais de clima do Ministério da Ciência. “Isso é obviamente um erro metodológico e deixa o documento um menos contundente.”

Luedeman, porém, considera a menção ao hiato apenas um equívoco pontual e diz crer que o relatório é incisivo ao culpar a humanidade pela mudança climática.

Ainda assim, cientistas tentam entender por que o gráfico de temperaturas se achatou. Segundo Ed Hawkins, climatólogo da Universidade de Reading (Inglaterra) que tem estudado o fenômeno, há vários motivos, incluindo queda de atividade solar e erupções vulcânicas recentes, que tem efeito resfriador sobre a Terra.

“O terceiro fator é a variabilidade natural do clima, com mudanças importantes no Pacífico tropical”, diz. “A energia extra entrando no sistema climático provavelmente está sendo armazenada no oceano profundo.”

*   *   *

26/09/2013 – 02h54

Oceano Ártico terá verão sem gelo em 2050, diz relatório da ONU

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

Quando o biólogo sueco Tom Arnbom desembarcou neste verão na costa do mar de Laptev, na Rússia, para coletar DNA de morsas, notou que os enormes mamíferos tinham um medo incomum de ursos-polares, animal que normalmente não os ataca.

Após alguns dias no local, o cientista percebeu que, sem terem gelo marinho como base de caça, os ursos não alcançavam focas e outras presas prediletas. A alternativa era tentar abocanhar filhotes de morsa, com alto risco de serem pegos pelos adultos.

Alex Argozino/Editoria de Arte/Folhapress

Esse é um dos impactos que o declínio do gelo marinho no Ártico provocou nos últimos anos. O aumento do ritmo de degelo na região é um dos principais pontos a serem revistos no próximo relatório do IPCC (painel do clima da ONU, formado por milhares de cientistas).

Amanhã, a primeira parte do texto, dedicada à física do clima, será divulgada.

“É muito provável que a cobertura de gelo marinho no Ártico continue a encolher e afinar”, afirma o texto preliminar do documento. “Sob o cenário RCP8.5 [hipótese mais pessimista do relatório], um oceano Ártico quase sem gelo provavelmente será visto antes do meio do século.”

O painel informa que é possível dizer com “alta confiabilidade” que o Ártico vai se aquecer mais rápido que outras regiões e revê para pior o seu prognóstico. Há menos de uma década, porém, o maior relatório sobre o tema, o “Arctic Climate Impact Assessment”, estimava que o temido “setembro sem gelo” só viria no fim do século.

O gelo marinho ajuda a refletir radiação solar. Com o degelo e mais área de águas escuras para absorver calor, a escassez de superfície branca vai retroalimentar a mudança climática, diz o IPCC.

A MARCHA DAS MORSAS
Arnbom, hoje um pesquisador a serviço da ONG ambientalista WWF, trabalhou por muitos anos na região para o governo da Suécia, país que tem 15% de seu território no círculo ártico.
“O que eu vi no Ártico 40 anos atrás não existe mais. É impressionante ver quão rápido se foi. Estava lá todos os anos. Alguns eram mais frios que outros, e a população de animais variava, mas em 2007 me dei conta de que os impactos eram bem visíveis.”

Naquele ano, todo o gelo em alto mar derreteu na região de Laptev, e morsas que costumavam se espalhar em pedaços de gelo marinho migraram para uma única praia, formando uma concentração de mais de 50 mil indivíduos.

Norbert Rosing/National Geographic Stock/WWF Canadá

Morsas amontoadas no Ártico; derretimento do gelo reduz área disponível para os bichos, o que pode causar a morte dos filhotes prensados pelos adultos em espaços pequenos

O local, afastado das áreas de alimentação ricas em moluscos, era pequeno demais para abrigar tantos animais, e muitos morriam esmagados. O fenômeno se repetiu depois, em 2011, com uma concentração estimada em 100 mil morsas.

RÚSSIA x AMBIENTE
Ursos e morsas, porém, não são os únicos animais da região a terem mudado de comportamento. Segundo a WWF, a região é habitada por 40 comunidades tradicionais, que enfrentam escassez na caça e pesca artesanal.

E outro grupo de humanos, vendo novas rotas de navegação se abrirem, enxerga agora o potencial econômico da região como rota de transporte marítimo, pesca industrial e fonte de petróleo –o benefício vem justamente para a indústria cujo produto é apontado como causa da mudança climática.

A gigante russa Gazprom, que estabeleceu a primeira plataforma de petróleo “offshore” da região, teve suas instalações no mar de Pechora invadidas por ativistas do Greenpeace na semana passada. Trinta ambientalistas, incluindo uma brasileira, estão presos.

A ONG WWF também intensificou sua atividade na região. O DNA de morsas coletado por Arnbom será usado para pesquisas em universidades dinamarquesas, mas ainda está parado na alfândega russa.

And now it’s global COOLING! Record return of Arctic ice cap as it grows by 60% in a year (Daily Mail)

  • Almost a million more square miles of ocean covered with ice than in 2012
  • BBC reported in 2007 global warming would leave Arctic ice-free in summer by 2013
  • Publication of UN climate change report suggesting global warming caused by humans pushed back to later this month

By DAVID ROSE

PUBLISHED: 23:37 GMT, 7 September 2013 | UPDATED: 12:01 GMT, 8 September 2013

A chilly Arctic summer has left nearly a million more square miles of ocean covered with ice than at the same time last year – an increase of 60 per cent.

The rebound from 2012’s record low comes six years after the BBC reported that global warming would leave the Arctic ice-free in summer by 2013.

Instead, days before the annual autumn re-freeze is due to begin, an unbroken ice sheet more than half the size of Europe already stretches from the Canadian islands to Russia’s northern shores.

global cooling

The Northwest Passage from the Atlantic to the Pacific has remained blocked by pack-ice all year. More than 20 yachts that had planned to sail it have been left ice-bound and a cruise ship attempting the route was forced to turn back.

Some eminent scientists now believe the world is heading for a period of cooling that will not end until the middle of this century – a process that would expose computer forecasts of imminent catastrophic warming as dangerously misleading.

The disclosure comes 11 months after The Mail on Sunday triggered intense political and scientific debate by revealing that global warming has ‘paused’ since the beginning of 1997 – an event that the computer models used by climate experts failed to predict.

In March, this newspaper further revealed that temperatures are about to drop below the level that the models forecast with ‘90 per cent certainty’.

The pause – which has now been accepted as real by every major climate research centre – is important, because the models’ predictions of ever-increasing global temperatures have made many of the world’s economies divert billions of pounds into ‘green’ measures to counter  climate change.

Those predictions now appear gravely flawed.

THERE WON’T BE ANY ICE AT ALL! HOW THE BBC PREDICTED CHAOS IN 2007

Only six years ago, the BBC reported that the Arctic would be ice-free in summer by 2013, citing a scientist in the US who claimed this was a ‘conservative’ forecast. Perhaps it was their confidence that led more than 20 yachts to try to sail the Northwest Passage from the Atlantic to  the Pacific this summer. As of last week, all these vessels were stuck in the ice, some at the eastern end of the passage in Prince Regent Inlet, others further west at Cape Bathurst.

Shipping experts said the only way these vessels were likely to be freed was by the icebreakers of the Canadian coastguard. According to the official Canadian government website, the Northwest Passage has remained ice-bound and impassable  all summer.

The BBC’s 2007 report quoted scientist  Professor Wieslaw Maslowski, who based his views on super-computer models and the fact that ‘we use a high-resolution regional model for the Arctic Ocean and sea ice’.

He was confident his results were ‘much more realistic’ than other projections, which ‘underestimate the amount of heat delivered to the sea ice’. Also quoted was Cambridge University expert

Professor Peter Wadhams. He backed Professor Maslowski, saying his model was ‘more efficient’ than others because it ‘takes account of processes that happen internally in the ice’.

He added: ‘This is not a cycle; not just a fluctuation. In the end, it will all just melt away quite suddenly.’

BBC

The continuing furore caused by The Mail on Sunday’s revelations – which will now be amplified by the return of the Arctic ice sheet – has forced the UN’s climate change body to hold a crisis meeting.

The UN Intergovernmental Panel on Climate Change (IPCC) was due in October to start publishing its Fifth Assessment Report – a huge three-volume study issued every six or seven years. It will now hold a pre-summit in Stockholm later this month.

Leaked documents show that governments which support and finance the IPCC are demanding more than 1,500 changes to the report’s ‘summary for policymakers’. They say its current draft does not properly explain the pause.

At the heart of the row lie two questions: the extent to which temperatures will rise with carbon dioxide levels, as well as how much of the warming over the past 150 years – so far, just 0.8C – is down to human greenhouse gas emissions and how much is due to natural variability.

In its draft report, the IPCC says it is ‘95 per cent confident’ that global warming has been caused by humans – up from 90 per cent in 2007.

This claim is already hotly disputed. US climate expert Professor Judith Curry said last night: ‘In fact, the uncertainty is getting bigger. It’s now clear the models are way too sensitive to carbon dioxide. I cannot see any basis for the IPCC increasing its confidence level.’

She pointed to long-term cycles  in ocean temperature, which have a huge influence on climate and  suggest the world may be approaching a period similar to that from 1965 to 1975, when there was a clear cooling trend. This led some scientists at the time to forecast an imminent ice age.

Professor Anastasios Tsonis, of the University of Wisconsin, was one of the first to investigate the ocean cycles. He said: ‘We are already in a cooling trend, which I think will continue for the next 15 years at least. There is no doubt the warming of the 1980s and 1990s has stopped.

Then... NASA satelite images showing the spread of Artic sea ice 27th August 2012Then… NASA satelite images showing the spread of Artic sea ice 27th August 2012

...And now, much bigger: The spread of Artic sea ice on August 15 2013…And now, much bigger: The same Nasa image taken in 2013

‘The IPCC claims its models show a pause of 15 years can be expected. But that means that after only a very few years more, they will have to admit they are wrong.’

Others are more cautious. Dr Ed Hawkins, of Reading University, drew the graph published by The Mail on Sunday in March showing how far world temperatures have diverged from computer predictions. He admitted the cycles may have caused some of the recorded warming, but insisted that natural variability alone could not explain all of the temperature rise over the past 150 years.

Nonetheless, the belief that summer Arctic ice is about to disappear remains an IPCC tenet, frequently flung in the face of critics who point to the pause.

Yet there is mounting evidence that Arctic ice levels are cyclical. Data uncovered by climate historians show that there was a massive melt in the 1920s and 1930s, followed by intense re-freezes that ended only in 1979 – the year the IPCC says that shrinking began.

Professor Curry said the ice’s behaviour over the next five years would be crucial, both for understanding the climate and for future policy. ‘Arctic sea ice is the indicator to watch,’ she said.

Read more: http://www.dailymail.co.uk/news/article-2415191/Global-cooling-Arctic-ice-caps-grows-60-global-warming-predictions.html#ixzz2foMLmebr 
Follow us: @MailOnline on Twitter | DailyMail on Facebook

Seca no semiárido deve se agravar nos próximos anos – e outros artigos relacionados à Conclima (Fapesp)

Pesquisadores alertam para necessidade de executar ações urgentes de adaptação e mitigação aos impactos das mudanças climáticas previstos na região (foto: Fred Jordão/Acervo ASACom)

12/09/2013

Por Elton Alisson

Agência FAPESP – Os problemas de seca prolongada registrados atualmente no semiárido brasileiro devem se agravar ainda mais nos próximos anos por causa das mudanças climáticas globais. Por isso, é preciso executar ações urgentes de adaptação e mitigação desses impactos e repensar os tipos de atividades econômicas que podem ser desenvolvidas na região.

A avaliação foi feita por pesquisadores que participaram das discussões sobre desenvolvimento regional e desastres naturais realizadas no dia 10 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima).

Organizado pela FAPESP e promovido em parceria com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), o evento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com dados do Centro Nacional de Gerenciamento de Riscos e Desastres (Cenad), só nos últimos dois anos foram registrados 1.466 alertas de municípios no semiárido que entraram em estado de emergência ou de calamidade pública em razão de seca e estiagem – os desastres naturais mais recorrentes no Brasil, segundo o órgão.

O Primeiro Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (PBMC) – cujo sumário executivo foi divulgado no dia de abertura da Conclima – estima que esses eventos extremos aumentem principalmente nos biomas Amazônia, Cerrado e Caatinga e que as mudanças devem se acentuar a partir da metade e até o fim do século 21. Dessa forma, o semiárido sofrerá ainda mais no futuro com o problema da escassez de água que enfrenta hoje, alertaram os pesquisadores.

“Se hoje já vemos que a situação é grave, os modelos de cenários futuros das mudanças climáticas no Brasil indicam que o problema será ainda pior. Por isso, todas as ações de adaptação e mitigação pensadas para ser desenvolvidas ao longo dos próximos anos, na verdade, têm de ser realizadas agora”, disse Marcos Airton de Sousa Freitas, especialista em recursos hídricos e técnico da Agência Nacional de Águas (ANA).

Segundo o pesquisador, o semiárido – que abrange Bahia, Sergipe, Alagoas, Pernambuco, Rio Grande do Norte, Paraíba, Ceará, Piauí e o norte de Minas Gerais – vive hoje o segundo ano do período de seca, iniciado em 2011, que pode se prolongar por um tempo indefinido.

Um estudo realizado pelo órgão, com base em dados de vazão de bacias hidrológicas da região, apontou que a duração média dos períodos de seca no semiárido é de 4,5 anos. Estados como o Ceará, no entanto, já enfrentaram secas com duração de quase nove anos, seguidos por longos períodos nos quais choveu abaixo da média estimada.

De acordo com Freitas, a capacidade média dos principais reservatórios da região – com volume acima de 10 milhões de metros cúbicos de água e capacidade de abastecer os principais municípios por até três anos – está atualmente na faixa de 40%. E a tendência até o fim deste ano é de esvaziarem cada vez mais.

“Caso não haja um aporte considerável de água nesses grandes reservatórios em 2013, poderemos ter uma transição do problema de seca que se observa hoje no semiárido, mais rural, para uma seca ‘urbana’ – que atingiria a população de cidades abastecidas por meio de adutoras desses sistemas de reservatórios”, alertou Freitas.

Ações de adaptação

Uma das ações de adaptação que começou a ser implementada no semiárido nos últimos anos e que, de acordo com os pesquisadores, contribuiu para diminuir sensivelmente a vulnerabilidade do acesso à água, principalmente da população rural difusa, foi o Programa Um Milhão de Cisternas (P1MC).

Lançado em 2003 pela Articulação Semiárido Brasileiro (ASA) – rede formada por mais de mil organizações não governamentais (ONGs) que atuam na gestão e no desenvolvimento de políticas de convivência com a região semiárida –, o programa visa implementar um sistema nas comunidades rurais da região por meio do qual a água das chuvas é capturada por calhas, instaladas nos telhados das casas, e armazenada em cisternas cobertas e semienterradas. As cisternas são construídas com placas de cimento pré-moldadas, feitas pela própria comunidade, e têm capacidade de armazenar até 16 mil litros de água.

O programa tem contribuído para o aproveitamento da água da chuva em locais onde chove até 600 milímetros por ano – comparável ao volume das chuvas na Europa – que evaporam e são perdidos rapidamente sem um mecanismo que os represe, avaliaram os pesquisadores.

“Mesmo com a seca extrema na região nos últimos dois anos, observamos que a água para o consumo da população rural difusa tem sido garantida pelo programa, que já implantou cerca de 500 mil cisternas e é uma ação política de adaptação a eventos climáticos extremos. Com programas sociais, como o Bolsa Família, o programa Um Milhão de Cisternas tem contribuído para atenuar os impactos negativos causados pelas secas prolongadas na região”, afirmou Saulo Rodrigues Filho, professor da Universidade de Brasília (UnB).

Como a água tende a ser um recurso natural cada vez mais raro no semiárido nos próximos anos, Rodrigues defendeu a necessidade de repensar os tipos de atividades econômicas mais indicadas para a região.

“Talvez a agricultura não seja a atividade mais sustentável para o semiárido e há evidências de que é preciso diversificar as atividades produtivas na região, não dependendo apenas da agricultura familiar, que já enfrenta problemas de perda de mão de obra, uma vez que o aumento dos níveis de educação leva os jovens da região a se deslocar do campo para a cidade”, disse Rodrigues.

“Por meio de políticas de geração de energia mais sustentáveis, como a solar e a eólica, e de fomento a atividades como o artesanato e o turismo, é possível contribuir para aumentar a resiliência dessas populações a secas e estiagens agudas”, afirmou.

Outras medidas necessárias, apontada por Freitas, são de realocação de água entre os setores econômicos que utilizam o recurso e seleção de culturas agrícolas mais resistentes à escassez de água enfrentada na região.

“Há culturas no semiárido, como capim para alimentação de gado, que dependem de irrigação por aspersão. Não faz sentido ter esse tipo de cultura que demanda muito água em uma região que sofrerá muito os impactos das mudanças climáticas”, afirmou Freitas.

Transposição do Rio São Francisco

O pesquisador também defendeu que o projeto de transposição do Rio São Francisco tornou-se muito mais necessário agora – tendo em vista que a escassez de água deverá ser um problema cada vez maior no semiárido nas próximas décadas – e é fundamental para complementar as ações desenvolvidas na região para atenuar o risco de desabastecimento de água.

Alvo de críticas e previsto para ser concluído em 2015, o projeto prevê que as águas do Rio São Francisco cheguem às bacias do Rio Jaguaribe, que abastece o Ceará, e do Rio Piranhas-Açu, que abastece o Rio Grande do Norte e a Paraíba.

De acordo com um estudo realizado pela ANA, com financiamento do Banco Mundial e participação de pesquisadores da Universidade Federal do Ceará, entre outras instituições, a disponibilidade hídrica dessas duas bacias deve diminuir sensivelmente nos próximos anos, contribuindo para agravar ainda mais a deficiência hídrica do semiárido.

“A transposição do Rio Francisco tornou-se muito mais necessária e deveria ser acelerada porque contribuiria para minimizar o problema do déficit de água no semiárido agora, que deve piorar com a previsão de diminuição da disponibilidade hídrica nas bacias do Rio Jaguaribe e do Rio Piranhas-Açu”, disse Freitas à Agência FAPESP.

O Primeiro Relatório de Avaliação Nacional do PBMC, no entanto, indica que a vazão do Rio São Francisco deve diminuir em até 30% até o fim do século, o que colocaria o projeto de transposição sob ameaça.

Freitas, contudo, ponderou que 70% do volume de água do Rio São Francisco vem de bacias da região Sudeste, para as quais os modelos climáticos preveem aumento da vazão nas próximas décadas. Além disso, de acordo com ele, o volume total previsto para ser transposto para as bacias do Rio Jaguaribe e do Rio Piranhas-Açu corresponde a apenas 2% da vazão média da bacia do Rio São Francisco.

“É uma situação completamente diferente do caso do Sistema Cantareira, por exemplo, no qual praticamente 90% da água dos rios Piracicaba, Jundiaí e Capivari são transpostas para abastecer a região metropolitana de São Paulo”, comparou.

“Pode-se argumentar sobre a questão de custos da transposição do Rio São Francisco. Mas, em termos de necessidade de uso da água, o projeto reforçará a operação dos sistemas de reservatórios existentes no semiárido”, afirmou.

De acordo com o pesquisador, a água é distribuída de forma desigual no território brasileiro. Enquanto 48% do total do volume de chuvas que cai na Amazônia é escoado pela Bacia Amazônica, segundo Freitas, no semiárido apenas em média 7% do volume de água precipitada na região durante três a quatro meses chegam às bacias do Rio Jaguaribe e do Rio Piranhas-Açu. Além disso, grande parte desse volume de água é perdido pela evaporação. “Por isso, temos necessidade de armazenar essa água restante para os meses nos quais não haverá disponibilidade”, explicou.

As apresentações feitas pelos pesquisadores na conferência, que termina no dia 13, estarão disponíveis em: www.fapesp.br/conclima

 

Mudanças no clima do Brasil até 2100

10/09/2013

Por Elton Alisson*

Mais calor, menos chuva no Norte e Nordeste do país e mais chuva no Sul e Sudeste são algumas das projeções do Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (foto: Eduardo Cesar/FAPESP)

Agência FAPESP – O clima no Brasil nas próximas décadas deverá ser mais quente – com aumento gradativo e variável da temperatura média em todas as regiões do país entre 1 ºC e 6 ºC até 2100, em comparação à registrada no fim do século 20.

No mesmo período, também deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

As conclusões são do primeiro Relatório de Avaliação Nacional (RAN1) do Painel Brasileiro de Mudanças Climáticas (PBMC), cujo sumário executivo foi divulgado nesta segunda-feira (09/08), durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima). Organizado pela FAPESP e promovido com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), oevento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com o relatório, tendo em vista que as mudanças climáticas e os impactos sobre as populações e os setores econômicos nos próximos anos não serão idênticos em todo o país, o Brasil precisa levar em conta as diferenças regionais no desenvolvimento de ações de adaptação e mitigação e de políticas agrícolas, de geração de energia e de abastecimento hídrico para essas diferentes regiões.

Dividido em três partes, o Relatório 1 – em fase final de elaboração – apresenta projeções regionalizadas das mudanças climáticas que deverão ocorrer nos seis diferentes biomas do Brasil até 2100, e indica quais são seus impactos estimados e as possíveis formas de mitigá-los.

As projeções foram feitas com base em revisões de estudos realizados entre 2007 e início de 2013 por 345 pesquisadores de diversas áreas, integrantes do PBMC, e em resultados científicos de modelagem climática global e regional.

“O Relatório está sendo preparado nos mesmos moldes dos relatórios publicados pelo Painel Intergovernamental das Mudanças Climáticas [IPCC, na sigla em inglês], que não realiza pesquisa, mas avalia os estudos já publicados”, disse José Marengo, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e coordenador do encontro.

“Depois de muito trabalho e interação, chegamos aos resultados principais dos três grupos de trabalho [Bases científicas das mudanças climáticas; Impactos, vulnerabilidades e adaptação; e Mitigação das mudanças climáticas]”, ressaltou.

Principais conclusões

Uma das conclusões do relatório é de que os eventos extremos de secas e estiagens prolongadas, principalmente nos biomas da Amazônia, Cerrado e Caatinga, devem aumentar e essas mudanças devem se acentuar a partir da metade e no fim do século 21.

A temperatura na Amazônia deverá aumentar progressivamente de 1 ºC a 1,5 ºC até 2040 – com diminuição de 25% a 30% no volume de chuvas –, entre 3 ºC e 3,5 ºC no período de 2041 a 2070 – com redução de 40% a 45% na ocorrência de chuvas –, e entre 5 ºC a 6 ºC entre 2071 a 2100.

Enquanto as modificações do clima associadas às mudanças globais podem comprometer o bioma em longo prazo, a questão atual do desmatamento decorrente das intensas atividades de uso da terra representa uma ameaça mais imediata para a Amazônia, ponderam os autores do relatório.

Os pesquisadores ressaltam que estudos observacionais e de modelagem numérica sugerem que, caso o desmatamento alcance 40% na região no futuro, haverá uma mudança drástica no padrão do ciclo hidrológico, com redução de 40% na chuva durante os meses de julho a novembro – o que prolongaria a duração da estação seca e provocaria o aquecimento superficial do bioma em até 4 ºC.

Dessa forma, as mudanças regionais decorrentes do efeito do desmatamento se somariam às provenientes das mudanças globais e constituíram condições propícias para a savanização da Amazônia – problema que tende a ser mais crítico na região oriental, ressaltam os pesquisadores.

“As projeções permitirão analisar melhor esse problema de savanização da Amazônia, que, na verdade, percebemos que poderá ocorrer em determinados pontos da floresta, e não no bioma como um todo, conforme previam alguns estudos”, destacou Tércio Ambrizzi, um dos autores coordenadores do sumário executivo do grupo de trabalho sobre a base científica das mudanças climáticas.

A temperatura da Caatinga também deverá aumentar entre 0,5 ºC e 1 ºC e as chuvas no bioma diminuirão entre 10% e 20% até 2040. Entre 2041 e 2070 o clima da região deverá ficar de 1,5 ºC a 2,5 ºC mais quente e o padrão de chuva diminuir entre 25% e 35%. Até o final do século, a temperatura do bioma deverá aumentar progressivamente entre 3,5 ºC e 4,5 ºC  e a ocorrência de chuva diminuir entre 40% e 50%. Tais mudanças podem desencadear o processo de desertificação do bioma.

Por sua vez, a temperatura no Cerrado deverá aumentar entre 5 ºC e 5,5 ºC e as chuvas diminuirão entre 35% e 45% no bioma até 2100. No Pantanal, o aquecimento da temperatura deverá ser de 3,5ºC a 4,5ºC até o final do século, com diminuição acentuada dos padrões de chuva no bioma – com queda de 35% a 45%.

Já no caso da Mata Atlântica, como o bioma abrange áreas desde a região Sul do país, passando pelo Sudeste e chegando até o Nordeste, as projeções apontam dois regimes distintos de mudanças climáticas.

Na porção Nordeste deve ocorrer um aumento relativamente baixo na temperatura – entre 0,5 ºC e 1 ºC – e decréscimo nos níveis de precipitação (chuva) em torno de 10% até 2040. Entre 2041 e 2070, o aquecimento do clima da região deverá ser de 2 ºC a 3 ºC, com diminuição pluviométrica entre 20% e 25%. Já para o final do século – entre 2071 e 2100 –, estimam-se condições de aquecimento intenso – com aumento de 3 ºC a 4 ºC na temperatura – e diminuição de 30% a 35% na ocorrência de chuvas.

Nas porções Sul e Sudeste as projeções indicam aumento relativamente baixo de temperatura entre 0,5 ºC e 1 ºC até 2040, com aumento de 5% a 10% no número de chuva. Entre 2041 e 2070 deverão ser mantidas as tendências de aumento gradual de 1,5 ºC a 2 ºC na temperatura e de 15% a 20% de chuvas.

Tais tendências devem se acentuar ainda mais no final do século, quando o clima deverá ficar entre 2,5 ºC e 3 ºC mais quente e entre 25% e 30% mais chuvoso.

Por fim, para o Pampa, as projeções indicam que até 2040 o clima da região será entre 5% e 10% mais chuvoso e até 1 ºC mais quente. Já entre 2041 e 2070, a temperatura do bioma deverá aumentar entre 1 ºC e 1,5 ºC  e haverá uma intensificação das chuvas entre 15% e 20%. As projeções para o clima da região no período entre 2071 e 2100 são mais agravantes, com aumento de temperatura de 2,5 ºC a 3 ºC e ocorrência de chuvas entre 35% e 40% acima do normal.

“O que se observa, de forma geral, é que nas regiões Norte e Nordeste do Brasil a tendência é de um aumento de temperatura e de diminuição das chuvas ao longo do século”, resumiu Ambrizzi.

“Já nas regiões mais ao Sul essa tendência se inverte: há uma tendência tanto de aumento da temperatura – ainda que não intenso – e de precipitação”, comparou.

Impactos e adaptação

As mudanças nos padrões de precipitação nas diferentes regiões do país, causadas pelas mudanças climáticas, deverão ter impactos diretos na agricultura, na geração e distribuição de energia e nos recursos hídricos das regiões, uma vez que a água deve se tornar mais rara nas regiões Norte e Nordeste e mais abundante no Sul e Sudeste, alertam os pesquisadores.

Por isso, será preciso desenvolver ações de adaptação e mitigação específicas e rever decisões de investimento, como a construção de hidrelétricas nas regiões leste da Amazônia, onde os rios poderão ter redução da vazão da ordem de até 20%, ressalvaram os pesquisadores.

“Essas variações de impactos mostram que qualquer tipo de estratégia planejada para geração de energia no leste da Amazônia está ameaçada, porque há uma série de fragilidades”, disse Eduardo Assad, pesquisador da Empresa Brasileira de Pesquisa Agropecuária (Embrapa).

“Dará para contar com água. Mas até quando e onde encontrar água nessas regiões são incógnitas”, disse o pesquisador, que é um dos coordenadores do Grupo de Trabalho 2 do relatório, sobre Impactos, vulnerabilidades e adaptação.

De acordo com Assad, é muito caro realizar ações de adaptação às mudanças climáticas no Brasil em razão das fragilidades que o país apresenta tanto em termos naturais – com grandes variações de paisagens – como socioeconômicas.

“A maior parte da população brasileira – principalmente a que habita as regiões costeiras do país – está vulnerável aos impactos das mudanças climáticas. Resolver isso não será algo muito fácil”, estimou.

Entre os setores econômicos do país, segundo Assad, a agricultura é um dos poucos que vêm se adiantando para se adaptar aos impactos das mudanças climáticas.

“Já estamos trabalhando com condições de adaptação há mais de oito anos. É possível desenvolver cultivares tolerantes a temperaturas elevadas ou à deficiência hídrica [dos solos], disse Assad.

O pesquisador também ressaltou que os grupos populacionais com piores condições de renda, educação e moradia sofrerão mais intensamente os impactos das mudanças climáticas no país. “Teremos que tomar decisões rápidas para evitar que tragédias aconteçam.”

Mitigação

Mercedes Bustamante, professora da Universidade de Brasília (UnB), e uma das coordenadoras do Grupo de Trabalho 3, sobre Mitigação das Mudanças Climáticas, apresentou uma síntese de estudos e pesquisas sobre o tema, identificando lacunas do conhecimento e direcionamentos futuros em um cenário de aquecimento global.

Bustamante apontou que a redução das taxas de desmatamento entre 2005 e 2010 – de 2,03 bilhões de toneladas de CO2 equivalente para 1,25 bilhão de toneladas – já teve efeitos positivos na redução das emissões de gases de efeito estufa (GEE) decorrentes do uso da terra.

“As emissões decorrentes da geração de energia e da agricultura, no entanto, aumentaram em termos absolutos e relativos, indicando mudanças no perfil das emissões brasileiras”, disse.

Mantidas as políticas atuais, a previsão é de que as emissões decorrentes dos setores de energia e de transportes aumentem 97% até 2030. Será preciso mais eficiência energética, mais inovação tecnológica e políticas de incentivo ao uso de energia renovável para reverter esse quadro.

Na área de transporte, as recomendações vão desde a transformação de um modal – fortemente baseado no transporte rodoviário – e o uso de combustíveis tecnológicos. “É preciso transferir do individual para o coletivo, investindo, por exemplo, em sistemas aquaviários e em veículos elétricos e híbridos”, ressaltou Bustamante.

O novo perfil das emissões de GEE revela uma participação crescente do metano – de origem animal – e do óxido nitroso – relacionado ao uso de fertilizantes. “Apesar desses resultados, a agricultura avançou no desenvolvimento de estratégias de mitigação e adaptação”, ponderou.

Para a indústria, responsável por 4% das emissões de GEE, a lista de recomendações para a mitigação passa pela reciclagem, pela utilização de biomassa renovável, pela cogeração de energia, entre outros.

As estratégias de mitigação das mudanças climáticas exigem, ainda, uma revisão do planejamento urbano de forma a garantir a sustentabilidade também das edificações de forma a controlar, por exemplo, o consumo da madeira e garantir maior eficiência energética na construção civil.

Informação para a sociedade

Os pesquisadores participantes da redação do relatório destacaram que, entre as virtudes do documento, está a de reunir dados de estudos científicos realizados ao longo dos últimos anos no Brasil que estavam dispersos e disponibilizar à sociedade e aos tomadores de decisão informações técnico-científicas críveis capazes de auxiliar no desenvolvimento de estratégias de adaptação e mitigação para os possíveis impactos das mudanças climáticas.

“Nós, cientistas, temos o desafio de conseguir traduzir a seriedade e a gravidade do momento e as oportunidades que as mudanças climáticas globais encerram para a sociedade. Sabemos que a inação representa a ação menos inteligente que a sociedade pode tomar”, disse Paulo Nobre, coordenador da Rede Clima.

Por sua vez, Celso Lafer, presidente da FAPESP, destacou, na abertura do evento, que a Fundação tem interesse especial nas pesquisas sobre mudanças climáticas, expresso no Programa FAPESP de Pesquisa em Mudanças Climáticas Globais (PFPMCG), mantido pela instituição.

“Uma das preocupações básicas da FAPESP é pesquisar e averiguar o impacto das mudanças climáticas globais naquilo que afeta as especificidades do Brasil e do Estado de São Paulo”, afirmou.

Também participaram da abertura do evento Bruno Covas, secretário do Meio Ambiente do Estado de São Paulo, Carlos Nobre, secretário de Políticas e Programa de Pesquisa e Desenvolvimento (Seped) do Ministério da Ciência, Tecnologia e Inovação (MCTI), e Paulo Artaxo, membro da coordenação do PFPMCG.

Carlos Nobre ressaltou que o relatório será a principal fonte de informações que orientará o Plano Nacional de Mudanças Climáticas que, no momento, está em revisão.

“É muito importante que os resultados desse estudo orientem os trabalhos em Brasília e em várias partes do Brasil, em um momento crítico de reorientar a política nacional, que tem de ir na direção de tornar a economia, a sociedade e o ambiente mais resilientes às inevitáveis mudanças climáticas que estão por vir”, afirmou.

Segundo ele, o Brasil já sinalizou compromisso com a mitigação, materializado na Política Nacional de Mudanças Climáticas e que prevê redução de 10% e 15% das emissões entre 2010 e 2020, respectivamente, relativamente a 2005.

“São Paulo lançou, em 2009, um programa ambicioso, de redução de 20% das emissões, já que a questão da mudança no uso da terra não é uma questão tão importante no Estado, mas sim o avanço tecnológico na geração de energia e em processos produtivos. O Brasil é o único país em desenvolvimento com metas voluntárias para redução de emissões”.

Ele ressaltou, entretanto, que “a adaptação ficou desassistida”. “Não é só mitigar; é preciso também se adaptar às mudanças climáticas. As três redes de pesquisa – Clima, INCT e FAPESP – avançam na adaptação, que é o guia para o desenvolvimento sustentável.”

* Colaboraram Claudia Izique e Noêmia Lopes

 

Modelo para entender as variações climáticas no país

10/09/2013

Por Noêmia Lopes

Modelo Brasileiro do Sistema Terrestre é considerado fundamental para pesquisas sobre o clima(foto:Nasa)

Agência FAPESP – O desmatamento da Amazônia, as queimadas, os processos de interação entre o Oceano Atlântico e a atmosfera são algumas das questões climáticas particulares do Brasil que o Modelo Brasileiro do Sistema Terrestre (BESM, na sigla em inglês) leva em consideração e pretende dar conta de uma forma que mesmo os melhores modelos do mundo não são capazes de fazer.

O modelo foi apresentado em detalhes na segunda-feira (09/09) na abertura da 1ª Conferência Nacional de Mudanças Climáticas Globais, realizada em São Paulo.

Determinar o quanto o clima já mudou, o quanto as suas características ainda vão se alterar e onde isso ocorrerá é a base para o planejamento de políticas públicas de adaptação aos impactos das mudanças climáticas globais, segundo Paulo Nobre, coordenador geral do BESM e da Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima), na abertura do evento.

“O BESM é um eixo estruturante da pesquisa em mudanças climáticas no Brasil e oferece subsídios para o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), para a Rede Clima e para o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC)”, disse Nobre.

Com o intuito de colaborar com as previsões sobre as consequências do aquecimento global e o consequente aumento na frequência dos eventos extremos, o BESM roda no supercomputador Tupã da Rede Clima/PFPMCG, reunindo fluxos atmosféricos, oceânicos, de superfície e, em breve, químicos. Adquirido pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) com apoio da FAPESP, o Tupã está instalado na unidade do Instituto Nacional de Pesquisas Espaciais (Inpe) de Cachoeira Paulista

Embora ainda não esteja em sua versão final e completa, o modelo já consegue, por exemplo, reconstituir a ocorrência dos últimos El Niños e estimar o retorno desse fenômeno, explicar as chuvas na Zona de Convergência do Atlântico Sul e até estimar a variação do gelo no globo de maneira satisfatória.

“Os cenários mais atuais, de 2013, estão disponíveis no supercomputador. Estamos tomando medidas para que o acesso seja disponibilizado ao público em geral até o final do ano”, afirmou Nobre.

Trinta pesquisadores estão diretamente envolvidos no desenvolvimento do BESM e outros 40 estão ligados indiretamente. De acordo com Nobre, esse número deve duplicar em cinco anos e duplicar novamente em 10 anos. “Para tanto, é preciso que cada vez mais jovens doutores integrem esse desafio.”

Nobre ressaltou ainda as graves consequências que o aumento da frequência dos eventos extremos – tais como secas, enchentes e tornados – tem sobre a vida das populações: “Nossas cidades e nossos campos não foram projetados para conviver com esse novo clima, o que torna essencial a entrada do Brasil na modelagem das mudanças climáticas”, disse.

Os quatro componentes

Iracema Cavalcanti, pesquisadora do Inpe, apresentou, durante o primeiro dia da conferência, os resultados já obtidos a partir do componente atmosférico do BESM.

Em comparação com os dados observados, o modelo consegue alcançar boas simulações de variabilidade sazonal (modificações climatológicas das estações), fluxos de umidade, variabilidade interanual (diferença entre anomalias de pressão), variabilidade da precipitação, entre outros. “Ainda há deficiências, como na maioria dos modelos globais. Mas as características gerais estão contempladas”, disse Cavalcanti.

Em relação aos oceanos, não é possível separá-los do que ocorre no modelo atmosférico, daí a modelagem acoplada ser estratégica para o funcionamento eficiente do BESM. A avaliação é de Leo Siqueira, também do Inpe, que apresentou os desafios desse componente.

“Já conseguimos boas representações, mas queremos melhorar as simulações de temperatura dos oceanos, principalmente nos trópicos, e do gelo marinho. Também queremos criar uma discussão saudável sobre qual modelo de gelo terrestre será adotado dentro do BESM”, disse Siqueira.

A modelagem do terceiro componente, superfície, foi apresentada por Marcos Heil Costa, da Universidade Federal de Viçosa (UFV). “A principal função de um modelo que integra processos superficiais é fornecer fluxos de energia e vapor d’água entre a vegetação e a atmosfera. Isso é o básico. Mas o aprimoramento do sistema, ocorrido ao longo dos últimos anos, permitiu que outros processos fossem incorporados”, afirmou.

Alguns desses processos são: fluxos de radiação, energia e massa; ciclos do carbono e do nitrogênio terrestres; recuperação de áreas abandonadas; incêndios na vegetação natural; culturas agrícolas; vazão e áreas inundadas sazonais; uso do solo por ações humanas (desmatamento); representação específica dos ecossistemas; fertilidade do solo; entre outros.

Química é o quarto e mais recente dos componentes. “Sem um modelo químico, os demais precisam ser constantemente ajustados”, disse Sérgio Correa, pesquisador da Universidade Estadual do Rio de Janeiro (UERJ). Correa está à frente de estudos sobre química atmosférica que permitirão refinar os dados do BESM quando esse componente for acoplado ao modelo – uma das próximas fases previstas.

Colaborações com pesquisadores de instituições estrangeiras e treinamentos são outras estratégias que estão em vigor para melhorar as representações do Brasil e da América do Sul, com alcance também global.

Mais informações sobre a 1ª Conferência Nacional de Mudanças Climáticas Globais: www.fapesp.br/conclima

Anthropology and the Anthropocene (Anthropology News)

Anthropology and Environment Society

September 2013

Amelia Moore

“The Anthropocene” is a label that is gaining popularity in the natural sciences.  It refers to the pervasive influence of human activities on planetary systems and biogeochemical processes.   Devised by Earth scientists, the term is poised to formally end the Holocene Epoch as the geological categorization for Earth’s recent past, present, and indefinite future.  The term is also poised to become the informal slogan of a revitalized environmental movement that has been plagued by popular indifference in recent years.

Climate change is the most well known manifestation of anthropogenic global change, but it is only one example of an Anthropocene event.  Other examples listed by the Earth sciences include biodiversity loss, changes in planetary nutrient cycling, deforestation, the hole in the ozone layer, fisheries decline, and the spread of invasive species.  This change is said to stem from the growth of the human population and the spread of resource intensive economies since the Industrial Revolution (though the initial boundary marker is in dispute with some scientists arguing for the Post-WWII era and others for the advent of agriculture as the critical tipping point).  Whatever the boundary, the Anthropocene signifies multiple anthropological opportunities.

What stance should we, as anthropologists, take towards the Anthropocene? I argue that there are two (and likely more), equally valid approaches to the Anthropocene: anthropology in the Anthropocene and anthropology of the Anthropocene.  Anthropology in the Anthropocene already exists in the form of climate ethnography and work that documents the lived experience of global environmental change.  Arguably, ethnographies of protected areas and transnational conservation strategies exemplify this field as well.  Anthropology in the Anthropocene is characterized by an active concern for the detrimental affects of anthropogenesis on populations and communities that have been marginalized to bear the brunt of global change impacts or who have been haphazardly caught up in global change solution strategies.  This work is engaged with environmental justice and oriented towards political action.

Anthropology of the Anthropocene is much smaller and less well known than anthropology in the Anthropocene, but it will be no less crucial.  Existing work in this vein includes those who take a critical stance towards climate science and politics as social processes with social consequences.  Beyond deconstruction, these critical scholars investigate what forms scientific and political assemblages create and how they participate in remaking the world anew.  Other existing research in this mode interrogates the idea of biodiversity and the historical and cultural context for the notion of anthropogenesis itself.  In the near future, we will see more work that can enquire into both the sociocultural and socioecological implications and manifestations of Anthropocene discourse, practice and logic.

I have only created cursory sketches of anthropology in the Anthropocene and anthropology of the Anthropocene here.  However, these modes are not at all mutually exclusive, and they should inspire many possibilities for future work.  The centrality of anthropos, the idea of the human, within the logics of the Anthropocene is an invitation for anthropology to renew its engagements with the natural sciences in research collaborations and as the object of research, especially the ecological and Earth sciences.

For starters, we should consider the implications of the Anthropocene idea for our understandings of history and collectivity.  If the natural world is finally gaining recognition within the authoritative sciences as intimately interconnected with human life such that these two worlds cease to be separate arenas of thought and action or take on different salience, then both the Humanities and the natural sciences need to devise more appropriate modes of analysis that can speak to emergent socioecologies.  This has begun in anthropology with some recent works of environmental health studies, political ecology, and multispecies ethnography, but is still in its infancy.

In terms of opportunities for legal and political engagement, the Anthropocene signifies possibilities for reconceptualizing environmentalism, conservation and development.  Anthropologists should be cognizant of new design paradigms and models for organizing socioecological collectives from the urban to the small island to the riparian.  We should also be on the lookout for new political collaborations and publics creating conversations utilizing multiple avenues for communication in the academic realm and beyond.  Emergent asymmetries in local and transnational markets and the formation of new multi-sited assemblages of governance should be of special importance.

In terms of science, the Anthropocene signals new horizons for studying and participating in global change science.  The rise of interdisciplinary socioecology, the biosciences of coupled natural and human complexity, geoengineering and the biotech interest in de-extinction are just a sampling of important transformations in research practices, research objects, and the shifting boundaries between the lab and the field.  Ongoing scientific reorientation will continue to yield new arguments about emergent forms of life that will participate in the creation of future assemblages, publics, and movements.

I would also like to caution against potentially unhelpful uses of the Anthropocene idea.  The term should not become a brand signifying a specific style of anthropological research.  It should not gloss over rigid solidifications of time, space, the human, or life.  We should not celebrate creativity in the Anthropocene while ignoring instances of stark social differentiation and capital accumulation, just as we should not focus on Anthropocene assemblages as only hegemonic in the oppressive sense.   Further, we should be cautious with our utilization of the crisis rhetoric surrounding events in the Anthropocene, recognizing that crisis for some can be turned into multiple forms of opportunity for others.  Finally, we must admit the possibility that the Anthropocene may not succeed in gaining lasting traction through formal designation or popularization, and we should not overstate its significance by assuming its universal acceptance.

In the next year, the Section News Column of the Anthropology and Environment Society will explore news, events, projects, and arguments from colleagues and students experimenting with various framings of the Anthropocene in addition to its regular content.  If you would like to contribute to this column, please contact Amelia Moore at a.moore4@miami.edu.

– See more at: http://www.anthropology-news.org/index.php/2013/09/09/anthropology-and-the-anthropocene/#sthash.vBo1RtuY.dpuf

Climate Change’s Silver Bullet? Our Interview With One Of The World’s Top Geoengineering Scholars (Climate Progress)

BY ARI PHILLIPS ON SEPTEMBER 6, 2013 AT 1:10 PM

Clive HamiltonMELBOURNE, Australia — Since coming to Australia almost two months ago I’ve heard about Clive Hamilton in the process of reporting just about every story I’ve done. Then I picked up his new book Earthmasters: The Dawn of the Age of Climate Engineeringand now I see what all the fuss is about.

In all of the debates over how to address climate change, climate engineering — or geoengineering — is among the most contentious. It involves large-scale manipulation of the Earth’s climate using grand technological interventions, such as fertilizing the oceans with iron to absorb carbon dioxide or releasing sulfur into the atmosphere to reduce radiation. While its proponents call geoengineering a silver bullet for our climate woes, its skeptics are far more critical. Joe Romm, for one, likens geoengineering to a dangerous course of chemotherapy and radiation to treat a condition curable through diet and exercise — or, in this case, emissions reduction.

According to the cover of Hamilton’s new book, “The potential risks are enormous. It is messing with nature on a scale we’ve never seen before, and it’s attracting a flood of interest from scientists, venture capitalists and oil companies.”

Hamilton is an Australian author and public intellectual. Until 2008 he was the Executive Director of The Australia Institute, a progressive think tank that he founded in 1993. Now he’s Professor of Public Ethics at the Centre for Applied Philosophy and Public Ethics, a joint center of Charles Stuart University and the University of Melbourne.

His books include Requiem for a Species: Why we resist the truth about climate changeScorcher: The dirty truth about climate change and Growth Fetishamongst others.

Hamilton’s next book will be about the anthropocene — a new geologic era in which human activities have had a significant impact on the Earth’s ecosystems. He took some time to talk with me about this new era, the future of geoengineering and what it all means for humanity. This interview has been edited for clarity and length.

How has the environmental community responded to your book on geoengineering?

Cover-image-Yale-UP3

I remember back in late 1990s around Kyoto there was a great deal of resistance amongst environmentalists and climate activists, including myself, against any talk of adaptation. It was seen to be a capitulation to a kind of defeatism that we ought not to be talking about adaptation because that means that mitigation has failed. Eventually I think we all came around to view that some climate change is going to happen and therefore adaptation has to be considered. It’s better to have seat at the table, as it were, when adaptation is being discussed.

I think we’re in the same stage now with geoengineering. Most environmentalists don’t want to know about it. Most climate activists don’t want to talk about it. There is a sense that in doing so you are conceding that it could well be possible that geoengineering will be necessary because the world community will continue to fail, perhaps even more egregiously, at responding to scientific warnings.

But I wrote the book because I became aware in writing my previous book that the genie was out of the bottle: geoengineering was going to grow in importance. Therefore, climate campaigners and environmental groups sooner or later are going to have to engage in the issue. It’s a question of whether they start now or leave it for another five years, at which point the lobby backing geoengineering will be much more powerful and will have had an opportunity to frame it more inflexibly in the media and in broader public mind.

Did you come across any big surprises while writing the book?

There were a couple of big surprises. One was the extent of the geoengineering lobby and the links between the scientists and the investors. I developed a much stronger sense of the likelihood of a powerful geoengineering constituency emerging, which would — if it were not countered by a skeptical community of thinkers and campaigners — essentially take control of whole agenda. Plotting those links and laying them out was something that I go into quite a lot of detail over. At the same time it stimulated me to think about the military-industrial complex, the famous lobby group that help such sway in the U.S. in the middle of the 20th century.

One thing I noticed while doing this research and looking at scientists involved was the density of the linkages with the Lawrence Livermore National Laboratory. So I investigated further and thought it’s really quite astonishing the extent to which many, if not most, prominent scientific researchers in geoengineering in the U.S. worked at Livermore or have close links with people there now or those who used to work there.

Then when I read Hugh Gusterson’s book on Livermore and it’s role in the cold war and nuclear weapons development, I started to think much more carefully about the type of mindset that is especially drawn to geoengineering as a technological response to global warming. I think it’s quite alarming in its implications. That lead me to further think about the geostrategic implications of climate engineering, which is something that’s received almost no attention, but we do know that people in the military and related strategic communities are starting to think about geoengineering and what it would mean for international relations and conflict.

What about the potential for financial gain?

A noble desire to save the world from climate change will attract less noble intentions. That’s just the way of the world. Never let a good crisis go to waste. Already we’re seeing it with Canadian oil sands billionaire Murray Edwards investing in geoengineering technologies.

I spend quite a bit of time talking about Bill Gates in the book. Earlier this year, I was talking about the scientific entrepreneurial lobby group that was emerging during a debate with Peter Singer (another Australian philosopher) and I mentioned Bill Gates. Singer said, “Well what’s wrong with Bill Gates? He’s well motivated. He does a lot of good charity work. If you’re going to have millionaires investing in geoengineering then Bill Gates would be one of the first.”

I made the point that yes, Bill Gates is now in philanthropic mode, and The Bill and Melinda Gates Foundation does praiseworthy work, but it’s not Bill Gates’ motives I’m worried about; it’s his worldview. That Silicon Valley, ‘we’ve-got-an-app-for-that’ kind of understanding. Joe Romm (Editor of Climate Progress) has been very critical of Gates for his dissing of renewable energy technology. Gates described solar energy as cute.

So Gates is drawn to big, new, shiny technological responses that clever people dream up. You know, brainstorming over pizza and coke. That’s where he comes from and that’s how he thinks. It’s one thing to think about computers and software that way, but it’s a completely different matter to think about the earth as a whole as in need of a snazzy new app that will solve the problem. I think that’s an extremely dangerous way to understand it for all sorts of reasons.

Perhaps the most important of which is that the climate change problem is not a technological one. It’s a social and political one. The more people focus on techno-fixes, the more they distract us from the real problems, which are the social and political difficulties of responding to climate change. We have the technology and have had it for many years. So arguing that the blockage is the absence of technology is extremely unhelpful and plays into the hands of the fossil fuel lobby.

In the book you say the slippery slope to a techno-fix promises a substitute for the slippery slope to revolution.

Revolutions take all different forms of course, from the industrial revolution to Tahrir Square to the cultural revolution of the 60s and 70s, and it’s more along the lines of the latter that I was thinking of, and into which new forms of climate activism can feed. There’s often a sort of terror in environmental groups that if they do something radical or outrageous, they’ll alienate mom and dad in the suburbs.

But social movements that have radically changed the way our world works — think of the woman’s movement — have frequently started out being rancorous and difficult and attracting the derision of the conservative press and politicians. And indeed, mystifying and often alienating people living in the suburbs or high-rises. If people have to be shocked and outraged before they come around to seeing that some fundamental transformation is necessary, then so be it. I think that there’s a level of fear and complacency and unwillingness to shift to change on the part of our societies, and some kind of circuit breaker is necessary.

You talk about the acceptance of the “solution” of geoengineering even by people who don’t seem to think climate change is a problem in the first place.

That’s one of the, on the face of it, mystifying aspects of the geoengineering debate. Why conservative think tanks like The American Enterprise Institute, The Cato Institute and even The Heartland Institute, which have for years worked hard to deny climate science and block all measures to reduce carbon emissions, have come out in favor of geoengineering.

What it shows us is that the debate over climate change and the role of the deniers is not about the science. They want to make it about the science because that gives it an air of legitimacy, but it’s really about fundamental cultural and political values. So if geoengineering is the solution then they’re happy to concede that there’s a problem because geoengineering is a big, technological, macho, system-justifying response to climate change. And that’s the kind of response that fits with their political orientation.

How does the “American Way of Life” factor into all of this?

Already we’re seeing what authorities in the U.S. need to do in order to protect people from massive hurricanes and monster wildfires and frequent floods. As the effects of climate change become even more severe we’ll see nations like the U.S. that are in a position to adapt start spending billions of dollars dong so.

And of course, the more the climate deniers persuade politicians that hurricanes and wildfires aren’t due to climate change, the less responsive authorities are likely to be and the more people will die, in effect. Eventually it will be impossible to continue to pretend that mitigation is not the first best option. It might take five years, it might take ten, let’s hope it doesn’t take twenty.

The sort of tragedy of all this is that if the world had become serious ten or so years ago that cost would have been vastly smaller than it’s going to be. But you know that’s in a perfect world where human beings are rational and take reasonable measures to protect themselves from the warnings of scientists. But we now know that the enlightenment conception of human beings as rational creatures who assess the evidence and take measures to protect themselves from harm, that has now collapsed before us. We can no longer maintain that belief.

That feeds into this idea of the anthropocene and the ethical implications of living in a world with climate change.

I am writing a book about the anthropocene because it seems to me that when human beings become so powerful that they transform the fundamental cycles and processes that govern the evolution of the earth itself that we’re entering into an era, or we’ve reached an event, that’s as significant as the industrial revolution, or even the process of civilization itself.

It causes us to rethink pretty much everything. It certainly causes us to rethink what the relationship of human beings is to the planet, but in a harder way, what is a human being. The sort of modern conception of what a human being is is an isolated ego existing inside a body. And most of us think that’s just what we are. But in fact that’s a very recent and culturally specific understanding of what a human being is. And it’s the conception of a human being that’s consistent with an advanced consumer society.

Collectively though, we are the kind of creatures, like certain types of microbes, that can completely transform the nature of the planet on which we live. If this is so, then it causes us to rethink who we are and what the place of this strange, clever creature is on planet earth.

We can no longer think of the Earth as the passive and unresponsive backdrop to the human drama where we play out our parts in a kind of Shakespearean play and not worry about the backdrop. We now find that the backdrop, the stage scenery, has entered into the play and is disrupting the whole proceedings.

Something very profound has happened. Human history, which we think of as only being a few thousand years old and is the history of human actions, has converged with geologic history, which we always thought of as operating in a very distinct domain having nothing to do with us. But now we find that our history affects the history of the earth.

If there is no more human history distinct from earth history, then what does that mean?

Vida de princesa nos relatórios de sustentabilidade (Envolverde)

02/9/2013 – 11h01

por Carla Stoicov e Wilson Bispo, da Tistu

sustentabilidadeempresas Vida de princesa nos relatórios de sustentabilidade

Empresas ainda não entendem o motivo de seus relatórios de sustentabilidade não serem objeto de leitura dos seus stakeholders. Produzido no tradicional modelo top-down de comunicação, ainda não se deram conta que esse produto deve ter seus temas escolhidos não por eles, mas pelos seus públicos, num processo de diálogo que deve se dar ao longo do ano. Mas isso pode estar prestes a mudar e você deveria ser parte disso.

No mês passado participamos de um dia onde foram apresentadas e dialogadas as novidades do G4 Sustainability Reporting Guidelines. Na formação (apesar de achar que o tema está muito cru para chamarmos de curso) estavam empresas, consultores e representantes de entidades/federações.

Os dois aspectos mais marcantes da nova versão – que passam a valer a partir de Janeiro de 2016 (1) – são a obrigatoriedade de ter uma matriz de materialidade e de demonstrar que a empresa tem conhecimento dos impactos dentro e fora dela, colocando na pauta o tema cadeia de fornecimento. Na pesquisa Materialidade Brasil, elaborada pela consultoria Report Sustentabilidade, foi constatado que 85% das empresas publicaram quais são os temas materiais, mas apenas 61% publicou sua matriz de materialidade. Um número menor ainda (45%) publicou metas atreladas aos temas materiais (ou seja, apesar de material, 55% das empresas entendeu que ainda não era o momento de atribuir metas).

Algumas lacunas ainda são imperdoáveis no G4. Nenhum avanço na proposição de metodologia para se fazer um processo de materialidade e em como equilibrar os aspectos trazidos pelos stakeholders internos x externos. A Takao Consultoria elaborou um Manual para Implementação de Engajamento com Stakeholders. O documento propõe matrizes de priorização e perfil de partes interessadas e também exemplifica uma matriz de priorização de temas em relação aos critérios internos e externos. Pode ser um ótimo modelo a ser seguido, mas quando lemos um relatório de sustentabilidade muitas vezes não está explícito como foi feita a seleção e priorização dos públicos a serem consultados, se todos participaram juntos ou não, se os temas foram dados ou abriu-se a opções para temas que emergiram no processo e como se chegou a priorização dos temas.

Outro ponto é que a materialidade deve envolver stakeholders, mas não obriga a participação de determinadas partes interessadas. Dá para ficar apenas com os funcionários ou até mesmo não incluí-los.

Aviary Photo 130224803379524387 Vida de princesa nos relatórios de sustentabilidade

Pesquisa Materialidade Brasil. Foto: Report Sustentabilidade

A nova versão, apesar de falar muito em cadeia de fornecimento, ainda está longe de propor um olhar mais sistêmico, amplo, envolvendo toda a cadeia de valor da organização (que contemple também a distribuição, clientes e consumidores). Ou seja, a empresa tem que ficar atenta de quem ela compra, onde estão estes fornecedores e onde estão localizados os impactos na cadeia de fornecimento. Contudo, ainda está livre para vender para quem quiser! Levaram o conceito de esfera de influência da Norma ISO 26000 apenas para parte da cadeia.

“Esfera de influência: amplitude/extensão de relações políticas, contratuais, econômicas ou outras relações por meio das quais uma organização tem a capacidade de afetar as decisões ou atividades de indivíduos ou organizações. – Norma ISO 26000″

Com isso, ficam de fora as preocupações da empresa com a comercialização de seus produtos ou serviços para, por exemplo, países que têm graves violações dos direitos humanos ou que estejam em guerra civil; organizações envolvidas em corrupção ou lavagem de dinheiro; empresas que desmatam, têm trabalho infantil ou análogo ao escravo em sua operação ou na sua cadeia, etc.

As organizações presentes na formação da qual participamos também questionaram se a GRI tem alguma sinalização sobre como tornar os relatórios mais atrativos, mais lidos. Bem, não entendemos que isso seja uma missão da GRI, mas sim, em primeira instância, das próprias empresas. O relatório será interessante pela qualidade e relevância das informações ali colocadas. Isso nos remete aos motivos de alguém “curtir” no Facebook a página oficial de uma empresa quando há interesse genuíno, e não quando é feito para participar de uma oferta comercial. Nós seguimos várias organizações e o que elas nos oferecem é informação de qualidade, independentemente do seu produto ou serviço.

O blog Testando os Limites da Sustentabilidade (um tipo de watchdog) lê e analisa relatórios de sustentabilidade das empresas e depois disso encaminha perguntas sobre informações incompletas ou imprecisas, apontando lacunas de temas que deveriam ser abordados conforme o negócio da empresa. Muitas respondem ao blog e deveriam ver os questionamentos feitos com bons olhos: afinal alguém está lendo seu relatório!

Contudo, há uma grande lacuna deixada por stakeholders imprescindíveis para a melhoria da qualidade das informações e da transparência do setor privado no Brasil, como organizações da sociedade civil, imprensa, academia, consultorias, organizações think tank, coletivos e formadores de opinião em geral. Céticos quanto ao conteúdo publicado nos relatos — em alguma medida, com razão –, esses públicos deixam de prestar um enorme serviço à sociedade ao não fazer leituras e análises críticas às informações dos relatórios de sustentabilidade, um dos poucos, se não os únicos, instrumentos de consulta de como as corporações contam estar conduzindo os negócios das empresas por aqui.

Acreditamos que existe um grande espaço para exercitar diferentes formas de se fazer a leitura desse tipo de documento. Esses stakeholders têm condições técnicas e informações complementares para “mastigar” o conteúdo dos relatórios e fazer cruzamentos com a real atuação da empresa, com o que a GRI determina, com práticas de outras empresas do mesmo setor, com políticas públicas, com Pactos e Compromissos voluntários, comparar com informações e práticas da matriz na busca por um duplo padrão (2), dentre outras dezenas de olhares possíveis.

Analisar as informações públicas do setor privado — ou evidenciar a falta delas — ajuda na geração de conhecimento crítico que pode ser um impulsionador de novas práticas por parte das empresas. É o caso do estudo Sustentabilidade do Setor Automotivo, produzido pela Tistu para o UniEthos, que vem sendo utilizado por uma montadora na sua estratégia de sustentabilidade.

Por isso, o que realmente importa nos relatórios são os dados relevantes para quem lê, não para quem escreve. Entretanto, as informações ainda vêm embaladas num pacote desnecessário de frases de efeito que dizem pouco, ou quase nada, e não agregam no momento da análise, repetindo histórias ano após ano sem demonstrar ou deixar clara qual foi a real evolução frente ao ano anterior. Daí a importância da análise crítica de formadores de opinião. Enquanto as empresas não avançam neste aspecto, iniciativas que capturem os dados e “limpem” as informações dos excessos, serão úteis para aumentar o conhecimento sobre os aspectos de sustentabilidade que as empresas estão colocando na sua cesta de prioridades.

Em tempo de manifestações onde cartazes levantam bandeiras como saúde (a ser melhorada), corrupção (a ser combatida), transporte (como forma de inclusão) e acesso à cidade (como forma de promoção da igualdade), quem não gostaria de saber quais empresas estão antenadas com essas necessidades e trabalham em convergência com as políticas públicas? Não passa pela nossa cabeça abrir o relatório da Siemens no ano que vem e não ver a questão da corrupção e cartel. Ou ler o relatório da Samsung e não encontrar nada sobre as condições degradantes dos trabalhadores. Mas não estamos falando daqueles textos sobre o quanto valorizam os processos, como os sistemas funcionam etc. Queremos saber justamente o contrário. Quais foram as lições aprendidas, onde estava o furo, quais desafios que entendem que estão longe de superar? As empresas são feitas de pessoas e portanto são cheias de falhas, inconsistências, dilemas. E é isso que falta aparecer nos seus relatos de vida de princesa.

Talvez esta deva ser a tendência dos relatos das empresas. Criar visões por assuntos de interesse pela ótica de quem busca a informação, com construções e atualizações dinâmicas (entenda aqui que elas não serão feitas de forma unilateral, apenas pelas empresas), com muito menos filtros e fotos de banco de imagens.

Mais Narrativas Independentes, Jornalismo e Ação (NINJA) para os relatórios de sustentabilidade têm o potencial de torná-los muito mais interessantes e vivos. Se as empresas não fizerem, alguém vai fazer.

(1) Ou seja, o último ano de relato na versão G3 ou G3.1 será 2014 sendo que 2015 já será relatado na nova versão.

(2) Esta é uma metodologia que a Tistu vem adotando em alguns estudos. Isolar alguns assuntos e procurar por práticas e posicionamento na matriz e na operação do Brasil. Quando há divergência (i.e. a matriz tem políticas, programas ou é estratégico e aqui nem é citado) ocorre o que denominamos de Duplo Padrão.

Carla Stoicov é mestranda em Gestão e Políticas Públicas pela FGV-SP. Sócia da Tistu, atua como consultora em projetos para o Desenvolvimento Sustentável e de Responsabilidade Social Empresarial. Foi coordenadora do Programa Tear do Instituto Ethos e é especialista do UniEthos.

Wilson Bispo é jornalista e desde de 2005 trabalha na cobertura de temas socioambientais e de RSE. Sócio da Tistu, foi produtor do Repórter Eco da TV Cultura de SP, editor do portal e agência Envolverde e consultor na Report Sustentabilidade.

** Publicado originalmente no site Tistu.

The Myth of ‘Environmental Catastrophism’ (Monthly Review)

Between October 2010 and April 2012, over 250,000 people, including 133,000 children under five, died of hunger caused by drought in Somalia. Millions more survived only because they received food aid. Scientists at the UK Met Centre have shown that human-induced climate change made this catastrophe much worse than it would otherwise have been.1

This is only the beginning: the United Nations’ 2013 Human Development Report says that without coordinated global action to avert environmental disasters, especially global warming, the number of people living in extreme poverty could increase by up to 3 billion by 2050.2 Untold numbers of children will die, killed by climate change.

If a runaway train is bearing down on children, simple human solidarity dictates that anyone who sees it should shout a warning, that anyone who can should try to stop it. It is difficult to imagine how anyone could disagree with that elementary moral imperative.

And yet some do. Increasingly, activists who warn that the world faces unprecedented environmental danger are accused of catastrophism—of raising alarms that do more harm than good. That accusation, a standard feature of right-wing attacks on the environmental movement, has recently been advanced by some left-wing critics as well. While they are undoubtedly sincere, their critique of so-called environmental catastrophism does not stand up to scrutiny.

From the Right…

The word “catastrophism” originated in nineteenth-century geology, in the debate between those who believed all geological change had been gradual and those who believed there had been episodes of rapid change. Today, the word is most often used by right-wing climate change deniers for whom it is a synonym for “alarmism.”

  • The Heartland Institute: “Climate Catastrophism Picking Up Again in the U.S. and Across the World.”3
  • A right-wing German blog: “The Climate Catastrophism Cult.”4
  • The Australian journal Quadrant: “The Chilling Costs of Climate Catastrophism.”5

Examples could be multiplied. As environmental historian Franz Mauelshagen writes, “In climate denialist circles, the word ‘climate catastrophe’ has become synonymous with ‘climate lie,’ taking the anthropogenic green house effect for a scam.”6

Those who hold such views like to call themselves “climate change skeptics,” but a more accurate term is “climate science deniers.” While there are uncertainties about the speed of change and its exact effects, there is no question that global warming is driven by greenhouse-gas emissions caused by human activity, and that if business as usual continues, temperatures will reach levels higher than any seen since before human beings evolved. Those who disagree are not skeptical, they are denying the best scientific evidence and analysis available.

The right labels the scientific consensus “catastrophism” to belittle environmentalism, and to stifle consideration of measures to delay or prevent the crisis. The real problem, they imply, is not the onrushing train, but the people who are yelling “get off the track!” Leaving the track would disrupt business as usual, and that is to be avoided at all costs.

…And From the Left

Until very recently, “catastrophism” as a political expression was pretty much the exclusive property of conservatives. When it did occur in left-wing writing, it referred to economic debates, not ecology. But in 2007 two quite different left-wing voices almost simultaneously adopted “catastrophism” as a pejorative term for radical ideas about climate change they disagreed with.

The most prominent was the late Alexander Cockburn, who in 2007 was writing regularly forThe Nation and coediting the newsletter CounterPunch. To the shock of many of his admirers, he declared that “There is still zero empirical evidence that anthropogenic production of CO2 is making any measurable contribution to the world’s present warming trend,” and that “the human carbon footprint is of zero consequence.”7 Concern about climate change was, he wrote, the result of a conspiracy “between the Greenhouser fearmongers and the nuclear industry, now largely owned by oil companies.”8

Like critics on the right, Cockburn charged that the left was using climate change to sneak through reforms it could not otherwise win: “The left has bought into environmental catastrophism because it thinks that if it can persuade the world that there is indeed a catastrophe, then somehow the emergency response will lead to positive developments in terms of social and environmental justice.”9

While Cockburn’s assault on “environmental catastrophism” was shocking, his arguments did not add anything new to the climate debate. They were the same criticisms we had long heard from right-wing deniers, albeit with leftish vocabulary.

That was not the case with Leo Panitch and Colin Leys. These distinguished Marxist scholars are by no means deniers. They began their preface to the 2007 Socialist Register by noting that “environmental problems might be so severe as to potentially threaten the continuation of anything that might be considered tolerable human life,” and insisting that “the speed of development of globalized capitalism, epitomized by the dramatic acceleration of climate change, makes it imperative for socialists to deal seriously with these issues now.”

But then they wrote: “Nonetheless, it is important to try to avoid an anxiety-driven ecological catastrophism, parallel to the kind of crisis-driven economic catastrophism that announces the inevitable demise of capitalism.”10 They went on to argue that capitalism’s “dynamism and innovativeness” might enable it to use “green commerce” to escape environmental traps.

The problem with the Panitch–Leys formulation is that the threat of ecological catastrophe isnot “parallel” to the view that capitalism will destroy itself. The desire to avoid the kind of mechanical determinism that has often characterized Marxist politics, where every crisis was proclaimed to be the final battle, led these thoughtful writers to confuse two very different kinds of catastrophe.

The idea that capitalism will inevitably face an insurmountable economic crisis and collapse is based on a misunderstanding of Marxist economic theory. While economic crises are endemic to capitalism, the system can always continue—only class struggle, only a social revolution, can overthrow capitalism and end the crisis cycle.

Large-scale environmental damage is caused by our destructive economic system, but its effectis the potentially irreversible disruption of essential natural systems. The most dramatic example is global warming: recent research shows that the earth is now warmer than at any time in the past 6,000 years, and temperatures are rising much faster than at any time since the last Ice Age. Arctic ice and the Greenland ice sheet are disappearing faster than predicted, raising the specter of flooding in coastal areas where more than a billion people live. Extreme weather events, such as giant storms, heat waves, and droughts are becoming ever more frequent. So many species are going extinct that many scientists call it a mass extinction event, comparable to the time 66 million years ago when 75 percent of all species, including the dinosaurs, were wiped out.

As the editors of Monthly Review wrote in reply to Socialist Register, if these trends continue, “we will be faced with a different world—one in which life on the planet will be massively degraded on a scale not seen for tens of millions of years.”11 To call this “anxiety-driven ecological catastrophism, parallel to…economic catastrophism” is to equate an abstract error in economic theory with some of the strongest conclusions of modern science.

A New ‘Catastrophism’ Critique

Now a new essay, provocatively titled “The Politics of Failure Have Failed,” offers a different and more sweeping left-wing critique of “environmental catastrophism.” Author Eddie Yuen is associated with the Pacifica radio program Against the Grain, and is on the editorial board of the journal Capitalism Nature Socialism.

His paper is part of a broader effort to define and critique a body of political thought calledCatastrophism, in a book by that title.12 In the book’s introduction, Sasha Lilley offers this definition:

Catastrophism presumes that society is headed for a collapse, whether economic, ecological, social, or spiritual. This collapse is frequently, but not always, regarded as a great cleansing, out of which a new society will be born. Catastrophists tend to believe that an ever-intensified rhetoric of disaster will awaken the masses from their long slumber—if the mechanical failure of the system does not make such struggles superfluous. On the left, catastrophism veers between the expectation that the worse things become, the better they will be for radical fortunes, and the prediction that capitalism will collapse under its own weight. For parts of the right, worsening conditions are welcomed, with the hope they will trigger divine intervention or allow the settling of scores for any modicum of social advance over the last century.

A political category that includes both the right and the left—and that encompasses people whose concerns might be economic, ecological, social, or spiritual—is, to say the least, unreasonably broad. It is difficult to see any analytical value in a definition that lumps together anarchists, fascists, Christian fundamentalists, right-wing conspiracy nuts, pre–1914 socialists, peak-oil theorists, obscure Trotskyist groups, and even Mao Zedong.

The definition of catastrophism becomes even more problematic in Yuen’s essay.

One Of These Things Is Not Like The Others…

Years ago, the children’s television program Sesame Street would display four items—three circles and a square, three horses and a chair, and so on—while someone sang, “One of these things is not like the others, One of these things doesn’t belong.

I thought of that when I read Yuen’s essay.

While the book’s scope is broad, most of it focuses, as Yuen writes, on “instrumental, spurious, and sometimes maniacal versions of catastrophism—including rightwing racial paranoia, religious millenarianism, liberal panics over fascism, leftist fetishization of capitalist collapse, capitalist invocation of the ‘shock doctrine’ and pop culture cliché.”

But as Yuen admits in his first paragraph, environmentalism is a very different matter, because we are in “what is unquestionably a genuine catastrophic moment in human and planetary history…. Of all of the forms of catastrophic discourse on offer, the collapse of ecological systems is unique in that it is definitively verified by a consensus within the scientific community…. It is absolutely urgent to address this by effectively and rapidly changing the direction of human society.”

If the science is clear, if widespread ecological collapse unquestionably faces us unless action is taken, why is this topic included in a book devoted to criticizing false ideas? Does it make sense to use the same term for people who believe in an imaginary train crash and for people who are trying to stop a real crash from happening?

The answer, although he does not say so, is that Yuen is using a different definition than the one Lilley gave in her introduction. Her version used the word for the belief that some form of catastrophe will have positive results—that capitalism will collapse from internal contradictions, that God will punish all sinners, that peak oil or industrial collapse will save the planet. Yuen uses the same word for the idea that environmentalists should alert people to the threat of catastrophic environmental change and try to mobilize them to prevent or minimize it.

Thus, when he refers to “a shrill note of catastrophism” in the work of James Hansen, perhaps the world’s leading climate scientist, he is not challenging the accuracy of Hansen’s analysis, but only the “narrative strategy” of clearly stating the probable results of continuing business as usual.

Yuen insists that “the veracity of apocalyptic claims about ecological collapse are separate from their effects on social, political, and economic life.” Although “the best evidence points to cascading environmental disaster,” in his view it is self-defeating to tell people that. He makes two arguments, which we can label “practical” and “principled.”

His practical argument is that by talking about “apocalyptic scenarios” environmentalists have made people more apathetic, less likely to fight for progressive change. His principledargument is that exposing and campaigning to stop tendencies towards environmental collapse has “damaging and rightward-leaning effects”—it undermines the left, promotes reactionary policies and strengthens the ruling class.

In my opinion, he is wrong on both counts.

The Truth Shall Make You Apathetic?

In Yuen’s view, the most important question facing people who are concerned about environmental destruction is: “what narrative strategies are most likely to generate effective and radical social movements?”

He is vague about what “narrative strategies” might work, but he is very firm about what does not. He argues that environmentalists have focused on explaining the environmental crisis and warning of its consequences in the belief that this will lead people to rise up and demand change, but this is a fallacy. In reality, “once convinced of apocalyptic scenarios, many Americans become more apathetic.”

Given such a sweeping assertion, it is surprising to find that the only evidence Yuen offers is a news release describing one academic paper, based on a U.S. telephone survey conducted in 2008, that purported to show that “more informed respondents both feel less personally responsible for global warming, and also show less concern for global warming.”13

Note first that being “more informed” is not the same as being “convinced of apocalyptic scenarios” or being bombarded with “increasingly urgent appeals about fixed ecological tipping points.” On the face of it, this study does not appear to contribute to our understanding of the effects of “catastrophism.”

What’s more, reading the original paper reveals that the people described as “more informed” were self-reporting. If they said they were informed, that was accepted, and no one asked if they were listening to climate scientists or to conservative talk radio. That makes the paper’s conclusion meaningless.

Later in his essay, Yuen correctly criticizes some environmentalists and scientists who “speak of ‘everyone’ as a unified subject.” But here he accepts as credible a study that purports to show how all Americans respond to information about climate change, regardless of class, gender, race, or political leanings.

The problem with such undifferentiated claims is shown in a 2011 study that examined the impact of Americans’ political opinions on their feelings about climate change. It found that liberals and Democrats who report being well-informed are more worried about climate change, while conservatives and Republicans who report being well-informed are less worried.14 Obviously the two groups mean very different things by “well-informed.”

Even if we ignore that, the study Yuen cites is a one-time snapshot—it does not tells us what radicals really need to know, which is how things are changing. For that, a more useful survey is one that scientists at Yale University and George Mason University have conducted seven times since 2008 to show shifts in U.S. public opinion.15 Based on answers to questions about their opinions, respondents are categorized according to their attitude towards global warming. The surveys show:

  • The number of people identified as “Disengaged” or “Cautious”—those we might call apathetic or uncertain—has varied very little, accounting for between 31 percent and 35 percent of the respondents every time.
  • The categories “Dismissive” or “Doubtful”—those who lean towards denial—increased between 2008 and 2010. Since then, those groups have shrunk back almost to the 2008 level.
  • In parallel, the combined “Concerned” and “Alarmed” groups shrank between 2008 and 2010, but have since largely recovered. In September 2012—before Hurricane Sandy!—there were more than twice as many Americans in these two categories as in Dismissive/Doubtful.

Another study, published in the journal Climatic Change, used seventy-four independent surveys conducted between 2002 and 2011 to create a Climate Change Threat Index (CCTI)—a measure of public concern about climate change—and showed how it changed in response to public events. It found that public concern about climate change reached an all-time high in 2006–2007, when the Al Gore documentary An Inconvenient Truth was seen in theaters by millions of people and won an Academy Award.

The authors conclude: “Our results…show that advocacy efforts produce substantial changes in public perceptions related to climate change. Specifically, the film An Inconvenient Truth and the publicity surrounding its release produced a significant positive jump in the CCTI.”16

This directly contradicts Yuen’s view that more information about climate change causes Americans to become more apathetic. There is no evidence of a long-term increase in apathy or decrease in concern—and when scientific information about climate change reached millions of people, the result was not apathy but a substantial increase in support for action to reduce greenhouse gas emissions.

‘The Two Greatest Myths’

Yuen says environmentalists have deluged Americans with catastrophic warnings, and this strategy has produced apathy, not action. Writing of establishment politicians who make exactly the same claim, noted climate change analyst Joseph Romm says, “The two greatest myths about global warming communications are 1) constant repetition of doomsday messages has been a major, ongoing strategy and 2) that strategy doesn’t work and indeed is actually counterproductive!” Contrary to liberal mythology, the North American public has not been exposed to anything even resembling the first claim. Romm writes,

The broad American public is exposed to virtually no doomsday messages, let alone constant ones, on climate change in popular culture (TV and the movies and even online)…. The major energy companies bombard the airwaves with millions and millions of dollars of repetitious pro-fossil-fuel ads. The environmentalists spend far, far less money…. Environmentalists when they do appear in popular culture, especially TV, are routinely mocked…. It is total BS that somehow the American public has been scared and overwhelmed by repeated doomsday messaging into some sort of climate fatigue.17

The website Daily Climate, which tracks U.S. news stories about climate change, says coverage peaked in 2009, during the Copenhagen talks—but then it “fell off the map,” dropping 30 percent in 2010 and another 20 percent in 2011. In 2012, despite widespread droughts and Hurricane Sandy, news coverage fell another 2 percent. The decline in editorial interest was even more dramatic—in 2012 newspapers published fewer than half as many editorials about climate change as they did in 2009.18

It should be noted that these shifts occurred in the framework of very limited news coverage of climate issues. As a leading media analyst notes, “relative to other issues like health, medicine, business, crime and government, media attention to climate change remains a mere blip.”19 Similarly, a British study describes coverage of climate change in newspapers there as “lamentably thin”—a problem exacerbated by the fact that much of the coverage consists of “worryingly persistent climate denial stories.” The author concludes drily: “The limited coverage is unlikely to have convinced readers that climate change is a serious problem warranting immediate, decisive and potentially costly action.”20

Given Yuen’s concern that Americans do not recognize the seriousness of environmental crises, it is surprising how little he says about the massive fossil-fuel-funded disinformation campaigns that have confused and distorted media reporting. I can find just four sentences on the subject in his 9,000-word text, and not one that suggests denialist campaigns might have helped undermine efforts to build a climate change movement.

On the contrary, he downplays the influence of “the well-funded climate denial lobby,” by claiming that “far more corporate and elite energy has gone toward generating anxiety about global warming,” and that “mainstream climate science is much better funded.” He provides no evidence for either statement.

Of course, the fossil-fuel lobby is not the only force working to undermine public concern about climate change. It is also important to recognize the impact of Obama’s predictable unwillingness to confront the dominant forces in U.S. capitalism, and of the craven failure of mainstream environmentalist groups and NGOs to expose and challenge the Democrats’ anti-environmental policies.

With fossil-fuel denialists on one side, and Obama’s pale-green cheerleaders on the other, activists who want to get out the truth have barely been heard. In that context, it makes little sense to blame environmentalists for sabotaging environmentalism.

The Truth Will Help the Right?

Halfway through his essay, Yuen abruptly changes direction, leaving the practical argument behind and raising his principled concern. He now argues that what he calls catastrophism leads people to support reactionary policies and promotes “the most authoritarian solutions at the state level.” Focusing attention on what he agrees is a “cascading environmental disaster” is dangerous because it “disables the left but benefits the right and capital.” He says, “Increased awareness of environmental crisis will not likely translate into a more ecological lifestyle, let alone an activist orientation against the root causes of environmental degradation. In fact, right-wing and nationalist environmental politics have much more to gain from an embrace of catastrophism.”

Yuen says that many environmentalists, including scientists, “reflexively overlook class divisions,” and so do not realize that “some business and political elites feel that they can avoid the worst consequences of the environmental crisis, and may even be able to benefit from it.” Yuen apparently thinks those elites are right—while the insurance industry is understandably worried about big claims, he says, “the opportunities for other sectors of capitalism are colossal in scope.”

He devotes much of the rest of his essay to describing the efforts of pro-capitalist forces, conservative and liberal, to use concern about potential environmental disasters to promote their own interests, ranging from emissions trading schemes to military expansion to Malthusian attacks on the world’s poorest people. “The solution offered by global elites to the catastrophe is a further program of austerity, belt-tightening, and sacrifice, the brunt of which will be borne by the world’s poor.”

Some of this is overstated. His claim that “Malthusianism is at the core of most environmental discourse,” reflects either a very limited view of environmentalism or an excessively broad definition of Malthusianism. And he seems to endorse David Noble’s bizarre theory that public concern about global warming has been engineered by a corporate conspiracy to promote carbon trading schemes.21 Nevertheless he is correct that the ruling class will do its best to profit from concern about climate change, while simultaneously offloading the costs onto the world’s poorest people.

The question is, who is he arguing with? This book says it aims to “spur debate among radicals,” but none of this is new or controversial for radicals. The insight that the interests of the ruling class are usually opposed to the interests of the rest of us has been central to left-wing thought since before Marx was born. Capitalists always try to turn crises to their advantage no matter who gets hurt, and they always try to offload the costs of their crises onto the poor and oppressed.

What needs to be proved is not that pro-capitalist forces are trying to steer the environmental movement into profitable channels, and not that many sincere environmentalists have backward ideas about the social and economic causes of ecological crises. Radicals who are active in green movements know those things perfectly well. What needs to be proved is Yuen’s view that warning about environmental disasters and campaigning to prevent them has “damaging and rightward-leaning effects” that are so severe that radicals cannot overcome them.

But no proof is offered.

What is particularly disturbing about his argument is that he devotes pages to describing the efforts of reactionaries to misdirect concern about climate change—and none to the efforts of radical environmentalists to counter those forces. Earlier in his essay, he mentioned that “environmental and climate justice perspectives are steadily gaining traction in internal environmental debates,” but those thirteen words are all he has to say on the subject.

He says nothing about the historic 2010 Cochabamba Conference, where 30,000 environmental activists from 140 countries warned that if greenhouse gas emissions are not stopped, “the damages caused to our Mother Earth will be completely irreversible”—a statement Yuen would doubtless label “catastrophist.” Far from succumbing to apathy or reactionary policies, the participants explicitly rejected market solutions, identified capitalism as the cause of the crisis, and outlined a radical program to transform the global economy.

He is equally silent about the campaign against the fraudulent “green economy” plan adopted at last year’s Rio+20 conference. One of the principal organizers of that opposition is La Via Campesina, the world’s largest organization of peasants and farmers, which warns that the world’s governments are “propagating the same capitalist model that caused climate chaos and other deep social and environmental crises.”

His essay contains not a word about Idle No More, or Occupy, or the Indigenous-led fight against Canada’s tar sands, or the anti-fracking and anti-coal movements. By omitting them, Yuen leaves the false impression that the climate movement is helpless to resist reactionary forces.

Contrary to Yuen’s title, the effort to build a movement to save the planet has not failed. Indeed, Catastrophism was published just four months before the largest U.S. climate change demonstration ever!

The question before radicals is not what “narrative strategy” to adopt, but rather, how will we relate to the growing environmental movement? How will we support its goals while strengthening the forces that see the need for more radical solutions?

What Must Be Done?

Yuen opposes attempts to build a movement around rallies, marches, and other mass protests to get out the truth and to demand action against environmental destruction. He says that strategy worked in the 1960s, when Americans were well-off and naïve, but cannot be replicated in today’s “culture of atomized cynicism.”

Like many who know that decade only from history books or as distant memories, Yuen foreshortens the experience: he knows about the mass protests and dissent late in the decade, but ignores the many years of educational work and slow movement building in a deeply reactionary and racist time. It is not predetermined that the campaign against climate change will take as long as those struggles, or take similar forms, but the real experience of the 1960s should at least be a warning against premature declarations of failure.

Yuen is much less explicit about what he thinks would be an effective strategy, but he cites as positive examples the efforts of some to promote “a bottom-up and egalitarian transition” by:

ever-increasing numbers of people who are voluntarily engaging in intentional communities, sustainability projects, permaculture and urban farming, communing and mil­itant resistance to consumerism…we must consider the alterna­tive posed by the highly imaginative Italian left of the twentieth century. The explosively popular Slow Food movement was origi­nally built on the premise that a good life can be had not through compulsive excess but through greater conviviality and a shared commonwealth.

Compare that to this list of essential tasks, prepared recently by Pablo Solón, a leading figure in the global climate justice movement:

To reduce greenhouse gas emissions to a level that avoids catastrophe, we need to:

* Leave more than two-thirds of the fossil fuel reserves under the soil;

* Stop the exploitation of tar sands, shale gas and coal;

* Support small, local, peasant and indigenous community farming while we dismantle big agribusiness that deforests and heats the planet;

* Promote local production and consumption of products, reducing the free trade of goods that send millions of tons of CO2 while they travel around the world;

* Stop extractive industries from further destroying nature and contaminating our atmosphere and our land;

* Increase significantly public transport to reduce the unsustainable “car way of life”;

* Reduce the emissions of warfare by promoting genuine peace and dismantling the military and war industry and infrastructure.22

The projects that Yuen describes are worthwhile, but unless the participants are alsocommitted to building mass environmental campaigns, they will not be helping to achieve the vital objectives that Solón identifies. Posing local communes and slow food as alternatives to building a movement against global climate change is effectively a proposal to abandon the fight against capitalist ecocide in favor of creating greenish enclaves, while the world burns.

Bright-siding versus Movement Building

Whatever its merits in other contexts, it is not helpful or appropriate to use the wordcatastrophism as a synonym for telling the truth about the environmental dangers we face. Using the same language as right-wing climate science deniers gives the impression that the dangers are non-existent or exaggerated. Putting accurate environmental warnings in the same category as apocalyptic Christian fundamentalism and century-old misreadings of Marxist economic theory leads to underestimation of the threats we face and directs efforts away from mobilizing an effective counterforce.

Yuen’s argument against publicizing the scientific consensus on climate change echoes the myth that liberal politicians and journalists use to justify their failure to challenge the crimes of the fossil-fuel industry. People are tired of all that doom and gloom, they say. It is time for positivemessages! Or, to use Yuen’s vocabulary, environmentalists need to end “apocalyptic rhetoric” and find better “narrative strategies.”

This is fundamentally an elitist position: the people cannot handle the truth, so a knowledgeable minority must sugarcoat it, to make the necessary changes palatable.

David Spratt of the Australian organization Climate Code Red calls that approach “bright-siding,” a reference to the bitterly satirical Monty Python song, “Always Look on the Bright Side of Life.”

The problem is, Spratt writes: “If you avoid including an honest assessment of climate science and impacts in your narrative, it’s pretty difficult to give people a grasp about where the climate system is heading and what needs to be done to create the conditions for living in climate safety, rather than increasing and eventually catastrophic harm.”23 Joe Romm makes the same point: “You’d think it would be pretty obvious that the public is not going to be concerned about an issue unless one explains why they should be concerned.”24

Of course, this does not mean that we only need to explain the science. We need to propose concrete goals, as Pablo Solón has done. We need to show how the scientific consensus about climate change relates to local and national concerns such as pipelines, tar sands, fracking, and extreme weather. We need to work with everyone who is willing to confront any aspect of the crisis, from people who still have illusions about capitalism to convinced revolutionaries. Activists in the wealthy countries must be unstinting in their political and practical solidarity with the primary victims of climate change, indigenous peoples, and impoverished masses everywhere.

We need to do all of that and more.

But the first step is to tell the truth—about the danger we face, about its causes, and about the measures that must be taken to turn back the threat. In a time of universal deceit, telling the truth is a revolutionary act.

Notes

  1.  Fraser C. Lott, Nikolaos Christidis, and Peter A. Stott, “Can the 2011 East African Drought Be Attributed to Human-Induced Climate Change?,” Geophysical Research Letters 40, no. 6 ( March 2013): 1177–81.
  2.  UNDP, “’Rise of South’ Transforming Global Power Balance, Says 2013 Human Development Report,” March 14, 2013, http://undp.org.
  3.  Tom Harris, “Climate Catastrophism Picking Up Again in the U.S. and Across the World,”Somewhat Reasonable, October 10, 2012 http://blog.heartland.org.
  4.  Pierre Gosselin, “The Climate Catastrophism Cult,” NoTricksZone, February 12, 2011, http://notrickszone.com.
  5.  Ray Evans, “The Chilling Costs of Climate Catastrophism,” Quadrant Online, June 2008. http://quadrant.org.au.
  6.  Franz Mauelshagen, “Climate Catastrophism: The History of the Future of Climate Change,” in Andrea Janku, Gerrit Schenk, and Franz Mauelshagen, Historical Disasters in Context: Science, Religion, and Politics (New York: Routledge, 2012), 276.
  7.  Alexander Cockburn, “Is Global Warming a Sin?,” CounterPunch, April 28–30, 2007, http://counterpunch.org.
  8.  Alexander Cockburn, “Who are the Merchants of Fear?,” CounterPunch, May 12–14, 2007, http:// counterpunch.org.
  9.  Alexander Cockburn, “I Am An Intellectual Blasphemer,” Spiked Review of Books, January 9, 2008, http://spiked-online.com.
  10.  Leo Panitch and Colin Leys, “Preface,” Socialist Register 2007: Coming to Terms With Nature(London: Merlin Press/Monthly Review Press, 2006), ix–x.
  11. 11.“Notes from the Editors,” Monthly Review 58, no. 10 (March 2007), http://monthlyreview.org.
  12.  Sasha Lilley, David McNally, Eddie Yuen, and James Davis, Catastrophism: The Apocalyptic Politics of Collapse and Rebirth (Oakland: PM Press, 2012).
  13.  Yuen’s footnote cites an article which is identical to a news release issued the previous day by Texas A&M University; see “Increased Knowledge About Global Warming Leads to Apathy, Study Shows,” Science Daily, March 28, 2008, http://eurekalert.org. The original paper, which Yuen does not cite, is: P.M. Kellstedt, S. Zahran, and A. Vedlitz, “Personal Efficacy, the Information Environment, and Attitudes Towards Global Warming and Climate Change in the United State,”Risk Analysis 28, no. 1 (2008): 113–26.
  14.  Aaron M. McCright and Riley E. Dunlap, “The Politicization of Climate Change and Polarization in the American Public’s Views of Global Warming, 2001–2010,” The Sociological Quarterly 52 (2011): 155–94.
  15.  A. Leiserowitz, et. al., Global Warming’s Six Americas, September 2012 (New Haven, CT: Yale Project on Climate Change Communication, 2013), http://environment.yale.edu.
  16.  Robert J. Brulle, Jason Carmichael, and J. Craig Jenkins, “Shifting Public Opinion on Climate Change: An Empirical Assessment of Factors Influencing Concern Over Climate Change in the U.S., 2002–2010,” Climatic Change 114, no. 2 (September 2012): 169–88.
  17.  Joe Romm, “Apocalypse Not: The Oscars, The Media and the Myth of ‘Constant Repetition of Doomsday Messages’ on Climate,” Climate Progress, February 24, 2013, http://thinkprogress.org.
  18.  Douglas Fischer. “2010 in Review: The Year Climate Coverage ‘Fell off the Map,’” Daily Climate, January 3, 2011. http://dailyclimate.org; “Climate Coverage Down Again in 2011,” Daily Climate, January 3, 2012, http://dailyclimate.org; “Climate Coverage, Dominated by Weird Weather, Falls Further in 2012,” Daily Climate, January 2, 2013, http://dailyclimate.org.
  19.  Maxwell T. Boykoff, Who Speaks for the Climate?: Making Sense of Media Reporting on Climate Change (Cambridge: Cambridge University Press, 2011), 24.
  20.  Neil T. Gavin, “Addressing Climate Change: A Media Perspective,” Environmental Politics 18, no. 5 (September 2009): 765–80.
  21.  Two responses to David Noble are: Derrick O’Keefe, “Denying Time and Place in the Global Warming Debate,” Climate & Capitalism, June 7, 2007, http://climateandcapitalism.com; Justin Podur, “Global Warming Suspicions and Confusions,” ZNet, May 11, 2007, http://zcommunications.org.
  22.  Pablo Solón, “A Contribution to the Climate Space 2013: How to Overcome the Climate Crisis?,”Climate Space, March 14, 2013, http://climatespace2013.wordpress.com.
  23.  David Spratt, Always Look on the Bright Side of Life: Bright-siding Climate Advocacy and Its Consequences, April 2012, http://climatecodered.org.
  24.  Joe Romm, “Apocalypse Not.”

Ian Angus is editor of the online journal Climate & Capitalism. He is co-author of Too Many People? Population, Immigration, and the Environmental Crisis(Haymarket, 2011), and editor of The Global Fight for Climate Justice(Fernwood, 2010).
He would like to thank Simon Butler, Martin Empson, John Bellamy Foster, John Riddell, Javier Sethness, and Chris Williams for comments and suggestions.

Rising Seas (Nat Geo)

Picture of Seaside Heights, New Jersey, after Hurricane Sandy

As the planet warms, the sea rises. Coastlines flood. What will we protect? What will we abandon? How will we face the danger of rising seas?

By Tim Folger

Photographs by George Steinmetz

September 2013

By the time Hurricane Sandy veered toward the Northeast coast of the United States last October 29, it had mauled several countries in the Caribbean and left dozens dead. Faced with the largest storm ever spawned over the Atlantic, New York and other cities ordered mandatory evacuations of low-lying areas. Not everyone complied. Those who chose to ride out Sandy got a preview of the future, in which a warmer world will lead to inexorably rising seas.

Brandon d’Leo, a 43-year-old sculptor and surfer, lives on the Rockaway Peninsula, a narrow, densely populated, 11-mile-long sandy strip that juts from the western end of Long Island. Like many of his neighbors, d’Leo had remained at home through Hurricane Irene the year before. “When they told us the tidal surge from this storm would be worse, I wasn’t afraid,” he says. That would soon change.

D’Leo rents a second-floor apartment in a three-story house across the street from the beach on the peninsula’s southern shore. At about 3:30 in the afternoon he went outside. Waves were crashing against the five-and-a-half-mile-long boardwalk. “Water had already begun to breach the boardwalk,” he says. “I thought, Wow, we still have four and a half hours until high tide. In ten minutes the water probably came ten feet closer to the street.”

Back in his apartment, d’Leo and a neighbor, Davina Grincevicius, watched the sea as wind-driven rain pelted the sliding glass door of his living room. His landlord, fearing the house might flood, had shut off the electricity. As darkness fell, Grincevicius saw something alarming. “I think the boardwalk just moved,” she said. Within minutes another surge of water lifted the boardwalk again. It began to snap apart.

Three large sections of the boardwalk smashed against two pine trees in front of d’Leo’s apartment. The street had become a four-foot-deep river, as wave after wave poured water onto the peninsula. Cars began to float in the churning water, their wailing alarms adding to the cacophony of wind, rushing water, and cracking wood. A bobbing red Mini Cooper, its headlights flashing, became wedged against one of the pine trees in the front yard. To the west the sky lit up with what looked like fireworks—electrical transformers were exploding in Breezy Point, a neighborhood near the tip of the peninsula. More than one hundred homes there burned to the ground that night.

The trees in the front yard saved d’Leo’s house, and maybe the lives of everyone inside—d’Leo, Grincevicius, and two elderly women who lived in an apartment downstairs. “There was no option to get out,” d’Leo says. “I have six surfboards in my apartment, and I was thinking, if anything comes through the wall, I’ll try to get everyone on those boards and try to get up the block. But if we’d had to get in that water, it wouldn’t have been good.”

After a fitful night’s sleep d’Leo went outside shortly before sunrise. The water had receded, but thigh-deep pools still filled parts of some streets. “Everything was covered with sand,” he says. “It looked like another planet.”

A profoundly altered planet is what our fossil-fuel-driven civilization is creating, a planet where Sandy-scale flooding will become more common and more destructive for the world’s coastal cities. By releasing carbon dioxide and other heat-trapping gases into the atmosphere, we have warmed the Earth by more than a full degree Fahrenheit over the past century and raised sea level by about eight inches. Even if we stopped burning all fossil fuels tomorrow, the existing greenhouse gases would continue to warm the Earth for centuries. We have irreversibly committed future generations to a hotter world and rising seas.

In May the concentration of carbon dioxide in the atmosphere reached 400 parts per million, the highest since three million years ago. Sea levels then may have been as much as 65 feet above today’s; the Northern Hemisphere was largely ice free year-round. It would take centuries for the oceans to reach such catastrophic heights again, and much depends on whether we manage to limit future greenhouse gas emissions. In the short term scientists are still uncertain about how fast and how high seas will rise. Estimates have repeatedly been too conservative.

Global warming affects sea level in two ways. About a third of its current rise comes from thermal expansion—from the fact that water grows in volume as it warms. The rest comes from the melting of ice on land. So far it’s been mostly mountain glaciers, but the big concern for the future is the giant ice sheets in Greenland and Antarctica. Six years ago the Intergovernmental Panel on Climate Change (IPCC) issued a report predicting a maximum of 23 inches of sea-level rise by the end of this century. But that report intentionally omitted the possibility that the ice sheets might flow more rapidly into the sea, on the grounds that the physics of that process was poorly understood.

As the IPCC prepares to issue a new report this fall, in which the sea-level forecast is expected to be slightly higher, gaps in ice-sheet science remain. But climate scientists now estimate that Greenland and Antarctica combined have lost on average about 50 cubic miles of ice each year since 1992—roughly 200 billion metric tons of ice annually. Many think sea level will be at least three feet higher than today by 2100. Even that figure might be too low.

“In the last several years we’ve observed accelerated melting of the ice sheets in Greenland and West Antarctica,” says Radley Horton, a research scientist at Columbia University’s Earth Institute in New York City. “The concern is that if the acceleration continues, by the time we get to the end of the 21st century, we could see sea-level rise of as much as six feet globally instead of two to three feet.” Last year an expert panel convened by the National Oceanic and Atmospheric Administration adopted 6.6 feet (two meters) as its highest of four scenarios for 2100. The U.S. Army Corps of Engineers recommends that planners consider a high scenario of five feet.

One of the biggest wild cards in all sea-level-rise scenarios is the massive Thwaites Glacier in West Antarctica. Four years ago NASA sponsored a series of flights over the region that used ice-penetrating radar to map the seafloor topography. The flights revealed that a 2,000-foot-high undersea ridge holds the Thwaites Glacier in place, slowing its slide into the sea. A rising sea could allow more water to seep between ridge and glacier and eventually unmoor it. But no one knows when or if that will happen.“That’s one place I’m really nervous about,” says Richard Alley, a glaciologist at Penn State University and an author of the last IPCC report. “It involves the physics of ice fracture that we really don’t understand.” If the Thwaites Glacier breaks free from its rocky berth, that would liberate enough ice to raise sea level by three meters—nearly ten feet. “The odds are in our favor that it won’t put three meters in the ocean in the next century,” says Alley. “But we can’t absolutely guarantee that. There’s at least some chance that something very nasty will happen.”

Even in the absence of something very nasty, coastal cities face a twofold threat: Inexorably rising oceans will gradually inundate low-lying areas, and higher seas will extend the ruinous reach of storm surges. The threat will never go away; it will only worsen. By the end of the century a hundred-year storm surge like Sandy’s might occur every decade or less. Using a conservative prediction of a half meter (20 inches) of sea-level rise, the Organisation for Economic Co-operation and Development estimates that by 2070, 150 million people in the world’s large port cities will be at risk from coastal flooding, along with $35 trillion worth of property—an amount that will equal 9 percent of the global GDP. How will they cope?

“During the last ice age there was a mile or two of ice above us right here,” says Malcolm Bowman, as we pull into his driveway in Stony Brook, New York, on Long Island’s north shore. “When the ice retreated, it left a heap of sand, which is Long Island. All these rounded stones you see—look there,” he says, pointing to some large boulders scattered among the trees near his home. “They’re glacial boulders.”

Bowman, a physical oceanographer at the State University of New York at Stony Brook, has been trying for years to persuade anyone who will listen that New York City needs a harbor-spanning storm-surge barrier. Compared with some other leading ports, New York is essentially defenseless in the face of hurricanes and floods. London, Rotterdam, St. Petersburg, New Orleans, and Shanghai have all built levees and storm barriers in the past few decades. New York paid a high price for its vulnerability last October. Sandy left 43 dead in the city, of whom 35 drowned; it cost the city some $19 billion. And it was all unnecessary, says Bowman.

“If a system of properly designed storm-surge barriers had been built—and strengthened with sand dunes at both ends along the low-lying coastal areas—there would have been no flooding damage from Sandy,” he says.

Bowman envisions two barriers: one at Throgs Neck, to keep surges from Long Island Sound out of the East River, and a second one spanning the harbor south of the city. Gates would accommodate ships and tides, closing only during storms, much like existing structures in the Netherlands and elsewhere. The southern barrier alone, stretching five miles between Sandy Hook, New Jersey, and the Rockaway Peninsula, might cost $10 billion to $15 billion, Bowman estimates. He pictures a six-lane toll highway on top that would provide a bypass route around the city and a light-rail line connecting the Newark and John F. Kennedy Airports.

“It could be an asset to the region,” says Bowman. “Eventually the city will have to face up to this, because the problem is going to get worse. It might take five years of study and another ten years to get the political will to do it. By then there might have been another disaster. We need to start planning immediately. Otherwise we’re mortgaging the future and leaving the next generation to cope as best it can.”

Another way to safeguard New York might be to revive a bit of its past. In the 16th-floor loft of her landscape architectural firm in lower Manhattan, Kate Orff pulls out a map of New York Harbor in the 19th century. The present-day harbor shimmers outside her window, calm and unthreatening on an unseasonably mild morning three months to the day after Sandy hit.

“Here’s an archipelago that protected Red Hook,” Orff says, pointing on the map to a small cluster of islands off the Brooklyn shore. “There was another chain of shoals that connected Sandy Hook to Coney Island.”

The islands and shallows vanished long ago, demolished by harbor-dredging and landfill projects that added new real estate to a burgeoning city. Orff would re-create some of them, particularly the Sandy Hook–Coney Island chain, and connect them with sluice gates that would close during a storm, forming an eco-engineered barrier that would cross the same waters as Bowman’s more conventional one. Behind it, throughout the harbor, would be dozens of artificial reefs built from stone, rope, and wood pilings and seeded with oysters and other shellfish. The reefs would continue to grow as sea levels rose, helping to buffer storm waves—and the shellfish, being filter feeders, would also help clean the harbor. “Twenty-five percent of New York Harbor used to be oyster beds,” Orff says.

Orff estimates her “oystertecture” vision could be brought to life at relatively low cost. “It would be chump change compared with a conventional barrier. And it wouldn’t be money wasted: Even if another Sandy never happens, you’d have a cleaner, restored harbor in a more ecologically vibrant context and a healthier New York.”

In June, Mayor Michael Bloomberg outlined a $19.5 billion plan to defend New York City against rising seas. “Sandy was a temporary setback that can ultimately propel us forward,” he said. The mayor’s proposal calls for the construction of levees, local storm-surge barriers, sand dunes, oyster reefs, and more than 200 other measures. It goes far beyond anything planned by any other American city. But the mayor dismissed the idea of a harbor barrier. “A giant barrier across our harbor is neither practical nor affordable,” Bloomberg said. The plan notes that since a barrier would remain open most of the time, it would not protect the city from the inch-by-inch creep of sea-level rise.

Meanwhile, development in the city’s flood zones continues. Klaus Jacob, a geophysicist at Columbia University, says the entire New York metropolitan region urgently needs a master plan to ensure that future construction will at least not exacerbate the hazards from rising seas.

“The problem is we’re still building the city of the past,” says Jacob. “The people of the 1880s couldn’t build a city for the year 2000—of course not. And we cannot build a year-2100 city now. But we should not build a city now that we know will not function in 2100. There are opportunities to renew our infrastructure. It’s not all bad news. We just have to grasp those opportunities.”

Will New York grasp them after Bloomberg leaves office at the end of this year? And can a single storm change not just a city’s but a nation’s policy? It has happened before. The Netherlands had its own stormy reckoning 60 years ago, and it transformed the country.

The storm roared in from the North Sea on the night of January 31, 1953. Ria Geluk was six years old at the time and living where she lives today, on the island of Schouwen Duiveland in the southern province of Zeeland. She remembers a neighbor knocking on the door of her parents’ farmhouse in the middle of the night to tell them that the dike had failed. Later that day the whole family, along with several neighbors who had spent the night, climbed to the roof, where they huddled in blankets and heavy coats in the wind and rain. Geluk’s grandparents lived just across the road, but water swept into the village with such force that they were trapped in their home. They died when it collapsed.

“Our house kept standing,” says Geluk. “The next afternoon the tide came again. My father could see around us what was happening; he could see houses disappearing. You knew when a house disappeared, the people were killed. In the afternoon a fishing boat came to rescue us.”

In 1997 Geluk helped found the Watersnoodmuseum—the “flood museum”—on Schouwen Duiveland. The museum is housed in four concrete caissons that engineers used to plug dikes in 1953. The disaster killed 1,836 in all, nearly half in Zeeland, including a baby born on the night of the storm.

Afterward the Dutch launched an ambitious program of dike and barrier construction called the Delta Works, which lasted more than four decades and cost more than six billion dollars. One crucial project was the five-mile-long Oosterscheldekering, or Eastern Scheldt barrier, completed 27 years ago to defend Zeeland from the sea. Geluk points to it as we stand on a bank of the Scheldt estuary near the museum, its enormous pylons just visible on the horizon. The final component of the Delta Works, a movable barrier protecting Rotterdam Harbor and some 1.5 million people, was finished in 1997.

Like other primary sea barriers in the Netherlands, it’s built to withstand a 1-in-10,000-year storm—the strictest standard in the world. (The United States uses a 1-in-100 standard.) The Dutch government is now considering whether to upgrade the protection levels to bring them in line with sea-level-rise projections.

Such measures are a matter of national security for a country where 26 percent of the land lies below sea level. With more than 10,000 miles of dikes, the Netherlands is fortified to such an extent that hardly anyone thinks about the threat from the sea, largely because much of the protection is so well integrated into the landscape that it’s nearly invisible.

On a bitingly cold February afternoon I spend a couple of hours walking around Rotterdam with Arnoud Molenaar, the manager of the city’s Climate Proof program, which aims to make Rotterdam resistant to the sea levels expected by 2025. About 20 minutes into our walk we climb a sloping street next to a museum designed by the architect Rem Koolhaas. The presence of a hill in this flat city should have alerted me, but I’m surprised when Molenaar tells me that we’re walking up the side of a dike. He gestures to some nearby pedestrians. “Most of the people around us don’t realize this is a dike either,” he says. The Westzeedijk shields the inner city from the Meuse River a few blocks to the south, but the broad, busy boulevard on top of it looks like any other Dutch thoroughfare, with flocks of cyclists wheeling along in dedicated lanes.

As we walk, Molenaar points out assorted subtle flood-control structures: an underground parking garage designed to hold 10,000 cubic meters—more than 2.5 million gallons—of rainwater; a street flanked by two levels of sidewalks, with the lower one designed to store water, leaving the upper walkway dry. Late in the afternoon we arrive at Rotterdam’s Floating Pavilion, a group of three connected, transparent domes on a platform in a harbor off the Meuse. The domes, about three stories tall, are made of a plastic that’s a hundred times as light as glass.

Inside we have sweeping views of Rotterdam’s skyline; hail clatters overhead as low clouds scud in from the North Sea. Though the domes are used for meetings and exhibitions, their main purpose is to demonstrate the wide potential of floating urban architecture. By 2040 the city anticipates that as many as 1,200 homes will float in the harbor. “We think these structures will be important not just for Rotterdam but for many cities around the world,” says Bart Roeffen, the architect who designed the pavilion. The homes of 2040 will not necessarily be domes; Roeffen chose that shape for its structural integrity and its futuristic appeal. “To build on water is not new, but to develop floating communities on a large scale and in a harbor with tides—that is new,” says Molenaar. “Instead of fighting against water, we want to live with it.”

While visiting the Netherlands, I heard one joke repeatedly: “God may have built the world, but the Dutch built Holland.” The country has been reclaiming land from the sea for nearly a thousand years—much of Zeeland was built that way. Sea-level rise does not yet panic the Dutch.

“We cannot retreat! Where could we go? Germany?” Jan Mulder has to shout over the wind—we’re walking along a beach called Kijkduin as volleys of sleet exfoliate our faces. Mulder is a coastal morphologist with Deltares, a private coastal management firm. This morning he and Douwe Sikkema, a project manager with the province of South Holland, have brought me to see the latest in adaptive beach protection. It’s called the zandmotor—the sand engine.

The seafloor offshore, they explain, is thick with hundreds of feet of sand deposited by rivers and retreating glaciers. North Sea waves and currents once distributed that sand along the coast. But as sea level has risen since the Ice Age, the waves no longer reach deep enough to stir up sand, and the currents have less sand to spread around. Instead the sea erodes the coast here.

The typical solution would be to dredge sand offshore and dump it directly on the eroding beaches—and then repeat the process year after year as the sand washes away. Mulder and his colleagues recommended that the provincial government try a different strategy: a single gargantuan dredging operation to create the sandy peninsula we’re walking on—a hook-shaped stretch of beach the size of 250 football fields. If the scheme works, over the next 20 years the wind, waves, and tides will spread its sand 15 miles up and down the coast. The combination of wind, waves, tides, and sand is the zandmotor.

The project started only two years ago, but it seems to be working. Mulder shows me small dunes that have started to grow on a beach where there was once open water. “It’s very flexible,” he says. “If we see that sea-level rise increases, we can increase the amount of sand.” Sikkema adds, “And it’s much easier to adjust the amount of sand than to rebuild an entire system of dikes.”

Later Mulder tells me about a memorial inscription affixed to the Eastern Scheldt barrier in Zeeland: “It says, ‘Hier gaan over het tij, de maan, de wind, en wij—Here the tide is ruled by the moon, the wind, and us.’ ” It reflects the confidence of a generation that took for granted, as we no longer can, a reasonably stable world. “We have to understand that we are not ruling the world,” says Mulder. “We need to adapt.”

With the threats of climate change and sea-level rise looming over us all, cities around the world, from New York to Ho Chi Minh City, have turned to the Netherlands for guidance. One Dutch firm, Arcadis, has prepared a conceptual design for a storm-surge barrier in the Verrazano Narrows to protect New York City. The same company helped design a $1.1 billion, two-mile-long barrier that protected New Orleans from a 13.6-foot storm surge last summer, when Hurricane Isaac hit. The Lower Ninth Ward, which suffered so greatly during Hurricane Katrina, was unscathed.

“Isaac was a tremendous victory for New Orleans,” Piet Dircke, an Arcadis executive, tells me one night over dinner in Rotterdam. “All the barriers were closed; all the levees held; all the pumps worked. You didn’t hear about it? No, because nothing happened.”

New Orleans may be safe for a few decades, but the long-term prospects for it and other low-lying cities look dire. Among the most vulnerable is Miami. “I cannot envision southeastern Florida having many people at the end of this century,” says Hal Wanless, chairman of the department of geological sciences at the University of Miami. We’re sitting in his basement office, looking at maps of Florida on his computer. At each click of the mouse, the years pass, the ocean rises, and the peninsula shrinks. Freshwater wetlands and mangrove swamps collapse—a death spiral that has already started on the southern tip of the peninsula. With seas four feet higher than they are today—a distinct possibility by 2100—about two-thirds of southeastern Florida is inundated. The Florida Keys have almost vanished. Miami is an island.

When I ask Wanless if barriers might save Miami, at least in the short term, he leaves his office for a moment. When he returns, he’s holding a foot-long cylindrical limestone core. It looks like a tube of gray, petrified Swiss cheese. “Try to plug this up,” he says. Miami and most of Florida sit atop a foundation of highly porous limestone. The limestone consists of the remains of countless marine creatures deposited more than 65 million years ago, when a warm, shallow sea covered what is now Florida—a past that may resemble the future here.

A barrier would be pointless, Wanless says, because water would just flow through the limestone beneath it. “No doubt there will be some dramatic engineering feats attempted,” he says. “But the limestone is so porous that even massive pumping systems won’t be able to keep the water out.”

Sea-level rise has already begun to threaten Florida’s freshwater supply. About a quarter of the state’s 19 million residents depend on wells sunk into the enormous Biscayne aquifer. Salt water is now seeping into it from dozens of canals that were built to drain the Everglades. For decades the state has tried to control the saltwater influx by building dams and pumping stations on the drainage canals. These “salinity-control structures” maintain a wall of fresh water behind them to block the underground intrusion of salt water. To offset the greater density of salt water, the freshwater level in the control structures is generally kept about two feet higher than the encroaching sea.

But the control structures also serve a second function: During the state’s frequent rainstorms their gates must open to discharge the flood of fresh water to the sea.“We have about 30 salinity-control structures in South Florida,” says Jayantha Obeysekera, the chief hydrological modeler at the South Florida Water Management District. “At times now the water level in the sea is higher than the freshwater level in the canal.” That both accelerates saltwater intrusion and prevents the discharge of flood waters. “The concern is that this will get worse with time as the sea-level rise accelerates,” Obeysekera says.

Using fresh water to block the salt water will eventually become impractical, because the amount of fresh water needed would submerge ever larger areas behind the control structures, in effect flooding the state from the inside. “With 50 centimeters [about 20 inches] of sea-level rise, 80 percent of the salinity-control structures in Florida will no longer be functional,” says Wanless. “We’ll either have to drown communities to keep the freshwater head above sea level or have saltwater intrusion.” When sea level rises two feet, he says, Florida’s aquifers may be poisoned beyond recovery. Even now, during unusually high tides, seawater spouts from sewers in Miami Beach, Fort Lauderdale, and other cities, flooding streets.

In a state exposed to hurricanes as well as rising seas, people like John Van Leer, an oceanographer at the University of Miami, worry that one day they will no longer be able to insure—or sell—their houses. “If buyers can’t insure it, they can’t get a mortgage on it. And if they can’t get a mortgage, you can only sell to cash buyers,” Van Leer says. “What I’m looking for is a climate-change denier with a lot of money.”

Unless we change course dramatically in the coming years, our carbon emissions will create a world utterly different in its very geography from the one in which our species evolved. “With business as usual, the concentration of carbon dioxide in the atmosphere will reach around a thousand parts per million by the end of the century,” says Gavin Foster, a geochemist at the University of Southampton in England. Such concentrations, he says, haven’t been seen on Earth since the early Eocene epoch, 50 million years ago, when the planet was completely ice free. According to the U.S. Geological Survey, sea level on an iceless Earth would be as much as 216 feet higher than it is today. It might take thousands of years and more than a thousand parts per million to create such a world—but if we burn all the fossil fuels, we will get there.

No matter how much we reduce our greenhouse gas emissions, Foster says, we’re already locked in to at least several feet of sea-level rise, and perhaps several dozens of feet, as the planet slowly adjusts to the amount of carbon that’s in the atmosphere already. A recent Dutch study predicted that the Netherlands could engineer solutions at a manageable cost to a rise of as much as five meters, or 16 feet. Poorer countries will struggle to adapt to much less. At different times in different places, engineering solutions will no longer suffice. Then the retreat from the coast will begin. In some places there will be no higher ground to retreat to.

By the next century, if not sooner, large numbers of people will have to abandon coastal areas in Florida and other parts of the world. Some researchers fear a flood tide of climate-change refugees. “From the Bahamas to Bangladesh and a major amount of Florida, we’ll all have to move, and we may have to move at the same time,” says Wanless. “We’re going to see civil unrest, war. You just wonder how—or if—civilization will function. How thin are the threads that hold it all together? We can’t comprehend this. We think Miami has always been here and will always be here. How do you get people to realize that Miami—or London—will not always be there?”

What will New York look like in 200 years? Klaus Jacob, the Columbia geophysicist, sees downtown Manhattan as a kind of Venice, subject to periodic flooding, perhaps with canals and yellow water cabs. Much of the city’s population, he says, will gather on high ground in the other boroughs. “High ground will become expensive, waterfront will become cheap,” he says. But among New Yorkers, as among the rest of us, the idea that the sea is going to rise—a lot—hasn’t really sunk in yet. Of the thousands of people in New York State whose homes were badly damaged or destroyed by Sandy’s surge, only 10 to 15 percent are expected to accept the state’s offer to buy them out at their homes’ pre-storm value. The rest plan to rebuild.

Hello, Hal (New Yorker)

Will we ever get a computer we can really talk to?

BY 

JUNE 23, 2008

The challenge is to marry our two greatest technologies: language and toolmaking.

The challenge is to marry our two greatest technologies: language and toolmaking.

Not long ago, a caller dialled the toll-free number of an energy company to inquire about his bill. He reached an interactive-voice-response system, or I.V.R.—the automated service you get whenever you dial a utility or an airline or any other big American company. I.V.R.s are the speaking tube that connects corporate America to its clients. Companies profess boundless interest in their customers, but they don’t want to pay an employee to talk to a caller if they can avoid it; the average human-to-human call costs the company at least five dollars. Once an I.V.R. has been paid for, however, a human-to-I.V.R. call costs virtually nothing.

“If you have an emergency, press one,” the utility company’s I.V.R. said. “To use our automated services or to pay by phone, press two.”

The caller punched two, and was instructed to enter his account number, which he did. An alert had been placed on the account because of a missed payment. “Please hold,” the I.V.R. said. “Your call is being transferred to a service representative.” This statement was followed by one of the most commonly heard sentences in the English language: “Your call may be monitored.”

In fact, the call was being monitored, and I listened to it some months later, in the offices of B.B.N. Technologies, a sixty-year-old company, in Cambridge, Massachusetts. Joe Alwan, a vice-president and the general manager of the division that makes B.B.N.’s “callerexperience analytics” software, which is called Avoke, was showing me how the technology can automatically create a log of events in a call, render the speech as text, and make it searchable.

Alwan, a compact man with scrunchedtogether features who has been at B.B.N. for two years, spoke rapidly but smoothly, with a droll delivery. He projected a graphic of the voice onto a screen at one end of the room. “Anger’s the big one,” he said. Companies can use Avoke to determine when their callers are getting angry, so that they can improve their I.V.R.s.

The agent came on the line, said his name was Eric, and asked the caller to explain his problem. Eric had a slight Indian accent and spoke in a high, clear voice. He probably worked at a call center in Bangalore for a few dollars an hour, although his pay was likely based on how efficiently he could process the calls. “The company doesn’t want to spend more money on the call, because it’s a cost,” Alwan said. The caller’s voice gave the impression that he was white (particularly the way he pronounced the “u” in “duuude”) and youthful, around thirty:

CALLER: Hey, what’s going on is, ah, I got a return-payment notice, right?
AGENT: Mhm.
CALLER: And I checked with my bank, and my bank was saying, well, it didn’t even get to you . . . they didn’t reject it. So then I was just, like, what’s the issue, and then, ah, you guys charge to pay over the phone, so that’s why it’s not done over the phone, so that’s why I do it on the Internet, so—
AGENT: O.K.
CALLER: So I don’t . . . know what’s going on.

The caller sounded relaxed, but if you listened closely you could hear his voice welling with quiet anger.

The agent quickly looked up the man’s record and discovered that he had typed in his account number incorrectly. The caller accepted the agent’s explanation but thought he shouldn’t be liable for the returned-payment charge. He said, “There’s nothing that can be done with that return fee, dude?” The agent explained that another company had levied the charge, but the caller took no notice. “I mean, I would be paying it over the phone, so you guys wanna charge people for paying over the phone, and I’ll be—”

People express anger in two different ways. There’s “cold” anger, in which words may be overarticulated but spoken softly, and “hot” anger, in which voices are louder and pitched higher. At first, the caller’s anger was cold:

AGENT: O.K., sir. I’m gonna go ahead and explain this. . . . O.K., so on the information that you put this last time it was incorrect, so I apologize that you put it incorrectly on the site.
CALLER: O.K., we got past that, bro. So tell me something I don’t know. . . .
AGENT: Let’s see . . . uh . . . um.
CALLER: Dude, I don’t care what company it is. It’s your company using that company, so you guys charge it. So you guys should be waiving that shit-over-the-phone shit, pay by phone.
AGENT: But why don’t you talk to somebody else, sir. One moment.

By now, the caller’s anger was hot. He was put on hold, but B.B.N. was still listening:

CALLER: Motherfucker, I swear. You fucking pussy, you probably don’t even have me on hold, you little fucked-up dick. You’re gonna wait a long time, bro.
You little bitch, I’ll fucking find out who you are, you little fucking ho.

After thirty seconds, we could hear bubbling noises—a bong, Alwan thought—and then coughing. Not long afterward, the caller hung up.

This spring marked the fortieth anniversary of HAL, the conversational computer that was brought to life on the screen by Stanley Kubrick and Arthur C. Clarke, in “2001: A Space Odyssey.” HAL has a calm, empathic voice—a voice that is warmer than the voices of the humans in the movie, which are oddly stilted and false.HAL says that he became operational in Urbana, Illinois, in 1992, and offers to sing a song. HAL not only speaks perfectly; he seems to understand perfectly, too. I was a nine-year-old nerd in the making when the film came out, in 1968, and I’ve been waiting for a computer to talk to ever since—a fantasy shared by many computer geeks. Bill Gates has been touting speech recognition as the next big thing in computing for at least a decade. By giving computers the ability to understand speech, humankind would marry its two greatest technologies: language and toolmaking. To believers, this union can only be a matter of time.

Forty years after “2001,” how close are we to talking to computers? Today, you can use your voice to buy airplane tickets, transfer money, and get a prescription filled. If you don’t want to type, you can use one of the current crop of dictation programs to transcribe your speech; these have been improving steadily and now work reasonably well. If you are driving a car with an onboard navigator, you can get directions in one of dozens of different voices, according to your preference. In a car equipped with Sync—a collaboration of Ford, Microsoft, and Nuance, the largest speech-technology company in the world—you can use your voice to place a phone call or to control your iPod, both of which are useful when you are in what’s known in the speech-recognition industry as “hands-busy, eyes-busy” situations. State-of-the-art I.V.R.s, such as Google’s voice-based 411 service, offer natural-language understanding—you can speak almost as you would to a human operator, as opposed to having to choose from a set menu of options. I.V.R. designers create vocal personas like Julie, the perky voice that answers Amtrak’s 800 number; these voices can be “tuned” according to a company’s branding needs. Calling Virgin Mobile gets you a sassy-voiced young woman, who sounds as if she’s got her feet up on her desk.

Still, these applications of speech technology, useful though they can be, are a far cry from HAL—a conversational computer. Computers still flunk the famous Turing Test, devised by the British mathematician Alan Turing, in which a computer tries to fool a person into thinking that it’s human. And, even within limited applications, speech recognition never seems to work as well as it should. North Americans spent forty-three billion minutes on the line with an I.V.R. in 2007; according to one study, only one caller in ten was satisfied with the experience. Some companies have decided to switch back to touch-tone menus, after finding that customers prefer pushing buttons to using their voices, especially when they are inputting private information, such as account numbers. Leopard, Apple’s new operating system for the Mac, responds to voice commands, which is wonderful for people with handicaps and disabilities but extremely annoying if you have to listen to Alex, its computer-generated voice, converse with a co-worker all day.

Roger Schank was a twenty-two-year-old graduate student when “2001” was released. He came toward the end of what today appears to have been a golden era of programmer-philosophers—men like Marvin Minsky and Seymour Papert, who, in establishing the field of artificial intelligence, inspired researchers to create machines with human intelligence. Schank has spent his career trying to make computers simulate human memory and learning. When he was young, he was certain that a conversational computer would eventually be invented. Today, he’s less sure. What changed his thinking? Two things, Schank told me: “One was realizing that a lot of human speech is just chatting.” Computers proved to be very good at tasks that humans find difficult, like calculating large sums quickly and beating grand masters at chess, but they were wretched at this, one of the simplest of human activities. The other reason, as Schank explained, was that “we just didn’t know how complicated speech was until we tried to model it.” Just as sending men to the moon yielded many fundamental insights into the nature of space, so the problem of making conversational machines has taught scientists a great deal about how we hear and speak. As the Harvard cognitive scientist Steven Pinker wrote to me, “The consensus as far as I have experienced it among A.I. researchers is that natural-language processing is extraordinarily difficult, as it could involve the entirety of a person’s knowledge, which of course is extraordinarily difficult to model on a computer.” After fifty years of research, we aren’t even close.

Speech begins with a puff of breath. The diaphragm pushes air up from the lungs, and this passes between two small membranes in the upper windpipe, known as the vocal folds, which vibrate and transform the breath into sound waves. The waves strike hard surfaces inside the head—teeth, bone, the palate. By changing the shape of the mouth and the position of the tongue, the speaker makes vowels and consonants and gives timbre, tone, and color to the sound.

That process, being mechanical, is not difficult to model, and, indeed, humans had been trying to make talking machines long before A.I. existed. In the late eighteenth century, a Hungarian inventor named Wolfgang von Kempelen built a speaking machine by modelling the human vocal tract, using a bellows for lungs, a reed from a bagpipe for the vocal folds, and a keyboard to manipulate the “mouth.” By playing the keys, an operator could form complete phrases in several different languages. In the nineteenth century, Kempelen’s machine was improved on by Sir Charles Wheatstone, and that contraption, which was exhibited in London, was seen by the young Alexander Graham Bell. It inspired him to try to create his own devices, in the hope of allowing non-hearing people (Bell’s mother and his wife were deaf) to speak normally. He didn’t succeed, but his early efforts led to the invention of the telephone.

In the twentieth century, researchers created electronic talking machines. The first, called the Voder, was engineered by Bell Labs—the famed research division of A.T. & T.—and exhibited at the 1939 World’s Fair, in New York. Instead of a mechanical system made of a reed and bellows, the Voder generated sounds with electricity; as with Kempelen’s speaking machine, a human manipulated keys to produce words. The mechanical-sounding voice became a familiar attribute of movie robots in the nineteen-fifties (and, later, similar synthetic-voice effects were a staple of nineteen-seventies progressive rock). In the early sixties, Bell Labs programmed a computer to sing “Daisy, Daisy, give me your answer do.” Arthur C. Clarke, who visited the lab, heard the machine sing, and he and Kubrick subsequently used the same song in HAL’s death scene.

Hearing is more complicated to model than talking, because it involves signal processing: converting sound from waves of air into electrical impulses. The fleshy part of the ear and the ear canal capture sound waves and direct them to the eardrum, which vibrates as it is struck. These vibrations then push on the ossicles, which form a three-boned lever—that Rube Goldbergian contraption of the middle ear—that helps amplify the sound. The impulses pass into the fluid of the cochlea, which is lined with tiny hairs called cilia. They translate the impulses into electrical signals, which then travel along neural pathways to the brain. Once signals reach the brain, they are “recognized,” either by associative memories or by a rules-based system—or, as Pinker has argued, by some combination of the two.

The human ear is exquisitely sensitive; research has shown, for example, that people can distinguish between hot and cold coffee simply by hearing it poured. The ear is particularly attentive to the human voice. We can differentiate among different voices speaking together, and we can isolate voices in the midst of traffic and loud music, and we can tell the direction from which a voice is coming—all of which are difficult for computers to do. We can hear smiles at the other end of a telephone call; the ear recognizes the sound variations caused by the spreading of the lips. That’s why call-center workers are told to smile no matter what kind of abuse they’re taking.

The first attempts at speech recognition were made in the nineteen-fifties and sixties, when the A.I. pioneers tried to simulate the way the human mind apprehends language. But where do you start? Even a simple concept like “yes” might be expressed in dozens of different ways—including “yes,” “ya,” “yup,” “yeah,” “yeayuh,” “yeppers,” “yessirree,” “aye, aye,” “mmmhmm,” “uh-huh,” “sure,” “totally,” “certainly,” “indeed,” “affirmative,” “fine,” “definitely,” “you bet,” “you betcha,” “no problemo,” and “okeydoke”—and what’s the rule in that? At Nuance, whose headquarters are outside Boston, speech engineers try to anticipate all the different ways people might say yes, but they still get surprised. For example, designers found that Southerners had more trouble using the system than Northerners did, because when instructed to answer “yes” or “no” Southerners regularly added “ma’am” or “sir,” depending on the I.V.R.’s gender, and the computer wasn’t programmed to recognize that. Also, language isn’t static; the rules change. Researchers taught machines that when the pitch of a voice rises at the end of a sentence it usually means a question, only to have their work spoiled by the emergence of what linguists call “uptalk”—that Valley Girl way of making a declarative sentence sound like a question?—which is now ubiquitous across the United States.

In the seventies and eighties, many speech researchers gradually moved away from efforts to determine the rules of language and took a probabilistic approach to speech recognition. Statistical “learning algorithms”—methods of constructing models from streams of data—were the wheel on which the back of the A.I. culture was broken. As David Nahamoo, the chief technology officer for speech at I.B.M.’s Thomas J. Watson Research Center, told me, “Brute-force computing, based on probability algorithms, won out over the rule-based approach.” A speech recognizer, by learning the relative frequency with which particular words occur, both by themselves and within the context of other words, could be “trained” to make educated guesses. Such a system wouldn’t be able to understand what words mean, but, given enough data and computing power, it might work in certain, limited vocabulary situations, like medical transcription, and it might be able to perform machine translation with a high degree of accuracy.

In 1969, John Pierce, a prominent member of the staff of Bell Labs, argued in an influential letter to the Journal of the Acoustical Society of America, entitled “Whither Speech Recognition,” that there was little point in making machines that had speech recognition but no speech understanding. Regardless of the sophistication of the algorithms, the machine would still be a modern version of Kempelen’s talking head—a gimmick. But the majority of researchers felt that the narrow promise of speech recognition was better than nothing.

In 1971, the Defense Department’s Advanced Research Projects Agency made a five-year commitment to funding speech recognition. Four institutions—B.B.N., I.B.M., Stanford Research Institute, and Carnegie Mellon University—were selected as contractors, and each was given the same guidelines for developing a speech recognizer with a thousand-word vocabulary. Subsequently, additional projects were funded that might be useful to the military. One was straight out of “Star Trek”: a handheld device that could automatically translate spoken words into other languages. Another was software that could read foreign news media and render them into English.

In addition to DARPA, funding for speech recognition came from telephone companies—principally at Bell Labs—and computer companies, most notably I.B.M. The phone companies wanted voice-based automated calling, and the computer companies wanted a voice-based computer interface and automated dictation, which was a “holy grail project” (a favorite phrase of the industry). But devising a speech recognizer that worked consistently and accurately in real-world situations proved to be much harder than anyone had anticipated. It wasn’t until the early nineties that companies finally began to bring products to the consumer marketplace, but these products rarely worked as advertised. The fledgling industry went through a tumultuous period. One industry leader, Lernout & Hauspie, flamed out, in a spectacular accounting scandal.

Whether its provenance is academic or corporate, speech-recognition research is heavily dependent on the size of the data sample, or “corpus”—the sheer volume of speech you work with. The larger your corpus, the more data you can feed to the learning algorithms and the better the guesses they can make. I.B.M. collects speech not only in the lab and from broadcasts but also in the field. Andy Aaron, who works at the Watson Research Center, has spent many hours recording people driving or sitting in the front seats of cars in an effort to develop accurate speech models for automotive commands. That’s because, he told me, “when people speak in cars they don’t speak the same way they do in an office.” For example, we talk more loudly in cars, because of a phenomenon known as the Lombard effect—the speaker involuntarily raises his voice to compensate for background noise. Aaron collects speech both for recognizers and for synthesizers—computer-generated voices. “Recording for the recognizer and for the synthesizer couldn’t be more different,” he said. “In the case of the recognizer, you are teaching the system to correctly identify an unknown speech sound. So you feed it lots and lots of different samples, so that it knows all the different ways Americans might say the phoneme ‘oo.’ A synthesizer is the opposite. You audition many professional speakers and carefully choose one, because you like the sound of his voice. Then you record that speaker for dozens of hours, saying sentences that contain many diverse combinations of phonemes and common words.”

B.B.N. came to speech recognition through its origins as an acousticalengineering firm. It worked on the design of Lincoln Center’s Philharmonic Hall in the mid-sixties, and did early research in measuring noise levels at airports, which led to quieter airplane engines. In 1997, B.B.N. was bought by G.T.E., which subsequently merged with Bell Atlantic to form Verizon. In 2004, a group of B.B.N. executives and investors put together a buyout, and the company became independent again. The speech they use to train their recognizers comes from a shared bank, the Linguistic Data Consortium.

During my visit to Cambridge, I watched as a speech engine transcribed a live Al Jazeera broadcast into more or less readable English text, with only a three-minute lag time. In another demo, software captured speech from podcasts and YouTube videos and converted it into text, with impressive accuracy—a technology that promises to make video and audio as easily searchable as text. Both technologies are now available commercially, in B.B.N.’s Broadcast Monitoring System and in EveryZing, its audio-and-video search engine. I also saw B.B.N’s English-to-Iraqi Arabic translator; I had seen I.B.M.’s, known as the Multilingual Automatic Speech-to-Speech Translator, or MASTOR, the week before. Both worked amazingly well. At I.B.M., an English speaker made a comment (“We are here to provide humanitarian assistance for your town”) to an Iraqi. The machine repeated his sentence in English, to make sure it was understood. The MASTOR then translated the sentence into Arabic and said it out loud. The Iraqi answered in Arabic; the machine repeated the sentence in Arabic and then delivered it in English. The entire exchange took about five seconds, and combined state-of-the-art speech recognition, voice synthesis, and machine translation. Granted, the conversation was limited to what you might discuss at a checkpoint in Iraq. Still, for what they are, these translators are triumphs of the statistics-based approach.

What’s missing from all these programs, however, is emotional recognition. The current technology can capture neither the play of emphasis, rhythm, and intonation in spoken language (which linguists call prosody) nor the emotional experience of speaking and understanding language. Descartes favored a division between reason and emotion, and considered language to be a vehicle of the former. But speech without emotion, it turns out, isn’t really speech. Cognitively, the words should mean the same thing, regardless of their emotional content. But they don’t.

Speech recognition is a multidisciplinary field, involving linguists, psychologists, phoneticians, acousticians, computer scientists, and engineers. At speech conferences these days, emotional recognition is a hot topic. Julia Hirschberg, a professor of computer science at Columbia University, told me that at the last prosody conference she attended “it seemed like three-quarters of the presentations were on emotional recognition.” Research is focussed both on how to recognize a speaker’s emotional state and on how to make synthetic voices more emotionally expressive.

Elizabeth Shriberg, a senior researcher in the speech group at S.R.I. International (formerly Stanford Research Institute), said, “Especially when you talk about emotional speech, there is a big difference between acted speech and real speech.” Real anger, she went on, often builds over a number of utterances, and is much more variable than acted anger. For more accurate emotional recognition, Shriberg said, “we need the kind of data that you get from 911 and directory-assistance calls. But you can’t use those, for privacy reasons, and because they’re proprietary.”

At SAIL—the Speech Analysis and Interpretation Laboratory, on the campus of the University of Southern California, in Los Angeles—researchers work mostly with scripted speech, which students collect from actors in the U.S.C. film and drama programs. Shrikanth Narayanan, who runs the lab, is an electrical engineer, and the students in his emotion-research group are mainly engineers and computer scientists. One student was studying what happens when a speaker’s face and voice convey conflicting emotions. Another was researching how emotional states affect the way people move their heads when they talk. The research itself can be a grind. Students painstakingly listen to voices expressing many different kinds of emotion and tag each sample with information, such as how energetic the voice is and its “valence” (whether it is a negative or a positive emotion). Anger and elation are examples of emotions that have different valences but similar energy; humans use context, as well as facial and vocal cues, to distinguish them. Since the researchers have only the voice to work with, at least three of them are required to listen and decide what the emotion is. Students note voice quality, pacing, language, “disfluencies” (false starts, “um”s), and pitch. They make at least two different data sets, so that they can use separate ones for training the computer and for testing it.

Facial expressions are generally thought to be universal, but so far Narayanan’s lab hasn’t found that similarly universal vocal cues for emotions are as clearly established. “Emotions aren’t discrete,” Narayanan said. “They are a continuum, and it isn’t clear to any one perceiver where one emotion ends and another begins, so you end up studying not just the speaker but the perceiver.” The idea is that if you could train the computer to sense a speaker’s emotional state by the sound of his voice, you could also train it to respond in kind—the computer might slow down if it sensed that the speaker was confused, or assume a more soothing tone of voice if it sensed anger. One possible application of such technology would be video games, which could automatically adapt to a player’s level based on the stress in his voice. Narayanan also mentioned simulations—such as the computer-game-like training exercises that many companies now use to prepare workers for a job. “The program would sense from your voice if you are overconfident, or when you are feeling frustrated, and adjust accordingly,” he said. That reminded me of the moment in the novel “2001” when HAL, after discovering that the astronauts have doubts about him, decides to kill them. While struggling with one of the astronauts, Dave, for control of the ship, HAL says, “I can tell from your voice harmonics, Dave, that you’re badly upset. Why don’t you take a stress pill and get some rest?”

But, apart from call-center voice analytics, it’s hard to find many credible applications of emotional recognition, and it is possible that true emotional recognition is beyond the limits of the probabilistic approach. There are futuristic projects aimed at making emotionally responsive robots, and there are plans to use such robots in the care of children and the elderly. “But this is very long-range, obviously,” Narayanan said. In the meantime, we are going to be dealing with emotionless machines.

There is a small market for voice-based lie detectors, which are becoming a popular tool in police stations around the country. Many are made by Nemesysco, an Israeli company, using a technique called “layered voice analysis” to analyze some hundred and thirty parameters in the voice to establish the speaker’s pyschological state. The academic world is skeptical of voice-based lie detection, because Nemesysco will not release the algorithms on which its program is based; after all, they are proprietary. Layered voice analysis has failed in two independent tests. Nemesysco’s American distributor says that’s because the tests were poorly designed. (The company played Roger Clemens’s recent congressional testimony for me through its software, so that I could see for myself the Rocket’s stress levels leaping.) Nevertheless, according to the distributor more than a thousand copies of the software have been sold—at fourteen thousand five hundred dollars each—to law-enforcement agencies and, more recently, to insurance companies, which are using them in fraud detection.

One of the most fully realized applications of emotional recognition that I am aware of is the aggression-detection system developed by Sound Intelligence, which has been deployed in Rotterdam and Amsterdam, and other cities in the Netherlands. It has also been installed in the English city of Coventry, and is being tested in London and Manchester. One of the designers, Peter van Hengel, explained to me that the idea grew out of a project at the University of Groningen, which simulated the workings of the inner ear with computer models. “A colleague of mine applied the same inner-ear model to trying to recognize speech amid noise,” he said, “and found that it could be used to select the parts belonging to the speech and leave out the noise.” They founded Sound Intelligence in 2000, initially focussing on speech-noise separation for automatic speech recognition, with a sideline in the analysis of non-speech sounds. In 2003, the company was approached by the Dutch national railroad, which wanted to be able to detect several kinds of sound that might indicate trouble in stations and on trains (glass-breaking, graffiti-spraying, and aggressive voices). This project developed into an aggression-detection system based on the sound of people shouting: the machine detects the overstressing of the vocal cords, which occurs only in real aggression. (That’s one reason actors only approximate anger; the real thing can damage the voice.)

The city of Groningen has installed an aggression-detector at a busy intersection in an area full of pubs. Elevated microphones spaced thirty metres apart run along both sides of the street, joining an existing network of cameras. These connect to a computer at the police station in Groningen. If the system hears certain sound patterns that correspond with aggression, it sends an alert to the police station, where the police can assess the situation by examining closed-circuit monitors: if necessary, officers are dispatched to the scene. This is no HAL, either, but the system is promising, because it does not pretend to be more intelligent than it is.

I thought the problem with the technology would be false positives—too many loud noises that the machine mistook for aggression. But in Groningen, at least, the problem has been just the opposite. “Groningen is the safest city in Holland,” van Hengel said, ruefully. “There is virtually no crime. We don’t have enough aggression to train the system properly.” ♦

A importância da imaginação pós-capitalista (Envolverde)

Economia
27/8/2013 – 11h47

por Ronan Burtenshaw e Aubrey Robinson, do The Irish Left Review*

david harvey 250 A importância da imaginação pós capitalista

David Harvey mergulha no estudo das contradições do sistema e busca alternativas: desmercantilização, propriedade comum, renda básica permanente, gratuidades… Foto: Divulgação/ Internet

Mês que vem completam-se cinco anos que Lehman Brothers foram protagonistas do maior caso de falência de banco na história dos EUA. O colapso sinalizou o início da Grande Depressão – a crise mais substancial do capitalismo mundial desde a 2ª Guerra Mundial. Como entender os fundamentos desse sistema agora em crise? E, com o sistema em guerra contra a classe trabalhadora, sob o disfarce da “austeridade”, como imaginar um mundo depois disso?

Poucos pensadores geraram respostas mais influentes para essas perguntas que o geógrafo marxista David Harvey. Aqui, em entrevista recente, ele fala a Ronan Burtenshaw e Aubrey Robinson sobre esses problemas.

The Irish Left Review – Você está trabalhando agora num novo livro, The Seventeen Contradictions of Capitalism [As 17 contradições do capitalismo]. Por que focar essas contradições?

David Harvey – A análise do capitalismo sugere que são contradições significativas e fundamentais. Periodicamente essas contradições saem de controle e geram uma crise. Acabamos de passar por uma crise e acho importante perguntar que contradições nos levaram à crise? Como podemos analisar a crise em termos de contradições? Uma das grandes ditos de Marx foi que uma crise é sempre resultado das contradições subjacentes. Portanto, temos de lidar com elas próprias, não com os resultados delas.

TILR – Uma das contradições a que você se dedica é a que há entre o valor de uso e o valor de troca de uma mercadoria. Por que essa contradição é tão fundamental para o capitalismo e por que você usa a moradia para ilustrá-la?

DH – Temos de começar por entender que todas as mercadorias têm um valor de uso e um valor de troca. Se tenho um bife, o valor de uso é que posso comê-lo, e o valor de troca é quanto tenho de pagar para comê-lo.

A moradia é muito interessante, nesse sentido, porque se pode entender como valor de uso que ela garante abrigo, privacidade, um mundo de relações afetivas entre pessoas, uma lista enorme de coisas para as quais usamos a casa. Houve tempo em que cada um construía a própria casa e a casa não tinha valor de troca. Depois, do século 18 em diante, aparece a construção de casas para especulação – construíam-se sobrados georgianos [reinado do rei George, na Inglaterra] para serem vendidos. E as casas passaram a ser valores de troca para consumidores, como poupança. Se compro uma casa e pago a hipoteca, acabo proprietário da casa. Tenho pois um bem, um patrimônio. Assim se gera uma política curiosa – “não no meu quintal”, “não quero ter gente na porta ao lado que não se pareça comigo”. E começa a segregação nos mercados imobiliários, porque as pessoas querem proteger o valor de troca dos seus bens.

Então, há cerca de 30 anos, as pessoas começaram a usar a moradia como forma de obter ganhos de especulação. Você podia comprar uma casa e “passar adiante” – compra uma casa por £200 mil, depois de um ano consegue £250 mil por ela. Você ganha £50 mil, por que não? O valor de troca passou a ser dominante. E assim se chega ao boom especulativo. Em 2000, depois do colapso dos mercados globais de ações, o excesso de capital passou a fluir para a moradia. É um tipo interessante de mercado. Você compra uma casa, o preço da moradia sobe você diz “os preços das casas estão subindo, tenho de comprar uma casa”, mas outro compra antes de você. Gera-se uma bolha imobiliária. As pessoas ficam presas na bolha e a bolha explode. Então, de repente, muitas pessoas descobrem que já não podem usufruir do valor de uso da moradia, porque o sistema do valor de troca destruiu o valor de uso.

E surge a pergunta: é boa ideia permitir que o valor de uso da moradia, que é crucial para o povo, seja comandado por um sistema louco de valor de troca? O problema não surge só na moradia, mas em coisas como educação e atenção à saúde. Em vários desses campos, liberamos a dinâmica do valor de troca, sob a teoria de que ele garantirá o valor de uso, mas o que se vê frequentemente, é que ele faz explodir o valor de uso e as pessoas acabam sem receber boa atenção à saúde, boa educação e boa moradia. Por isso me parece tão importante prestar atenção à diferença entre valor de uso e valor de troca.

TILR – Outra contradição que você comenta envolve um processo de alternar, ao longo do tempo, entre a ênfase na oferta, na produção, e ênfase na demanda, pelo consumo, que se vê no capitalismo. Pode falar sobre como esse processo apareceu no século 20 e por que é tão importante?

DH – Uma grande questão é manter uma demanda adequada de mercado, de modo que seja possível absorver o que for que o capital esteja produzindo. Outra, é criar as condições sob as quais o capital possa produzir com lucros.

Essas condições de produção lucrativa quase sempre significam suprimir a força de trabalho. Na medida em que se reduzem salários – pagando salários cada vez menores –, as taxas de lucro sobem. Portanto, do lado da produção, quanto mais arrochados os salários, melhor. Os lucros aumentam. Mas surge o problema: quem comprará o que é produzido? Com o trabalho arrochado, onde fica o mercado? Se o arrocho é excessivo, sobrevém uma crise, porque deixa de haver demanda suficiente que absorva o produto.

A certa altura, a interpretação generalizada dizia que o problema, na crise dos anos 1930s foi falta de demanda. Houve então uma mudança na direção de investimentos conduzidos pelo Estado, para construir novas estradas, o WPA [serviços públicos, sob o New Deal] e tudo aquilo. Diziam que “revitalizaremos a economia” com demanda financiada por dívidas e, ao fazer isso, viraram-se para a teoria Keynesiana. Saiu-se dos anos 1930s com uma nova e forte capacidade para gerenciar a demanda, com o Estado muito envolvido na economia. Resultado disso, houve fortes taxas de crescimento, mas as fortes taxas de crescimento vieram acompanhadas de maior poder para os trabalhadores, com salários crescentes e sindicatos fortes.

Sindicatos fortes e altos salários significam que as taxas de lucro começam a cair. O capital entra em crise, porque não está reprimindo suficientemente os trabalhadores. E o “automático” do sistema dá o alarme. Nos anos 1970s, voltaram-se na direção de Milton Friedman e da Escola de Chicago. Passou a ser dominante na teoria econômica, e as pessoas começaram a observar a ponta da oferta – sobretudo os salários. E veio o arrocho dos salários, que começou nos anos 1970s. Ronald Reagan ataca os controladores de tráfego aéreo; Margaret Thatcher caça os mineiros; Pinochet assassina militantes da esquerda. O trabalho é atacado por todos os lados – e a taxa de lucros sobe. Quando se chega aos anos 1980s, a taxa de lucro dá um salto, porque os salários estão sendo arrochados e o capital está se dando muito bem. Mas surge o problema: a quem vender aquela coisa toda que está sendo produzida.

Nos anos 1990s tudo isso foi recoberto pela economia do endividamento. Começaram a encorajar as pessoas a tomarem empréstimos – começou uma economia de cartão de crédito e uma economia de moradia pesadamente financiada por hipotecas. Assim se mascarou o fato de que, na realidade, não havia demanda alguma. Em 2007-8, esse arranjo também desmoronou.
O capital enfrenta essa pergunta, “trabalha-se pelo lado da oferta ou pelo lado da demanda”? Minha ideia, para um mundo anticapitalista, é que é preciso unificar tudo isso. Temos de voltar ao valor de uso. De que valores de uso as pessoas precisam e como organizar a produção de tal modo que satisfaça à demanda por aqueles valores de uso?

TILR – Hoje, tudo indica que estamos em crise pelo lado da oferta. Mas a austeridade é tentativa de encontrar solução pelo lado da demanda. Como resolver isso?

DH – É preciso diferenciar entre os interesses do capitalismo como um todo e o que é interesse especificamente da classe capitalista, ou de uma parte dela. Durante essa crise, a classe capitalista deu-se muitíssimo bem. Alguns saíram queimados, mas a maior parte saiu-se extremamente bem. Segundo estudo recente, nos países da OECD a desigualdade econômica cresceu significativamente desde o início da crise, o que significa que os benefícios da crise concentraram-se nas classes mais ricas. Em outras palavras, os ricos não querem sair da crise, porque a crise lhes traz muitos lucros.
A população como um todo está sofrendo, o capitalismo como um todo não está saudável, mas a classe capitalista – sobretudo uma oligarquia que há ali – está muito bem. Há várias situações nas quais capitalistas individuais operando conforme os interesses de sua classe, podem de fato fazer coisas que agridem muito gravemente todo o sistema capitalista. Minha opinião é que, hoje, estamos vivendo uma dessas situações.

TILR – Você tem repetido várias vezes, recentemente, que uma das coisas que a esquerda deveria estar fazendo é usar nossa imaginação pós-capitalista, e começar por perguntar como, afinal, será um mundo pós-capitalista. Por que isso lhe parece tão importante? E, na sua opinião, como, afinal, será um mundo pós-capitalista?

DH – É importante, porque há muito tempo trombeteia-se nos nossos ouvidos que não há alternativa. Uma das primeiras coisas que temos de fazer é pensar a alternativa, para começar a andar na direção de criá-la.

A esquerda tornou-se tão cúmplice com o neoliberalismo, que já não se vê diferença entre os partidos políticos da esquerda e os da direita, se não em questões nacionais ou sociais. Na economia política não há grande diferença. Temos de encontrar uma economia política alternativa ao modo como funciona o capitalismo. E temos alguns princípios. Por isso as contradições são interessantes. Examina-se cada uma delas, por exemplo, a contradição entre valor de uso e valor de troca e se diz – “o mundo alternativo é mundo no qual se fornecem valores de uso”. Assim podemos nos concentrar nos valores de uso e tentar reduzir o papel dos valores de troca.

Ou, na questão monetária – claro que precisamos de dinheiro para que as mercadorias circulem. Mas o problema do dinheiro é que pessoas privadas podem apropriar-se dele. O dinheiro torna-se uma modalidade de poder pessoal e, em seguida, um desejo-fetiche. As pessoas mobilizam a vida na procura por esse dinheiro, até quem não sabe que o faz. Então, temos de mudar o sistema monetário – ou se taxam todas as mais-valias que as pessoas comecem a obter ou criamos um sistema monetário no qual a moeda se dissolve e não pode ser entesourada, como o sistema de milhagem aérea.

Mas para fazer isso, é preciso superar a dicotomia estado/propriedade privada, e propor um regime de propriedade comum. E, num dado momento, é preciso gerar uma renda básica para o povo, porque se você tem uma forma de dinheiro antipoupança é preciso dar garantia às pessoas. Você tem de dizer “você não precisa poupar para os dias de chuva, porque você sempre receberá essa renda básica, não importa o que aconteça”. É preciso dar segurança às pessoas desse modo, não por economias privadas, pessoais.

Mudando cada uma dessas coisas contraditórias chega-se a um tipo diferente de sociedade, que é muito mais racional que a que temos hoje. Hoje, o que acontece é produzimos e, em seguida, tentamos persuadir os consumidores a consumir o que foi produzido, queiram ou não e precisem ou não do que é produzido. Em vez disso, temos de descobrir quais os desejos e vontades básicas das pessoas e mobilizar o sistema de produção para produzir aquilo. Se se elimina a dinâmica do valor de troca, é possível reorganizar todo o sistema de outro modo. Pode-se imaginar a direção na qual se moverá uma alternativa socialista, se nos afastamos da forma dominante da acumulação de capital que hoje comanda tudo.

* Esse é um trecho da entrevista. A íntegra da entrevista será publicada na edição de outono de The Irish Left Review./ Tradução Vila Vudu.

** Publicado originalmente no site Irish Left Review e retirado do site Outras Palavras.

(Outra Palavras)

The Battle Over Global Warming Is All in Your Head (Time)

Despite the fact that more people now acknowledge that climate change represents a significant threat to human well-being, this has yet to translate into any meaningful action. Psychologists may have an answer as to why this is

By , Aug. 19, 2013

165161414
ANDREY SMIRNOV/AFP/GETTY IMAGES. Climate campaigns, like this one from Greenpeace in Moscow, have failed to galvanize public support for strong climate action

Today the scientific community is in almost total agreement that the earth’s climate is changing as a result of human activity, and that this represents a huge threat to the planet and to us. According to a Pew survey conducted in March, however, public opinion lags behind the scientific conclusion, with only 69% of those surveyed accepting the view that the earth is warming — and only 1 in 4 Americans see global warming as a major threat. Still, 69% is a solid majority, which begs the question, Why aren’t we doing anything about it?

This political inertia in the face of unprecedented threat is the most fundamental challenge to tackling climate change. Climate scientists and campaigners have long debated how to better communicate the message to nonexperts so that climate science can be translated into action. According to Christopher Rapley, professor of climate science at University College London, the usual tactic of climate experts to provide the public with information isn’t enough because “it does not address key underlying causes.” We are all bombarded with the evidence of climate change on an almost a daily basis, from new studies and data to direct experiences of freakish weather events like last year’s epic drought in the U.S. The information is almost unavoidable.

If it’s not a data deficit that’s preventing people from doing more on global warming, what is it? Blame our brains. Renee Lertzman, an applied researcher who focuses on the psychological dimensions of sustainability, explains that the kind of systemic threat that climate change poses to humans is “unique both psychologically and socially.” We face a minefield of mental barriers and issues that prevent us from confronting the threat.

For some, the answer lies in cognitive science. Daniel Gilbert, a professor of psychology at Harvard, has written about why our inability to deal with climate change is due in part to the way our mind is wired. Gilbert describes four key reasons ranging from the fact that global warming doesn’t take a human form — making it difficult for us to think of it as an enemy — to our brains’ failure to accurately perceive gradual change as opposed to rapid shifts. Climate change has occurred slowly enough for our minds to normalize it, which is precisely what makes it a deadly threat, as Gilbert writes, “because it fails to trip the brain’s alarm, leaving us soundly asleep in a burning bed.”

Robert Gifford, a professor of psychology and environmental studies at the University of Victoria in Canada, also picks up on the point about our brains’ difficulty in grasping climate change as a threat. Gifford refers to this and other psychological barriers to mitigating climate change as “dragons of inaction.” Since authoring a paperon the subject in 2011 in which he outlined seven main barriers, or dragons, he has found many more. “We’re up to around 30,” he notes. “Now it’s time to think about how we can slay these dragons.” Gifford lists factors such as limited cognition or ignorance of the problem, ideologies or worldviews that may prevent action, social comparisons with other people and perceived inequity (the “Why should we change if X corporation or Y country won’t?”) and the perceived risks of changing our behavior.

Gifford is reluctant to pick out one barrier as being more powerful or limiting than another. “If I had to name one, I would nominate the lack of perceived behavioral control; ‘I’m only one person, what can I do?’ is certainly a big one.” For many, the first challenge will be in recognizing which dragons they have to deal with before they can overcome them. “If you don’t know what your problem is, you don’t know what the solution is,” says Gifford.

Yet this approach can only work if people are prepared to acknowledge that they have a problem. But for those of us who understand that climate change is a problem yet make little effort to cut the number of overseas trips we make or the amount of meat we consume, neither apathy nor denial really explains the dissonance between our actions and beliefs. Lertzman has come to the conclusion that this is not because of apathy — a lack of feeling — but because of the simple fact that we care an overwhelming amount about both the planet and our way of life, and we find that conflict too painful to bear. Our apparent apathy is just a defense mechanism in the face of this psychic pain.

“We’re reluctant to come to terms with the fact that what we love and enjoy and what gives us a sense of who we are is also now bound up with the most unimaginable devastation,” says Lertzman. “When we don’t process the pain of that, that’s when we get stuck and can’t move forward.” Lertzman refers to this inability to mourn as “environmental melancholia,” and points to South Africa’s postapartheid Truth and Reconciliation Commission as an example of how to effectively deal with this collective pain. “I’m not saying there should be one for climate or carbon, but there’s a lot to be said for providing a means for people to talk together about climate change, to make it socially acceptable to talk about it.”

Rosemary Randall, a trained psychotherapist, has organized something close to this. She runs the U.K.-based Carbon Conversations, a program that brings people together to talk in a group setting about ways of halving their personal carbon footprint. Writing in Aeon, an online magazine, Randall suggests that climate change is such a disturbing subject, that “like death, it can raise fears and anxieties that people feel have no place in polite conversation.” Randall acknowledges that while psychology and psychoanalysis aren’t the sole solutions to tackling climate change, “they do offer an important way of thinking about the problem.”

Lertzman says the mainstream climate-change community has been slow to register the value of psychology and social analysis in addressing global warming. “I think there’s a spark of some interest, but also a wariness of what this means, what it might look like,” she notes. Gifford says otherwise, however, explaining that he has never collaborated with other disciplines as much as he does now. “I may be a little biased because I’m invested in working in it, but in my view, climate change, and not mental health, is the biggest psychological problem we face today because it affects 100% of the global population.”

Despite the pain, shame, difficulty and minefield of other psychological barriers that we face in fully addressing climate change, both Lertzman and Gifford are still upbeat about our ability to face up to the challenge. “It’s patronizing to say that climate change is too big or abstract an issue for people to deal with,” says Lertzman. “There can’t be something about the human mind that stops us grappling with these issues given that so many people already are — maybe that’s what we should be focusing on instead.”

Read more: http://science.time.com/2013/08/19/in-denial-about-the-climate-the-psychological-battle-over-global-warming/#ixzz2chLdZ25H

Vendettas, not war? Unpicking why our ancestors killed (New Scientist)

20:03 18 July 2013 by Bob Holmes

Is war in our blood? Perhaps not, if you believe a controversial new study that suggests violence in primitive cultures is overwhelmingly the result of personal squabbles, rather than organised violence between two different groups. The finding contradicts the popular view that humans have evolved to be innately warlike.

In recent years, many anthropologists and evolutionary biologists have come to believe that warfare arose deep in humans’ evolutionary past. In part that is because even chimpanzees exhibit this kind of intergroup violence, which suggests the trait shares a common origin. Proponents of this view also point to the occurrence of war in traditional hunter-gatherer societies today, such as some notoriously quarrelsome groups in the Amazon, and hence to its likely prevalence in early human societies.

Yet the archaeological record of warfare in early humans is sketchy, and not all contemporary hunter-gatherers make war.

In a bid to resolve the issue, Douglas Fry and Patrik Soderberg of Åbo Akademi University in Vasa, Finland, turned to the Ethnographic Atlas, a widely used database that was created in the 1960s to provide an unbiased cross-cultural sample of primitive societies.

From this, Fry and Soderberg selected the 21 societies that were exclusively nomadic hunter-gatherers – groups that upped sticks to wherever conditions were best – without livestock or social class divisions. They reasoned that these groups would most closely resemble early human societies.

Hello, sailor

The researchers then sifted through the early ethnographic accounts of each of these societies – the earliest of which was from the 17th century, while most were from the 19th and 20th centuries – and noted every reference to violent deaths, classifying them by how many people were involved and who they were. The records include accounts of events such as a man killing a rival for a woman, revenge killings for earlier deaths, and killing of outsiders such as shipwrecked sailors.

The pair found that in almost every society, deaths due to violence were rare – and the vast majority of those were one-on-one killings better classified as homicides than as warfare. Indeed, for 20 of the 21 societies, only 15 per cent of killings happened between two different groups. The exception was the Tiwi people of northern Australia, where intergroup feuds and retaliatory killings were common.

Fry and Soderberg say this suggests that warfare is rare in such primitive societies and may instead have become common only after the rise of more complex societies just a few thousand years ago. If so, then warfare would have likely played only a minor role in human evolution.

Anecdotal evidence

Not everyone agrees. For one thing, the data set Fry and Soderberg used is essentially a collection of anecdotes rather than a systematic survey of causes of death, says Kim Hill, an anthropologist at Arizona State University in Tempe. They are relying on the people who originally noted down these events to have included all the important details.

Moreover, they focus only on nomadic foragers and exclude any sedentary foraging societies – groups that would have foraged from a permanent base. Yet these sedentary foragers would probably have occupied the richest habitats and so would have been most likely to be involved in wars over territory, says Richard Wrangham, an anthropologist at Harvard University.

Fry and Soderberg are probably correct that most violent deaths are the result of homicide, not warfare – that was even true for the US during the Vietnam War, says Sam Bowles at the Santa Fe Institute in New Mexico. He has put forward the idea that altruism evolved out of the need for our ancestors to cooperate during times of war. But even if warfare is relatively uncommon, it can still exert an important evolutionary force, he says.

Journal reference: Science, DOI:10.1126/science.1235675

Muito além de uma resposta do poder público (Canal Ibase)

Renzo Taddei, Colunista do Canal Ibase

Link original: http://www.canalibase.org.br/muito-alem-de-uma-resposta-do-poder-publico/

15/07/2013

Na quarta-feira, dia 10 de julho, o Juca Kfouri afirmou em entrevista à Agência Pública que “se não houver respostas, as manifestações serão maiores em 2014”. Na sexta (12) a Deutsche Welle publicou entrevista com Marina Silva, onde ela afirma que a reação do Congresso Nacional e da Presidência da República está “aquém da grandeza dos protestos”. Acredito que a imensa maioria dos analistas concorda com esse ponto: o governo não foi capaz, até o momento, de dar respostas à altura do que pede a ocasião. Nesse texto, no entanto, eu gostaria de discutir dimensões dos acontecimentos que estamos vivenciando que transcendem a resposta do estado.

Inicialmente, eu gostaria de colocar em questão até que ponto o fazer-se ouvir é o sentido último do que estamos vivendo. Isso me parece redutor, porque coloca o estado no centro de tudo. Sou da opinião de que não se deve medir o que está ocorrendo, em seu sucesso ou fracasso, apenas em função da resposta do poder público. Não me parece que as pessoas saem às ruas apenas para provocar uma resposta do poder público. Talvez muitos o façam, ou seja essa a forma que dão sentido ao fato de saírem às ruas. No entanto, o que está ocorrendo é o fortalecimento de redes de organização, de articulação social, cultural e política; redes essas que existem de forma independente ao estado. A assembleia popular horizontal que ocorreu sábado (13) em Belo Horizonte, transmitida ao vivo na Internet pela PósTV/mídia NINJA, é um exemplo disso. Não estou aqui dizendo que as manifestações são anti-estado – ainda que certos grupos certamente o sejam, estes parecem ser uma minoria. O que estou dizendo é que, para que sejam capazes de organizar suas ações e veicular suas mensagens, novas formas de associação entre grupos surgem, inclusive novas formas de pensamento sobre a vida coletiva e sobre o mundo, que não tem o estado como mediador perpétuo de tudo. A política das redes sociais e das ruas é a política que não se resume a fazer referência direta ao que ocorre no Congresso Nacional, no Palácio do Planalto ou nos muitos palácios-sedes de governo estadual. Em uma palavra, o que esses movimentos têm como fundamento de ação é a afirmação de que o mundo é maior do que o sistema político; o sistema político deve trabalhar para a plenitude da vida no mundo, e não o contrário.

Foto: Mídia Ninja

É em função disso que a tentativa de encontrar uma causa fundamental ou mais urgente, que dê uma identidade ao movimento das ruas, é tarefa vã. Trata-se da tentativa de negar a dimensão múltipla das manifestações, e, ao mesmo tempo, de não enxergar as transformações estruturais, de fundo, que estão ocorrendo. Isso se dá porque falar em “demandas” sugere que o problema é conjuntural, enquanto há uma dimensão estrutural em jogo.

Que dimensão é essa? Em sua última coluna na Carta Capital, Vladimir Safatle afirma que além da crise de representação política, há o esgotamento do ciclo de desenvolvimento com distribuição de renda da época de Lula. A solução para isso é impossível no governo Dilma, diz Safatle, porque requer uma reforma fiscal que seja verdadeiramente de esquerda, algo impossibilitado pelo modelo de alianças partidárias que caracteriza o lulismo. Safatle tem razão, mas essa é apenas metade da história. A outra metade é exógena ao sistema político; está ligada a uma transformação maior em curso, que nos afasta das práticas de organização da sociedade ao redor de hierarquias verticais, onde há um esforço de homogeneização da população em pensamento e ação, de modo que seja mais fácil impor a todos uma visão daquilo que é “mais importante”. A nova realidade social parece estar se configurando de modo que grupos distintos, cada qual com suas agendas específicas, se juntam e separam o tempo todo, formando redes de colaboração que, apesar de eficazes, são mais ou menos instáveis.

Ou seja, Safatle faz referência a um modelo de governabilidade em crise; eu diria que essa é apenas a ponta do iceberg: o que está em crise é o sistema todo; mais que o governo, é o próprio estado que se mostra incapaz de responder às demandas políticas da população. Isso se dá no contexto da crise do modelo republicano francês – crise que afeta a França há décadas e que se faz visível agora no Brasil. Aqui estou fazendo referência a como nosso sistema político, como o francês, depende do esforço do estado na criação de uma certa subjetividade política nos cidadãos; subjetividade essa que, em escala populacional, faz com que o país seja administrável à distância, quase que por controle remoto. Falando em bom português: há um esforço do estado e das instituições (escolas, mídia, tribunais, hospitais) no sentido de produzirem os brasileiros de forma que estes sejam politicamente passivos; o Brasil é mais administrável se todo mundo pensar de forma semelhante, e mais ainda se todo mundo ficar em casa, vendo o mundo pela TV, anestesiados. Esse é o contexto da democracia representativa no Brasil, aquele que reduz a participação política da população às eleições, e onde grande parte das pessoas sequer consegue lembrar em quem votou para os cargos legislativos.

É esse modelo de estado que está em crise, e que nem a reforma política, nem a tributária, irá resolver. A crise da representatividade não se resume à falta de confiança na classe política; há também, e fundamentalmente, uma nova consciência do direito à diferença; para além de ser ineficiente e corrupto, o estado é entendido como fascista porque cala (com o apoio da FIFA, do COB e de empresários do petróleo) qualquer forma de diferença que se mostre inadministrável. Os ataques à imprensa corporativa, e em especial à Rede Globo, tem essa questão como pano de fundo, e não a questão da corrupção. A emergência de mídias abertas, descentralizadas, como a NINJA e a PósTV, são parte desse movimento. Resulta disso tudo a recusa a qualquer forma de representação, e a participação direta, nas ruas e na Internet, é seu principal sintoma.

Sendo assim, não vejo possibilidade de avanço no país que não passe pela transformação das instituições políticas, algumas vezes de forma radical (como a desmilitarização das polícias), de modo que estas sejam mais participativas, mais transparentes e mais flexíveis, para que o bom funcionamento do sistema não seja dependente da homogeneização e da alienação das massas, mas que o sistema possa, ao invés disso, se alimentar da energia e da sinergia produzida pela diversidade de formas de existir. Nesse contexto, não se trata do povo pedir e do governo atender. Ao invés disso, povo e governo tem a difícil missão de transformarem, juntos ou não, o estado em outra coisa, diferente do que ele é na atualidade.

A disputa dos sentidos associados à violência

Existe uma clara disputa pelos sentidos do que está ocorrendo, envolvendo governos, mídias, partidos, movimentos sociais. É importante notar que nem sempre essa disputa tem como objetivo o fazer-se ouvir. Muitas vezes, é fruto de uma vontade de fazer com que o outro não seja ouvido. O uso de adjetivos como “vândalos” e “baderneiros”, por exemplo, é uma tentativa de sequestrar os sentidos associados a algumas das ações de grupos participantes nas manifestações, esvaziando a sua dimensão política. Infelizmente, os governos, e em maior escala a grande imprensa nacional, tem feito um uso estúpido e estupidificante destes adjetivos. As ações violentas, de ataque a automóveis e edifícios, não são aleatórias, como a imprensa faz crer. Podem ser reprováveis, mas não são aleatórias, e em não o sendo comunicam algo. Na Argentina em 2001, depredaram-se os bancos. Porque não houve ataque a bancos aqui? Houve manifestações em outros países onde lojas do McDonalds foram depredadas. Novamente, aqui no Brasil, neste momento, há certa constância em ataque a edifícios e automóveis ligados ao poder público e às corporações de imprensa. Isso é, obviamente, uma forma de comunicação. A questão então é: o que faz com que setores da população adotem esse tipo de prática como estratégia comunicativa?

Como resposta possível a essa questão, não faltam evidências, tanto na produção das ciências sociais como no discurso de ativistas dos movimentos sociais, de que a comunicação através da violência é um padrão usado pelo próprio estado na sua relação com setores marginalizados da população. Ou seja, há certas arenas da vida social em que o contexto se organiza em torno de práticas violentas, e impõe a violência como estratégia de ação comunicativa. Não é por acaso que os grupos que se envolvem em ações violentas são aqueles que não se reconhecem no discurso do estado ou da imprensa, acham que sua voz nunca é ouvida. Em minhas próprias pesquisas, vi muito isso entre lideranças de torcidas organizadas. Quando é que a imprensa dá espaço a tais lideranças? Nunca.

Como dizem alguns autores, a violência não é um fato, mas uma acusação: a polícia tem o poder autorizado de dizer o que e quem é violento, e fazer com que a sua própria violência fique invisível, não constando nos relatórios oficiais, nem em grande parte da cobertura da imprensa, que tem na própria polícia uma de suas mais importantes fontes de informação. Infelizmente, muitos dos nossos jornalistas são ventríloquos da polícia. Por isso a violência policial que temos visto é tão chocante e assustadora para a classe média, em especial para quem aprendeu a pensar o mundo através da televisão. A circulação livre e intensa de imagens e vídeos, e a ação de mídias alternativas, comprometidas com as causas dos movimentos sociais, estão rompendo esse regime visual ao qual estávamos submetidos. A polícia e o poder público não são mais capazes de regimentar a visualidade das violências e só mostrar a violência dos outros. A polícia mostra que tem consciência de que está numa guerra de imagens: um sem número de policiais tem atuado na repressão às manifestações sem suas identificações; quando convém, no entanto, a polícia filma as próprias ações e distribui o vídeo à imprensa.

pm Manifestações– continuação

Foto: Movimento Passe Livre

O que não se pode ignorar, no entanto, é que existe uma dimensão pedagógica na violência policial. Para um bocado de gente, as balas de borracha e o gás lacrimogêneo estão servido como uma espécie de rito de passagem de retorno, com muita energia, ao mundo da política. Um jornalista gastronômico inglês que participou das manifestações de ontem (11 de julho) no Rio de Janeiro, e sofreu na pele a brutalidade policial, escreveu em seu site: “agora entendo como eventos como esse podem radicalizar as pessoas”. Tais acontecimentos estão ensinando a população a respeito do fascismo do estado; está fazendo parte da classe média experimentar o gosto da repressão policial que só as classes mais baixas vivem cotidianamente. Enfim, isso pode dar muito errado; mas pode ser também o início de um processo de repolitização da juventude. Ou as duas coisas. Eu tenho a impressão de que essa repolitização está acontecendo. Por isso as eleições do ano que vem serão extraordinariamente interessantes.

E o que é que pode dar errado? Há um outro lado dessa dimensão constitutiva da violência: a ação policial, não mediada por lideranças políticas responsáveis e capazes (e está claro a ausência disso em cidades como o Rio de Janeiro), pode criar uma realidade política inexistente no Brasil: grupos organizados de guerrilha urbana, que se armam para enfrentar a polícia. Recentemente, em debate sobre as manifestações no Instituto de Estudos Avançados da USP, Massimo Canevacci, antropólogo italiano, mencionou o conceito de mimese como algo importante na compreensão do que está ocorrendo no Brasil, em sua relação com eventos internacionais, como o que ocorre na Turquia, por exemplo. Isso imediatamente me trouxe à mente algo que vi em minha pesquisa de campo na periferia de Buenos Aires, junto a torcidas organizadas de futebol. Encontrei uma correlação entre o momento em que a polícia militar instalou delegacias nos bairros de periferia e começou uma história de conflito com as torcidas locais, e o início do uso de armas de fogo pelas mesmas torcidas (coisa que anteriormente era vista como sinal de covardia). Obviamente é difícil afirmar que existe uma relação causal entre uma coisa e outra; de qualquer forma, a ideia de equilíbrio de forças é parte fundamental do discurso dos líderes de torcidas mais velhos. Minha hipótese é que a polícia, que obviamente não tem qualquer interesse em igualar forças, mas sim de subjugar o outro, ao inserir uma desigualdade nesse panorama de busca do equilíbrio de forças, acabou fazendo com que as torcidas buscassem as mesmas armas de combate, o que resultou na adoção de armas de fogo pelas mesmas. Novamente, trata-se apenas de uma hipótese. Mas vejamos o que está ocorrendo no Brasil: nas primeiras manifestações de junho, não havia qualquer intenção, por parte dos manifestantes, de entrar em combate com a polícia. Foram brutalizados; e a brutalização tem se repetido, por várias semanas consecutivas, no país todo. Como resultado, o que temos visto é a disposição crescente, por parte de grupos específicos (e cada vez maiores), em preparar-se para o combate com a polícia: do uso de vinagre como instrumento de resistência, nas manifestações de junho, passamos a ver o uso de rojões e coquetéis molotov, como na última quinta (11), no Rio de Janeiro. Esses grupos estão mimetizando a ação da polícia, e isso se dá porque as lideranças políticas estão com suas cabeças enterradas, como avestruzes, e deixaram à polícia a responsabilidade de fazer política pública de segurança. Ou seja, não há interlocução; a polícia impõe a violência como única forma de comunicação. O Brasil pode estar a caminho de criar o seu Weather Underground, e isso é tudo o que a polícia precisa para justificar níveis ainda mais altos de violência contra a população civil, em razão do fortalecimento de agendas da direita. É essencial que as novas lideranças políticas, dos movimentos sociais, busquem atuar para desarticular essa guerrilha urbana nascente, de modo que o movimento todo não caia nisso que é, claramente, uma armadilha.

Foto: Manifestações Brasil 24h (Facebook)

Climate Change Deniers Using Dirty Tricks from ‘Tobacco Wars’ (Science Daily)

July 4, 2013 — Fossil fuel companies have been funding smear campaigns that raise doubts about climate change, writes John Sauven in the latest issue of Index on Censorship magazine.

Environmental campaigner Sauven argues: “Some of the characters involved have previously worked to deny the reality of the hole in the ozone layer, acid rain and the link between tobacco and lung cancer. And the tactics they are applying are largely the same as those they used in the tobacco wars. Doubt is still their product.”

Governments around the world have also attempted to silence scientists who have raised concerns about climate change. Tactics used have included: the UK government spending millions infiltrating peaceful environmental organisations; Canadian government scientists barred from communicating with journalists without media officers; and US federal scientists pressured to remove words ‘global warming’ and ‘climate change’ from reports under the Bush administration.

Writing about government corruption in the Indian mining industry, Sauven says: “It will be in these expanding economies that the battle over the Earth’s future will be won or lost. And as in the tobacco wars, the fight over clean energy is likely to be a dirty one.”

Journal Reference:

  1. J. Sauven. Why can’t we tell the truth about climate change? Index on Censorship, 2013; 42 (2): 55 DOI:10.1177/0306422013494282

The Science of Why We Don’t Believe Science (Mother Jones)

How our brains fool us on climate, creationism, and the end of the world.

By  | Mon Apr. 18, 2011 3:00 AM PDT


“A MAN WITH A CONVICTION is a hard man to change. Tell him you disagree and he turns away. Show him facts or figures and he questions your sources. Appeal to logic and he fails to see your point.” So wrote the celebrated Stanford University psychologist Leon Festinger [1] (PDF), in a passage that might have been referring to climate change denial—the persistent rejection, on the part of so many Americans today, of what we know about global warming and its human causes. But it was too early for that—this was the 1950s—and Festinger was actually describing a famous case study [2] in psychology.

Festinger and several of his colleagues had infiltrated the Seekers, a small Chicago-area cult whose members thought they were communicating with aliens—including one, “Sananda,” who they believed was the astral incarnation of Jesus Christ. The group was led by Dorothy Martin, a Dianetics devotee who transcribed the interstellar messages through automatic writing.

Through her, the aliens had given the precise date of an Earth-rending cataclysm: December 21, 1954. Some of Martin’s followers quit their jobs and sold their property, expecting to be rescued by a flying saucer when the continent split asunder and a new sea swallowed much of the United States. The disciples even went so far as to remove brassieres and rip zippers out of their trousers—the metal, they believed, would pose a danger on the spacecraft.

Festinger and his team were with the cult when the prophecy failed. First, the “boys upstairs” (as the aliens were sometimes called) did not show up and rescue the Seekers. Then December 21 arrived without incident. It was the moment Festinger had been waiting for: How would people so emotionally invested in a belief system react, now that it had been soundly refuted?

Read also: the truth about Climategate. [3]. Read also: the truth about Climategate [4].

At first, the group struggled for an explanation. But then rationalization set in. A new message arrived, announcing that they’d all been spared at the last minute. Festinger summarized the extraterrestrials’ new pronouncement: “The little group, sitting all night long, had spread so much light that God had saved the world from destruction.” Their willingness to believe in the prophecy had saved Earth from the prophecy!

From that day forward, the Seekers, previously shy of the press and indifferent toward evangelizing, began to proselytize. “Their sense of urgency was enormous,” wrote Festinger. The devastation of all they had believed had made them even more certain of their beliefs.

In the annals of denial, it doesn’t get much more extreme than the Seekers. They lost their jobs, the press mocked them, and there were efforts to keep them away from impressionable young minds. But while Martin’s space cult might lie at on the far end of the spectrum of human self-delusion, there’s plenty to go around. And since Festinger’s day, an array of new discoveries in psychology and neuroscience has further demonstrated how our preexisting beliefs, far more than any new facts, can skew our thoughts and even color what we consider our most dispassionate and logical conclusions. This tendency toward so-called “motivated reasoning [5]” helps explain why we find groups so polarized over matters where the evidence is so unequivocal: climate change, vaccines, “death panels,” the birthplace and religion of the president [6] (PDF), and much else. It would seem that expecting people to be convinced by the facts flies in the face of, you know, the facts.

The theory of motivated reasoning builds on a key insight of modern neuroscience [7] (PDF): Reasoning is actually suffused with emotion (or what researchers often call “affect”). Not only are the two inseparable, but our positive or negative feelings about people, things, and ideas arise much more rapidly than our conscious thoughts, in a matter of milliseconds—fast enough to detect with an EEG device, but long before we’re aware of it. That shouldn’t be surprising: Evolution required us to react very quickly to stimuli in our environment. It’s a “basic human survival skill,” explains political scientist Arthur Lupia[8] of the University of Michigan. We push threatening information away; we pull friendly information close. We apply fight-or-flight reflexes not only to predators, but to data itself.

We apply fight-or-flight reflexes not only to predators, but to data itself.

We’re not driven only by emotions, of course—we also reason, deliberate. But reasoning comes later, works slower—and even then, it doesn’t take place in an emotional vacuum. Rather, our quick-fire emotions can set us on a course of thinking that’s highly biased, especially on topics we care a great deal about.

Consider a person who has heard about a scientific discovery that deeply challenges her belief in divine creation—a new hominid, say, that confirms our evolutionary origins. What happens next, explains political scientist Charles Taber [9] of Stony Brook University, is a subconscious negative response to the new information—and that response, in turn, guides the type of memories and associations formed in the conscious mind. “They retrieve thoughts that are consistent with their previous beliefs,” says Taber, “and that will lead them to build an argument and challenge what they’re hearing.”

In other words, when we think we’re reasoning, we may instead be rationalizing. Or to use an analogy offered by University of Virginia psychologist Jonathan Haidt [10]: We may think we’re being scientists, but we’re actually being lawyers [11] (PDF). Our “reasoning” is a means to a predetermined end—winning our “case”—and is shot through with biases. They include “confirmation bias,” in which we give greater heed to evidence and arguments that bolster our beliefs, and “disconfirmation bias,” in which we expend disproportionate energy trying to debunk or refute views and arguments that we find uncongenial.

That’s a lot of jargon, but we all understand these mechanisms when it comes to interpersonal relationships. If I don’t want to believe that my spouse is being unfaithful, or that my child is a bully, I can go to great lengths to explain away behavior that seems obvious to everybody else—everybody who isn’t too emotionally invested to accept it, anyway. That’s not to suggest that we aren’t also motivated to perceive the world accurately—we are. Or that we never change our minds—we do. It’s just that we have other important goals besides accuracy—including identity affirmation and protecting one’s sense of self—and often those make us highly resistant to changing our beliefs when the facts say we should.

Modern science originated from an attempt to weed out such subjective lapses—what that great 17th century theorist of the scientific method, Francis Bacon, dubbed the “idols of the mind.” Even if individual researchers are prone to falling in love with their own theories, the broader processes of peer review and institutionalized skepticism are designed to ensure that, eventually, the best ideas prevail.

Scientific evidence is highly susceptible to misinterpretation. Giving ideologues scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Our individual responses to the conclusions that science reaches, however, are quite another matter. Ironically, in part because researchers employ so much nuance and strive to disclose all remaining sources of uncertainty, scientific evidence is highly susceptible to selective reading and misinterpretation. Giving ideologues or partisans scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Sure enough, a large number of psychological studies have shown that people respond to scientific or technical evidence in ways that justify their preexisting beliefs. In a classic 1979 experiment [12] (PDF), pro- and anti-death penalty advocates were exposed to descriptions of two fake scientific studies: one supporting and one undermining the notion that capital punishment deters violent crime and, in particular, murder. They were also shown detailed methodological critiques of the fake studies—and in a scientific sense, neither study was stronger than the other. Yet in each case, advocates more heavily criticized the study whose conclusions disagreed with their own, while describing the study that was more ideologically congenial as more “convincing.”

Since then, similar results have been found for how people respond to “evidence” about affirmative action, gun control, the accuracy of gay stereotypes [13], and much else. Even when study subjects are explicitly instructed to be unbiased and even-handed about the evidence, they often fail.

And it’s not just that people twist or selectively read scientific evidence to support their preexisting views. According to research by Yale Law School professor Dan Kahan [14] and his colleagues, people’s deep-seated views about morality, and about the way society should be ordered, strongly predict whom they consider to be a legitimate scientific expert in the first place—and thus where they consider “scientific consensus” to lie on contested issues.

In Kahan’s research [15] (PDF), individuals are classified, based on their cultural values, as either “individualists” or “communitarians,” and as either “hierarchical” or “egalitarian” in outlook. (Somewhat oversimplifying, you can think of hierarchical individualists as akin to conservative Republicans, and egalitarian communitarians as liberal Democrats.) In one study, subjects in the different groups were asked to help a close friend determine the risks associated with climate change, sequestering nuclear waste, or concealed carry laws: “The friend tells you that he or she is planning to read a book about the issue but would like to get your opinion on whether the author seems like a knowledgeable and trustworthy expert.” A subject was then presented with the résumé of a fake expert “depicted as a member of the National Academy of Sciences who had earned a Ph.D. in a pertinent field from one elite university and who was now on the faculty of another.” The subject was then shown a book excerpt by that “expert,” in which the risk of the issue at hand was portrayed as high or low, well-founded or speculative. The results were stark: When the scientist’s position stated that global warming is real and human-caused, for instance, only 23 percent of hierarchical individualists agreed the person was a “trustworthy and knowledgeable expert.” Yet 88 percent of egalitarian communitarians accepted the same scientist’s expertise. Similar divides were observed on whether nuclear waste can be safely stored underground and whether letting people carry guns deters crime. (The alliances did not always hold. Inanother study [16] (PDF), hierarchs and communitarians were in favor of laws that would compel the mentally ill to accept treatment, whereas individualists and egalitarians were opposed.)

Head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

In other words, people rejected the validity of a scientific source because its conclusion contradicted their deeply held views—and thus the relative risks inherent in each scenario. A hierarchal individualist finds it difficult to believe that the things he prizes (commerce, industry, a man’s freedom to possess a gun to defend his family [16]) (PDF) could lead to outcomes deleterious to society. Whereas egalitarian communitarians tend to think that the free market causes harm, that patriarchal families mess up kids, and that people can’t handle their guns. The study subjects weren’t “anti-science”—not in their own minds, anyway. It’s just that “science” was whatever they wanted it to be. “We’ve come to a misadventure, a bad situation where diverse citizens, who rely on diverse systems of cultural certification, are in conflict,” says Kahan [17].

And that undercuts the standard notion that the way to persuade people is via evidence and argument. In fact, head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

Take, for instance, the question of whether Saddam Hussein possessed hidden weapons of mass destruction just before the US invasion of Iraq in 2003. When political scientists Brendan Nyhan and Jason Reifler showed subjects fake newspaper articles [18] (PDF) in which this was first suggested (in a 2004 quote from President Bush) and then refuted (with the findings of the Bush-commissioned Iraq Survey Group report, which found no evidence of active WMD programs in pre-invasion Iraq), they found that conservatives were more likely than before to believe the claim. (The researchers also tested how liberals responded when shown that Bush did not actually “ban” embryonic stem-cell research. Liberals weren’t particularly amenable to persuasion, either, but no backfire effect was observed.)

Another study gives some inkling of what may be going through people’s minds when they resist persuasion. Northwestern University sociologist Monica Prasad [19] and her colleagues wanted to test whether they could dislodge the notion that Saddam Hussein and Al Qaeda were secretly collaborating among those most likely to believe it—Republican partisans from highly GOP-friendly counties. So the researchers set up a study [20] (PDF) in which they discussed the topic with some of these Republicans in person. They would cite the findings of the 9/11 Commission, as well as a statement in which George W. Bush himself denied his administration had “said the 9/11 attacks were orchestrated between Saddam and Al Qaeda.”

One study showed that not even Bush’s own words could change the minds of Bush voters who believed there was an Iraq-Al Qaeda link.

As it turned out, not even Bush’s own words could change the minds of these Bush voters—just 1 of the 49 partisans who originally believed the Iraq-Al Qaeda claim changed his or her mind. Far more common was resisting the correction in a variety of ways, either by coming up with counterarguments or by simply being unmovable:

Interviewer: [T]he September 11 Commission found no link between Saddam and 9/11, and this is what President Bush said. Do you have any comments on either of those?

Respondent: Well, I bet they say that the Commission didn’t have any proof of it but I guess we still can have our opinions and feel that way even though they say that.

The same types of responses are already being documented on divisive topics facing the current administration. Take the “Ground Zero mosque.” Using information from the political myth-busting site FactCheck.org [21], a team at Ohio State presented subjects [22] (PDF) with a detailed rebuttal to the claim that “Feisal Abdul Rauf, the Imam backing the proposed Islamic cultural center and mosque, is a terrorist-sympathizer.” Yet among those who were aware of the rumor and believed it, fewer than a third changed their minds.

A key question—and one that’s difficult to answer—is how “irrational” all this is. On the one hand, it doesn’t make sense to discard an entire belief system, built up over a lifetime, because of some new snippet of information. “It is quite possible to say, ‘I reached this pro-capital-punishment decision based on real information that I arrived at over my life,'” explains Stanford social psychologist Jon Krosnick [23]. Indeed, there’s a sense in which science denial could be considered keenly “rational.” In certain conservative communities, explains Yale’s Kahan, “People who say, ‘I think there’s something to climate change,’ that’s going to mark them out as a certain kind of person, and their life is going to go less well.”

This may help explain a curious pattern Nyhan and his colleagues found when they tried to test the fallacy [6] (PDF) that President Obama is a Muslim. When a nonwhite researcher was administering their study, research subjects were amenable to changing their minds about the president’s religion and updating incorrect views. But when only white researchers were present, GOP survey subjects in particular were more likely to believe the Obama Muslim myth than before. The subjects were using “social desirabililty” to tailor their beliefs (or stated beliefs, anyway) to whoever was listening.

Which leads us to the media. When people grow polarized over a body of evidence, or a resolvable matter of fact, the cause may be some form of biased reasoning, but they could also be receiving skewed information to begin with—or a complicated combination of both. In the Ground Zero mosque case, for instance, a follow-up study [24] (PDF) showed that survey respondents who watched Fox News were more likely to believe the Rauf rumor and three related ones—and they believed them more strongly than non-Fox watchers.

Okay, so people gravitate toward information that confirms what they believe, and they select sources that deliver it. Same as it ever was, right? Maybe, but the problem is arguably growing more acute, given the way we now consume information—through the Facebook links of friends, or tweets that lack nuance or context, or “narrowcast [25]” and often highly ideological media that have relatively small, like-minded audiences. Those basic human survival skills of ours, says Michigan’s Arthur Lupia, are “not well-adapted to our information age.”

A predictor of whether you accept the science of global warming? Whether you’re a Republican or a Democrat.

If you wanted to show how and why fact is ditched in favor of motivated reasoning, you could find no better test case than climate change. After all, it’s an issue where you have highly technical information on one hand and very strong beliefs on the other. And sure enough, one key predictor of whether you accept the science of global warming is whether you’re a Republican or a Democrat. The two groups have been growing more divided in their views about the topic, even as the science becomes more unequivocal.

So perhaps it should come as no surprise that more education doesn’t budge Republican views. On the contrary: In a 2008 Pew survey [26], for instance, only 19 percent of college-educated Republicans agreed that the planet is warming due to human actions, versus 31 percent of non-college educated Republicans. In other words, a higher education correlated with an increased likelihood of denying the science on the issue. Meanwhile, among Democrats and independents, more education correlated with greater acceptance of the science.

Other studies have shown a similar effect: Republicans who think they understand the global warming issue best are least concerned about it; and among Republicans and those with higher levels of distrust of science in general, learning more about the issue doesn’t increase one’s concern about it. What’s going on here? Well, according to Charles Taber and Milton Lodge of Stony Brook, one insidious aspect of motivated reasoning is that political sophisticates are prone to be more biased than those who know less about the issues. “People who have a dislike of some policy—for example, abortion—if they’re unsophisticated they can just reject it out of hand,” says Lodge. “But if they’re sophisticated, they can go one step further and start coming up with counterarguments.” These individuals are just as emotionally driven and biased as the rest of us, but they’re able to generate more and better reasons to explain why they’re right—and so their minds become harder to change.

That may be why the selectively quoted emails of Climategate were so quickly and easily seized upon by partisans as evidence of scandal. Cherry-picking is precisely the sort of behavior you would expect motivated reasoners to engage in to bolster their views—and whatever you may think about Climategate, the emails were a rich trove of new information upon which to impose one’s ideology.

Climategate had a substantial impact on public opinion, according to Anthony Leiserowitz [27], director of the Yale Project on Climate Change Communication [28]. It contributed to an overall drop in public concern about climate change and a significant loss of trust in scientists. But—as we should expect by now—these declines were concentrated among particular groups of Americans: Republicans, conservatives, and those with “individualistic” values. Liberals and those with “egalitarian” values didn’t lose much trust in climate science or scientists at all. “In some ways, Climategate was like a Rorschach test,” Leiserowitz says, “with different groups interpreting ambiguous facts in very different ways.”

Is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism.

So is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism. Its most famous proponents are an environmentalist (Robert F. Kennedy Jr. [29]) and numerous Hollywood celebrities (most notably Jenny McCarthy [30] and Jim Carrey). TheHuffington Post gives a very large megaphone to denialists. And Seth Mnookin [31], author of the new book The Panic Virus [32], notes that if you want to find vaccine deniers, all you need to do is go hang out at Whole Foods.

Vaccine denial has all the hallmarks of a belief system that’s not amenable to refutation. Over the past decade, the assertion that childhood vaccines are driving autism rateshas been undermined [33] by multiple epidemiological studies—as well as the simple fact that autism rates continue to rise, even though the alleged offending agent in vaccines (a mercury-based preservative called thimerosal) has long since been removed.

Yet the true believers persist—critiquing each new study that challenges their views, and even rallying to the defense of vaccine-autism researcher Andrew Wakefield, afterhis 1998 Lancet paper [34]—which originated the current vaccine scare—was retracted and he subsequently lost his license [35] (PDF) to practice medicine. But then, why should we be surprised? Vaccine deniers created their own partisan media, such as the website Age of Autism, that instantly blast out critiques and counterarguments whenever any new development casts further doubt on anti-vaccine views.

It all raises the question: Do left and right differ in any meaningful way when it comes to biases in processing information, or are we all equally susceptible?

There are some clear differences. Science denial today is considerably more prominent on the political right—once you survey climate and related environmental issues, anti-evolutionism, attacks on reproductive health science by the Christian right, and stem-cell and biomedical matters. More tellingly, anti-vaccine positions are virtually nonexistent among Democratic officeholders today—whereas anti-climate-science views are becoming monolithic among Republican elected officials.

Some researchers have suggested that there are psychological differences between the left and the right that might impact responses to new information—that conservatives are more rigid and authoritarian, and liberals more tolerant of ambiguity. Psychologist John Jost of New York University has further argued that conservatives are “system justifiers”: They engage in motivated reasoning to defend the status quo.

This is a contested area, however, because as soon as one tries to psychoanalyze inherent political differences, a battery of counterarguments emerges: What about dogmatic and militant communists? What about how the parties have differed through history? After all, the most canonical case of ideologically driven science denial is probably the rejection of genetics in the Soviet Union, where researchers disagreeing with the anti-Mendelian scientist (and Stalin stooge) Trofim Lysenko were executed, and genetics itself was denounced as a “bourgeois” science and officially banned.

The upshot: All we can currently bank on is the fact that we all have blinders in some situations. The question then becomes: What can be done to counteract human nature itself?

We all have blinders in some situations. The question then becomes: What can be done to counteract human nature?

Given the power of our prior beliefs to skew how we respond to new information, one thing is becoming clear: If you want someone to accept new evidence, make sure to present it to them in a context that doesn’t trigger a defensive, emotional reaction.

This theory is gaining traction in part because of Kahan’s work at Yale. In one study [36], he and his colleagues packaged the basic science of climate change into fake newspaper articles bearing two very different headlines—”Scientific Panel Recommends Anti-Pollution Solution to Global Warming” and “Scientific Panel Recommends Nuclear Solution to Global Warming”—and then tested how citizens with different values responded. Sure enough, the latter framing made hierarchical individualists much more open to accepting the fact that humans are causing global warming. Kahan infers that the effect occurred because the science had been written into an alternative narrative that appealed to their pro-industry worldview.

You can follow the logic to its conclusion: Conservatives are more likely to embrace climate science if it comes to them via a business or religious leader, who can set the issue in the context of different values than those from which environmentalists or scientists often argue. Doing so is, effectively, to signal a détente in what Kahan has called a “culture war of fact.” In other words, paradoxically, you don’t lead with the facts in order to convince. You lead with the values—so as to give the facts a fighting chance.


Links:
[1] https://motherjones.com/files/lfestinger.pdf
[2] http://www.powells.com/biblio/61-9781617202803-1
[3] http://motherjones.com/environment/2011/04/history-of-climategate
[4] http://motherjones.com/environment/2011/04/field-guide-climate-change-skeptics
[5] http://www.ncbi.nlm.nih.gov/pubmed/2270237
[6] http://www-personal.umich.edu/~bnyhan/obama-muslim.pdf
[7] https://motherjones.com/files/descartes.pdf
[8] http://www-personal.umich.edu/~lupia/
[9] http://www.stonybrook.edu/polsci/ctaber/
[10] http://people.virginia.edu/~jdh6n/
[11] https://motherjones.com/files/emotional_dog_and_rational_tail.pdf
[12] http://synapse.princeton.edu/~sam/lord_ross_lepper79_JPSP_biased-assimilation-and-attitude-polarization.pdf
[13] http://psp.sagepub.com/content/23/6/636.abstract
[14] http://www.law.yale.edu/faculty/DKahan.htm
[15] https://motherjones.com/files/kahan_paper_cultural_cognition_of_scientific_consesus.pdf
[16] http://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=1095&context=fss_papers
[17] http://seagrant.oregonstate.edu/blogs/communicatingclimate/transcripts/Episode_10b_Dan_Kahan.html
[18] http://www-personal.umich.edu/~bnyhan/nyhan-reifler.pdf
[19] http://www.sociology.northwestern.edu/faculty/prasad/home.html
[20] http://sociology.buffalo.edu/documents/hoffmansocinquiryarticle_000.pdf
[21] http://www.factcheck.org/
[22] http://www.comm.ohio-state.edu/kgarrett/FactcheckMosqueRumors.pdf
[23] http://communication.stanford.edu/faculty/krosnick/
[24] http://www.comm.ohio-state.edu/kgarrett/MediaMosqueRumors.pdf
[25] http://en.wikipedia.org/wiki/Narrowcasting
[26] http://people-press.org/report/417/a-deeper-partisan-divide-over-global-warming
[27] http://environment.yale.edu/profile/leiserowitz/
[28] http://environment.yale.edu/climate/
[29] http://www.huffingtonpost.com/robert-f-kennedy-jr-and-david-kirby/vaccine-court-autism-deba_b_169673.html
[30] http://www.huffingtonpost.com/jenny-mccarthy/vaccine-autism-debate_b_806857.html
[31] http://sethmnookin.com/
[32] http://www.powells.com/biblio/1-9781439158647-0
[33] http://discovermagazine.com/2009/jun/06-why-does-vaccine-autism-controversy-live-on/article_print
[34] http://www.thelancet.com/journals/lancet/article/PIIS0140673697110960/fulltext
[35] http://www.gmc-uk.org/Wakefield_SPM_and_SANCTION.pdf_32595267.pdf
[36] http://www.scribd.com/doc/3446682/The-Second-National-Risk-and-Culture-Study-Making-Sense-of-and-Making-Progress-In-The-American-Culture-War-of-Fact

Cientistas sociais procuram modelo para onda de protestos no Brasil (Folha de S.Paulo)

23/06/2013 – 11h09

CASSIANO ELEK MACHADO
GRACILIANO ROCHA

Olhem para paris, diz Teresa Caldeira. Mas não a de Maio de 68: para a antropóloga brasileira radicada nos EUA, professora da Universidade da Califórnia em Berkeley, a análise das manifestações que tomaram o país na semana passada deve se pautar pelos distúrbios que eclodiram nas periferias francesas em 2005, quando cidades suburbanas na região metropolitana de Paris (“banlieues”) explodiram em uma onda de protestos sociais.

Especialista em antropologia urbana, Caldeira, 58, pesquisa a cultura da periferia, em especial a de São Paulo, e diz que se vários cientistas sociais se declararam surpresos, para ela não há novidade.

“Todos comparam com Istambul ou com a Primavera Árabe, mas deveriam olhar para o que houve em Paris há oito anos”, diz Caldeira. “Dá muito bem para entender o que está acontecendo e isso vem sendo articulado há muito tempo”, acredita a antropóloga, autora do livro “Cidade de Muro: Crime, Segregação e Cidadania” (Editora 34).

Ela lembra que o Movimento Passe Livre (MPL) existe há muitos anos e afirma que ele “articula todo o imaginário da produção cultural da periferia”.

“A Folha fez uma foto em 2010 de um grafite feito pelo MPL no Minhocão, em São Paulo, que dizia ‘A cidade só existe para quem pode se movimentar por ela’.”

Caldeira reproduziu a imagem em um artigo dela na revista “Public Culture” (Duke University Press, 2012) e a frase do grafite como uma ideia fundamental do movimento cultural da periferia. “Rap, literatura marginal, pixação, saraus, todos se fazem na base e rede e de circulação. E circular por São Paulo é um caos para quem não tem dinheiro.”

Opinião diferente tem o sociólogo francês Sebastian Roché. Em seu livro “Le Frisson de l’Émeute”, (Seuil, sem tradução no Brasil), ele afirma que as revoltas que inflamaram a França -cujo estopim foi a morte de dois adolescentes eletrocutados em uma perseguição policial- foram protagonizadas por jovens que se consideram vítimas da xenofobia por não terem a pele branca e, na maioria, filhos de imigrantes e muçulmanos.

“Os jovens muçulmanos, muito numerosos nas ‘banlieues’, não se sentem aceitos nem respeitados em suas crenças. Além disso, essa juventude foi abandonada à própria sorte. Nas ‘banlieues’, a taxa de desemprego oscila entre 25% e 40% entre jovens com menos de 25 anos”, frisa Roché.

Professor da celebrada Sciences Po (Instituto de Estudos Políticos), da Universidade de Grenoble e pesquisador do CNRS (Centro Nacional de Pesquisa Social), Roché diz ter acompanhado com atenção a onda de protestos no Brasil, e não vê “muitos pontos de comparação” entre o que aconteceu aqui e lá. Na França, diz ele, “não foram pobres destruindo o meio de vida de outros pobres”.

“A burguesia ou o governo não foram os alvos. Nenhum espaço do poder foi sitiado ou tomado. Ninguém se aproximou, por exemplo, do parlamento nem da sede do governo [como ocorreu no Brasil]. Aqui, os grupos operavam durante a noite, escondiam o rosto em capuzes e muitas vezes buscavam o confronto com a polícia. Não houve qualquer manifestação de massa, nenhum líder ou palavra de ordem emergiu.”

Teresa Caldeira, que no ano passado ganhou a prestigiosa bolsa Guggenheim de pesquisa, nos EUA, aponta outra foto dos movimentos recentes, que ela diz ter visto nas redes sociais, como icônica do que está acontecendo. Dois rapazes seguravam cartazes: um dizendo “O Brasil acordou” e outro “A periferia nunca dormiu”.

Também chamaram a atenção dela as faixas que faziam referências ao trabalho da polícia. “A PM está fazendo na Paulista o que faz todo dia na periferia”, dizia uma delas. “Há uma tensão de classes latente. E não me surpreende que os protestos tenham chegado agora na periferia”, diz ela, citando como exemplo as manifestações dos últimos dias em regiões como a estrada do M’Boi Mirim (na zona sul de São Paulo).

Ela aposta que, “tal como em Paris, em 2005, veremos agora a explosão da periferia”. Ainda que, segundo ela, a presença de classes A e B tenha tido importante papel na eclosão dos movimentos, os protestos veiculam uma insatisfação que vem sendo cozinhada nas periferias. “Uma coisa é de onde vem o caldo e a outra é a forma que a manifestação adquire. Na forma, parece um pouco com a Primavera Árabe: a maneira como circularam as informações e a insatisfação com as instituições políticas tradicionais”, diz.

“No conteúdo, é muito significativo que tenha estourado pelos R$ 0,20. Ninguém aguenta mais os ônibus da cidade. Conheço muita gente da periferia, devido às pesquisas, que todos os dias posta algo em mídias sociais contra o transporte público.”

Para o francês Roché, “a melhoria das condições de vida faz com que aqueles que se sentem excluídos se mobilizem coletivamente para reivindicar, como é o caso do Brasil”. “Na França, a questão é de exclusão social em um período de estagnação econômica, e a revolta de 2005 não gerou um modelo coletivo de massas e organizado. Não houve protesto contestador, mas sim apropriações individuais, como roubos e saques, ou então confrontos e destruição para exprimir a raiva. Nas ‘banlieues’, não houve reivindicação explícita.”

Ele afirma que, embora “revoltas possam ensinar muito aos governantes”, isso depende de eles “serem capazes de olhá-las de frente”. “Na França, nós não aprendemos muito. Em novembro de 2005, a França estava a um ano e meio das eleições presidenciais. O então ministro do Interior [Nicolas Sarkozy, presidente entre 2007-2012] viu naquilo uma oportunidade de reafirmar sua autoridade e estigmatizar as ‘banlieues’ e seus habitantes com vistas à eleição de 2007” -que ele terminaria vencendo. “Nenhuma análise política foi feita pelo Parlamento e menos ainda pelo ministério do Interior, proibido de refletir sobre sua atuação pelo próprio ministro.”

Para o sociólogo, as revoltas urbanas podem, ainda, exprimir um desejo de participação direta nas decisões públicas, no caso de países como Brasil e Turquia. “Nesses dois países, muitos jovens com acesso à educação apresentam reivindicações sobre o direito à diferença e que sejam levadas em conta suas demandas sociais pelo poder central desses países.”
O estudioso considera que “há progressos econômicos tanto no Brasil quanto na Turquia, e esses movimentos de contestação se dão em um contexto bem diferente do que ocorreu na França, cujo crescimento econômico tem sido mínimo ou nulo nos últimos anos”.

Para o sociólogo “o que está acontecendo no Brasil se parece mais com o Maio de 68”. “Naquela época a França vivia em pleno Les Trente Glorieuses [como ficaram conhecidas as três décadas de crescimento e prosperidade no pós-Guerra], e a juventude, com trabalho ou diplomas, mergulhou numa luta para que seu modo de vida e aspirações fossem reconhecidos pelo governo”, recorda.

Bolsa Família enfraquece o coronelismo e rompe cultura da resignação, diz socióloga (FSP)

11/06/2013 – 10h37

ELEONORA DE LUCENA
DE SÃO PAULO

Dez anos após sua implantação, o Bolsa Família mudou a vida nos rincões mais pobres do país: o tradicional coronelismo perde força e a arraigada cultura da resignação está sendo abalada.

A conclusão é da socióloga Walquiria Leão Rego, 67, que escreveu, com o filósofo italiano Alessandro Pinzani, “Vozes do Bolsa Família” (Editora Unesp, 248 págs., R$ 36). O livro será lançado hoje, às 19h, na Livraria da Vila do shopping Pátio Higienópolis. No local, haverá um debate mediado por Jézio Gutierre com a participação do cientista político André Singer e da socióloga Amélia Cohn.

Durante cinco anos, entre 2006 e 2011, a dupla realizou entrevistas com os beneficiários do Bolsa Família e percorreu lugares como o Vale do Jequitinhonha (MG), o sertão alagoano, o interior do Maranhão, Piauí e Recife. Queriam investigar o “poder liberatório do dinheiro” provocado pelo programa.

Aproveitando férias e folgas, eles pagaram do próprio bolso os custos das viagens. Sem se preocupar com estatística, a pesquisa foi qualitativa e baseada em entrevistas abertas.

Professora de teoria da cidadania na Unicamp, Rego defende que o Bolsa Família “é o início de uma democratização real” do país. Nesta entrevista, ela fala dos boatos que sacudiram o programa recentemente e dos preconceitos que cercam a iniciativa: “Nossa elite é muito cruel”, afirma.

Socióloga Walquiria Leão Rego, uma das autoras do livro sobre o Bolsa Família, que será lançado hoje, às 19h, na Livraria da Vila, em SPWalquiria Leão Rego, uma das autoras do livro sobre o Bolsa Família, que será lançado hoje, às 19h, na Livraria da Vila, em SP. Karime Xavier-31.mai.13/Folhapress

Folha – Como explicar o pânico recente no Bolsa Família? Qual o impacto do programa nas regiões onde a sra. pesquisou?

Walquiria Leão Rego – Enorme. Basta ver que um boato fez correr um milhão de pessoas. Isso se espalha pelos radialistas de interior. Elas [as pessoas] são muito frágeis. Certamente entraram em absoluto desespero. Poderia ter gerado coisas até mais violentas. Foi de uma crueldade desmesurada. Foi espalhado o pânico entre pessoas que não têm defesa. Uma coisa foi a medida administrativa da CEF (Caixa Econômica Federal). Outra coisa é o que a policia tem que descobrir: onde começou o boato. Fiquei estupefata. Quem fez isso não tem nem compaixão. Nossa elite é muito cruel. Não estou dizendo que foi a elite, porque seria uma leviandade.

Como assim?

Tem uma crueldade no modo como as pessoas falam dos pobres. Daí aparecem os adolescentes que esfaqueiam mendigos e queimam índios. Há uma crueldade social, uma sociedade com desigualdades tão profundas e tão antigas. Não se olha o outro como um concidadão, mas como se fosse uma espécie de sub-humanidade. Certamente essa crueldade vem da escravidão. Nenhum país tem mais de três séculos de escravidão impunemente.

Qual o impacto do Bolsa Família nas relações familiares?

Ocorreram transformações nelas mesmas. De repente se ganha uma certa dignidade na vida, algo que nunca se teve, que é a regularidade de uma renda. Se ganha uma segurança maior e respeitabilidade. Houve também um impacto econômico e comercial muito grande. Elas são boas pagadoras e aprenderam a gerir o dinheiro após dez anos de experiência. Não acho que resolveu o problema. Mas é o início de uma democratização real, da democratização da democracia brasileira. É inaceitável uma pessoa se considerar um democrata e achar que não tenha nada a ver com um concidadão que esteja ali caído na rua. Essa é uma questão pública da maior importância.

O Bolsa Família deveria entrar na Constituição?

A constitucionalização do Bolsa Família precisava ser feita urgentemente. E a renda tem que ser maior. Esse é um programa barato, 0,5% do PIB. Acho, também, que as pessoas têm direito à renda básica. Tem que ser uma política de Estado, que nenhum governo possa dizer que não tem mais recurso. Mas qualquer política distributiva mexe com interesses poderosos.

A sra. poderia explicar melhor?

Isso é histórico. A elite brasileira acha que o Estado é para ela, que não pode ter esse negócio de dar dinheiro para pobre. Além de o Bolsa Família entrar na Constituição, é preciso ter outras políticas complementares, políticas culturais específicas. É preciso ter uma escola pensada para aquela população. É preciso ter outra televisão, pois essa é a pior possível, não ajuda a desfazer preconceitos. É preciso organizar um conjunto de políticas articuladas para formar cidadãos.

A sra. quer dizer que a ascensão é só de consumidores?

As pessoas quando saem desse nível de pobreza não se transformam só em consumidores. A gente se engana. Uma pesquisadora sobre o programa Luz para Todos, no Vale do Jequitinhonha, perguntou para um senhor o que mais o tinha impactado com a chegada da luz. A pesquisadora, com seu preconceito de classe média, já estava pronta para escrever: fui comprar uma televisão. Mas o senhor disse: ‘A coisa que mais me impactou foi ver pela primeira vez o rosto dos meus filhos dormindo; eu nunca tinha visto’. Essa delicadeza… a gente se surpreende muito.

O que a surpreendeu na sua pesquisa?

Quando vi a alegria que sentiam de poder partilhar uma comida que era deles, que não tinha sido pedida. Não tinham passado pela humilhação de pedi-la; foram lá e compraram. Crianças que comeram macarrão com salsicha pela primeira vez. É muito preconceituoso dizer que só querem consumir. A distância entre nós é tão grande que a gente não pode imaginar. A carência lá é tão absurda. Aprendi que pode ser uma grande experiência tomar água gelada.

Li que a sra. teria apurado que o Bolsa Família, ao tornar as mulheres mais independentes, estava provocando separações, uma revolução feminina. Mas não encontrei isso no livro. O que é fato?

É só conhecer um pouco o país para saber que não poderia haver entre essas mulheres uma revolução feminista. É difícil para elas mudar as relações conjugais. Elas são mais autônomas com a Bolsa? São. Elas nunca tiveram dinheiro e passaram a ter, são titulares do cartão, têm a senha. Elas têm uma moralidade muito forte: compram primeiro a comida para as crianças. Depois, se sobrar, compram colchão, televisão. É ainda muito difícil falar da vida pessoal. Uma ou outra me disse que tinha vontade de se separar. Há o problema de alcoolismo. Esses processos no Brasil são muito longos. Em São Paulo é comum a separação; no sertão é incomum. A família em muitos lugares é ampliada, com sogra, mãe, cunhado vivendo muito próximos. Essa realidade não se desfaz.

Mas há indícios de mudança?

Indícios, sim. Certamente elas estão falando mais nesse assunto. Em 2006, não queriam falar de sentimentos privados. Em 2011, num povoado no sertão de Alagoas, me disseram que tinha havido cinco casos de separação. Perguntei as razões. Uma me disse: ‘Aquela se apaixonou pelo marido da vizinha’. Perguntei para outra. Ela disse: ‘Pensando bem, acho que a bolsa nos dá mais coragem’. Disso daí deduzir que há um movimento feminista, meu deus do céu, é quase cruel. Não sei se dá para fazer essa relação tão automática do Bolsa com a transformação delas em mulheres mais independentes. Certamente são mais independentes, como qualquer pessoa que não tinha nada e passa a ter uma renda. Um homem também. Mas há censuras internas, tem a religião. As coisas são muito mais espessas do que a gente imagina.

O machismo é muito forte?

Sim. E também dentro delas. Se o machismo é muito percebido em São Paulo, imagina quando no chamado Brasil profundo. Lá, os padrões familiares são muito rígidos. É comum se ouvir que a mulher saiu da escola porque o pai disse que ela não precisava aprender. Elas se casam muito cedo. Agora, como prevê a sociologia do dinheiro, elas estão muito contentes pela regularidade, pela estabilidade, pelo fato de poderem planejar minimamente a vida. Mas eu não avançaria numa hipótese de revolução sexual.

O Bolsa Família mexeu com o coronelismo?

Sim, enfraqueceu o coronelismo. O dinheiro vem no nome dela, com uma senha dela e é ela que vai ao banco; não tem que pedir para ninguém. É muito diferente se o governo entregasse o dinheiro ao prefeito. Num programa que envolve 54 milhões de pessoas, alguma coisa de vez em quando [acontece]. Mas a fraude é quase zero. O cadastro único é muito bem feito. Foi uma ação de Estado que enfraqueceu o coronelismo. Elas aprenderam a usar o 0800 e vão para o telefone público ligar para reclamar. Essa ideia de que é uma massa passiva de imbecis que não reagem é preconceito puro.

E a questão eleitoral?

O coronel perdeu peso porque ela adquiriu uma liberdade que não tinha. Não precisa ir ao prefeito. Pode pedir uma rua melhor, mas não comida, que era por ai que o coronelismo funcionava. Há resíduos culturais. Ela pode votar no prefeito da família tal, mas para presidente da República, não.

Esses votos são do Lula?

São. Até 2011, quando terminei a pesquisa, eram. Quando me perguntam por que Lula tem essa força, respondo: nunca paramos para estudar o peso da fala testemunhal. Todos sabem que ele passou fome, que é um homem do povo e que sabe o que é pobreza. A figura dele é muito forte. O lado ruim é que seja muito personalizado. Mas, também, existe uma identidade partidária, uma capilaridade do PT.

Há um argumento que diz que o Bolsa Família é como uma droga que torna o lulismo imbatível nas urnas. O que a sra. acha?

Isso é preconceito. A elite brasileira ignora o seu país e vai ficando dura, insensível. Sente aquele povo como sendo uma sub-humanidade. Imaginam que essas pessoas são idiotas. Por R$ 5 por mês eles compram uma parabólica usada. Cheguei uma vez numa casa e eles estavam vendo TV Senado. Perguntei o motivo. A resposta: ‘A gente gosta porque tem alguma coisa para aprender’.

No livro a sra. cita muitos casos de mulheres que fizeram laqueadura. Como é isso?

O SUS (Sistema Único de Saúde) está fazendo a pedido delas. É o sonho maior. Aliás, outro preconceito é dizer que elas vão se encher de filhos para aumentar o Bolsa Família. É supor que sejam imbecis. O grande sonho é tomar a pílula ou fazer laqueadura.

A sra. afirma que é preconceito dizer que as pessoas vão para o Bolsa Família para não trabalhar. Por quê?

Nessas regiões não há emprego. Eles são chamados ocasionalmente para, por exemplo, colher feijão. É um trabalho sem nenhum direito e ganham menos que no Bolsa Família. Não há fábricas; só se vê terra cercada, com muitos eucaliptos. Os homens do Vale do Jequitinhonha vêm trabalhar aqui por salários aviltantes. Um fazendeiro disse para o meu marido que não conseguia mais homens para trabalhar por causa do Bolsa Família. Mas ele pagava R$ 20 por semana! O cara quer escravo. Paga uma miséria por um trabalho duro de 12, 16 horas, não assina carteira, é autoritário, e acha que as pessoas têm que se submeter a isso. E dizem que receber dinheiro do Estado é uma vergonha.

Há vontade de deixar o Bolsa Família?

Elas gostariam de ter emprego, salário, carteira assinada, férias, direitos. Há também uma pressão social. Ouvem dizer que estão acomodadas. Uma pesquisa feita em Itaboraí, no Rio de Janeiro, diz que lá elas têm vergonha de ter o cartão. São vistas como pobres coitadas que dependem do governo para viver, que são incapazes, vagabundas. Como em “Ralé”, de Máximo Gorki, os pobres repetem a ideologia da elite. A miséria é muito dura.

A sra. escreve que o Bolsa Família é o inicio da superação da cultura de resignação? Será?

A cultura da resignação foi muito estudada e é tema da literatura: Graciliano Ramos, João Cabral de Melo Neto, José Lins do Rego. Ela tem componente religioso: ‘Deus quis assim’. E mescla elementos culturais: a espera da chuva, as promessas. Essa cultura da resignação foi rompida pelo Bolsa Família: a vida pode ser diferente, não é uma repetição. É a hipótese que eu levanto. Aparece uma coisa nova: é possível e é bom ter uma renda regular. É possível ter outra vida, não preciso ver meus filhos morrerem de fome, como minha mãe e minha vó viam. Esse sentimento de que o Brasil está vivendo uma coisa nova é muito real. Hoje se encontram negras médicas, dentistas, por causa do ProUni (Universidade para Todos). Depois de dez anos, o Bolsa Família tem mostrado que é possível melhorar de vida, aprender coisas novas. Não tem mais o ‘Fabiano’ [personagem de “Vidas Secas”], a vida não é tão seca mais.

“VOZES DO BOLSA FAMÍLIA”
AUTOR Walquiria Leão Rego e Alessandro Pinzani
EDITORA Editora Unesp
QUANTO R$ 36 (248 págs.)
LANÇAMENTO hoje, às 19h, na Livraria da Vila – Shopping Higienópolis (av. Higienópolis, 618; tel. 0/xx/11/3660-0230)