Arquivo da tag: Capitalismo

The India Problem (Slate)

Why is it thwarting every international climate agreement?

NOV. 27 2013 12:44 PM

By 

Haze in Mumbai, 2009

India has stalled international greenhouse gas accords because climate change isn’t a winning election issue in the developing country. 

Photo by Arko Datta/Reuters

Apowerful but unpredictable force is rising in the battle over the future of the climate. It’s the type of powerful force that’s felt when 1.2 billion people clamor for more electricity—many of them trying to light, heat, and refrigerate their ways out of poverty; others throwing rupees at excessive air conditioning and other newfound luxuries. And it’s the type of unpredictable force that’s felt when the government of those 1.2 billion is in election mode, clamoring for votes by brazenly blocking progress at international climate talks.

Hundreds of millions of Indians live in poverty, wielding a tiny per-person carbon footprint when compared with residents of the West and coming out on top of environmental sustainability surveys. But the country is home to so many people that steady economic growth is turning it into a climate-changing powerhouse. It has developed a gluttonous appetite for coal, one of the most climate-changing fuels and the source of nearly two-thirds of the country’s power. India recently overtook Russia to become the world’s third-biggest greenhouse gas polluter, behind China and the United States. (If you count the European Union as a single carbon-belching bloc, then India comes in fourth).

India has been obstructing progress on international climate talks, culminating during the two weeks of U.N. Framework Convention on Climate Change negotiations that ended Saturday in Warsaw. The Warsaw talks were the latest annual get-together for nearly 200 countries trying to thrash out a new climate treaty to replace the Kyoto Protocol.

India’s erraticism at international climate talks is frustrating the West. But it is also starting to anger some developing nations struggling to cope with violent weather, droughts, and floods blamed on climate change.

India’s stance during climate talks is that developed countries should be legally committed to addressing global warming by reducing their greenhouse gas emissions, and that developing countries should do what they say they can do to help out.

But once-clear distinctions between developed and developing countries are blurring. A growing number of developing countries—including low-lying island states in the Pacific and some countries in Africa and Latin America with which India has long been allied—are eyeing the vast, growing, climate-changing pollution being pumped out by China and India. They are wondering why those two countries, and others in the “developing” camp, shouldn’t also be committed to reducing their emissions.

The Warsaw meetings ended with India and China thwarting efforts by the United States, Europe, and others to commit all countries to measures to address greenhouse gas pollution. Instead, countries agreed in Warsaw to announce their “intended contributions” to slow down global warming in 2015, in advance of final meetings planned in Paris to agree on the new climate treaty.

“Developing countries are a varied group at this stage, and there is a growing frustration about the inability to move forward from some of these countries,” said Jake Schmidt, international climate policy director for the Natural Resources Defense Council, who attended the Warsaw meetings. “Some of their anger is directed at the U.S. and Europe, but more and more of their anger is quietly being directed at friends in the developing world that they see as stalling progress.”

And no country has done more than India to stall progress on international climate negotiations during the past two months.

It began last month in Bangkok, when negotiators met to update the Montreal Protocol. Signed in the late 1980s, the protocol saved the ozone layer by ending the use of chlorofluorocarbons in refrigerants, household goods, and industrial products. The problem was, manufacturers often swapped out CFCs for a closely related group of chemicals called hydrofluorocarbons. HFCs don’t hurt the ozone layer, but it turns out that they are potent greenhouse gases. With climate change now the most important global environmental challenge, the United States and a long list of other countries have proposed amending the Montreal Protocol to phase out the use of HFCs.

All seemed to be going well with the plans for those amendments. India and the other members of the Group of 20 endorsed the proposal during September meetings in Russia. A couple of weeks later, Indian Prime Minister Manmohan Singh reiterated the country’s support for the amendments during meetings with President Obama.

But when international representatives gathered for meetings in Bangkok to actually make the amendments, they were surprised and angered to find the negotiations blocked by India. The country’s environment officials told Indian media that they were worried about the costs associated with switching over to new coolants. What may have worried them even more was the fear of being accused of opening the door for foreign air conditioning and fridge companies to take over domestic markets.

If there’s one thing that no Indian government up for re-election in the current political climate would want, it’s to be seen giving an inch to America on trade.

Then came Warsaw. Extensive negotiations around agriculture had been scheduled for the first of the two weeks of meetings. Farming causes about a fifth of greenhouse gas emissions, due in part to land clearing, energy use, and the methane that bubbles up from rice paddies and is belched out by cattle.

But that’s not what drew farming representatives to Warsaw. Farmers are the hardest hit by changes in the weather—which should help them secure a chunk of the hundreds of billions of dollars in climate aid that a new climate treaty is expected to deliver for poor countries. But India, which is home to farms that are struggling to cope with changing rainfall patterns, spearheaded a maneuver that blocked agricultural negotiations from moving forward. Its negotiators feared that negotiations over farmer adaptation efforts would lead to requests that those farmers also reduce their carbon footprints.

“India has been very clear that agriculture is the mainstay of our population, and we don’t want any mitigation targets there,” said Indrajit Bose, a climate change program manager at the influential Delhi-based Centre for Science and Environment, who attended the Warsaw meetings. “It’s a red line for India, and I think we agree with that.”

During the second week of Warsaw talks, India again blocked progress on HFC reductions, and it worked with China to water down the meeting’s most important agreement on the final day of talks.

Despite instances of Chinese obstructionism at Warsaw, China and the United States have been making headlines during the past week for their blossoming mutual commitment to tackling climate change. Now India appears to be supplanting China as the developing world’s chief climate agitator, even as it takes real steps to boost renewable energy production at home and meet voluntary goals to reduce the “emission intensity” of its economy. (Meanwhile, Japan, Australia, and Canada are taking America’s mantle as the developed world’s chief climate antagonists.)

The India problem isn’t limited to climate talks. Early this year India helped dilute an international agreement that had been crafted to reduce mercury pollution—a major problem with coal-fired power plants.

Before the country’s environment minister was replaced during a mid-2011 Cabinet reshuffle, India had been hailed as a constructive leader during international climate talks. Now it’s being accused of foot-dragging, obstructionism, and flip-flopping.

Recent Indian shenanigans on the global climate stage are partly a reflection of the fact that a federal election will be held in the spring. Such elections are held every five years, and frantic campaigning by long lists of parties occupies many of the months that precede them. In India, despite the country’s acute vulnerability to climate change, the climate is simply not an election issue. BBC polling suggests that 39 percent of Indians have never heard about “climate change.” Indian voters are calling for more affordable energy—not for a reduction in greenhouse gas emissions.

And India, like other developing countries, has been angered by what appears to be reluctance by developed countries to lend a meaningful financial hand as the climate goes awry. A cruel irony of climate change is that the poor countries that did the least to warm the planet are often the hardest hit, vulnerable to rising tides, crop-wilting droughts, and powerful storms. During the talks in Warsaw, Western countries were suddenly balking at previously promised climate aid that would have been worth $100 billion a year by 2020. And developed countries have fobbed off developing countries’ appeals for additional compensation, so-called loss-and-damage payments, when climate change has harmed their people and economies.

It’s not just the electioneering in India that’s causing problems for global climate talks. Another problem seems to be how little press attention the country receives on foreign shores. “There’s not a lot of focus on India anywhere,” said Manish Ram, a renewable-energy analyst for Greenpeace India who attended the Warsaw meetings. “That’s one of the reasons India gets away with doing what it’s been doing.”

Pan-Amazônia à brasileira (Agência Pública)

Ambiente
02/12/2013 – 11h07

por Bruno Fonseca e Jessica Mota, para a Agência Pública

gasoduto Pan Amazônia à brasileira

Gasoduto de Camisea no Peru. Foto: Divulgação Skanska

Obras negociadas pelo BNDES na Amazônia sul-americana incluem hidrelétrica com rachaduras, gasoduto com vazamentos e rodovia que estremeceu a presidência da Bolívia.

Na vertente leste da Cordilheira dos Andes, início da Amazônia Peruana, o dinheiro brasileiro começa a erguer uma barragem de 200 metros de altura – e trata-se de muito dinheiro. São mais de US$ 320 milhões em empréstimos do Banco Nacional de Desenvolvimento Econômico e Social (BNDES), quantia que representa mais de um quarto do custo total da bilionária hidrelétrica de La Chaglla, que será uma das três maiores usinas do Peru em 2015, quando deve ser concluída.

Quem toca as obras, no Rio Huallaga, a mais de 400 km da capital, Lima, é a gigante brasileira Odebrecht. A usina é uma peça importante para a Odebrecht, que tem olhos especiais para o território peruano, onde atua há 33 anos e possui ao menos outros nove empreendimentos (AQUI AQUI) em execução, desde rodovias a gasodutos e portos.

Há razões de sobra para justificar o interesse da Odebrecht no Peru. As licitações para megaempreendimentos são menos concorridas no país vizinho que em terras brasileiras, onde há mais empreiteiras a disputar o filão. Tomemos como exemplo a própria usina de La Chaglla. Simplesmente não houve concorrência na licitação. Segundo reportagem da revista Carta Capital, o único adversário possível, a empresa peruana Chancadora Centauro, desistiu ainda na fase de estudos, alegando não ter condições de cumprir o prazo.

A conexão com a costa oeste do Peru é também um caminho precioso para os produtos brasileiros atingirem o Oceano Pacífico. Assim, uma empreiteira como a Odebrecht passa a contar com o apoio de outras empresas brasileiras que, por sua vez, ainda podem trazer consigo o suporte de financiadores públicos para grandes empreendimentos. É este o caso dos investimentos no porto de Bayovar, construído pela Odebrecht a partir de dinheiro da mineradora Vale para escoar sua produção de fosfato a partir de uma mina cujos investimentos chegaram a mais de US$ 560 milhões de dólares. (AQUI) A Vale, por sua vez, trouxe a Andrade Gutierrez, que conseguiu dinheiro do BNDES para construção de uma usina de dessalinização da água fornecida à mina. O BNDES, como de costume, não revela quanto repassou à Andrade Gutierrez através do fomento à contratação pós-embarque (leia mais sobre a falta de transparência do BNDES aqui).

Já na costa leste, a Amazônia Peruana é uma área estratégica para a produção de energia. Estratégica porque a alta declividade em algumas regiões permite represas com menor área de inundação e maior potencial energético. Mas também porque possibilita a venda de energia para o Brasil e, com isso, conquista o coração de financiadores públicos do porte do BNDES. Tanto é que, em 2010, Brasil e Peru firmaram um acordo energético para construção de hidrelétricas em território peruano para exportar energia para o Brasil (AQUI), consolidação de um namoro que começou em 1997 a partir de um memorando de entendimento sobre cooperação em energia (AQUI).

Em contato com a Pública, o BNDES, entretanto, se recusou a comentar quais projetos de hidrelétricas peruanas estariam sendo avaliados pelo banco. “O BNDES não faz comentários sobre se um projeto está ou não sendo analisado pela instituição. Podemos dizer apenas que nenhum daqueles projetos foi até o momento aprovado ou contratado pelo BNDES”, informou a assessoria, depois de uma evasiva troca de 27 e-mails com a Pública.

Fato é que, em 2011, a pressão de comunidades indígenas levou a Odebrecht a desistir da construção da usina de Tambo 40, na região Central do país, que seria financiada pelo BNDES. Os grupos populares contestavam a previsão de alagamento de 73 mil hectares de florestas amazônicas e o deslocamento de 14 mil pessoas (AQUI). A hidrelétrica seria construída pela brasileira OAS.

perfuracao Pan Amazônia à brasileira

Perfuração de túnel nas obras da Hidrelétrica-de Chaglla, no Peru. Foto: Divulgação Odebrecht

BNDES financia exploração de gás e tragédia ambiental no Peru

O projeto de gás Camisea, no departamento de Cuzco, na Amazônia peruana, próxima ao estado do Acre, foi iniciado em 2003 por uma parceria público-privada, com grande aporte de financiamento do Banco Interamericano de Desenvolvimento (BID). Localizado em uma região próxima a comunidades indígenas – como a Reserva Territorial Kugapakori, Nahua, Nanti (RTKN), onde vivem os índios Nahua, Nanti, Matsigenka e Mashco-Piro – o projeto foi visto com preocupação por ambientalistas. O objetivo era transportar gás natural e líquidos de gás natural até a área costeira do Peru, no Oceano Pacífico.

O Consórcio Camisea é liderado pela argentina Pluspetrol, junto à Repsol-YPF, Sonatrach, Hunt Oil, Techpetrol e SK Energy. Durante os primeiros anos de desenvolvimento do projeto, ocorrerm seis vazamentos de gás. Glenn Shepard, antropólogo e etno-botânico convidado pelo Import-Export Bank, dos Estados Unidos a integrar um painel de estudo – o South Peru Panel – sobre o projeto, como condição de empréstimo do banco à Hunt Oil, esteve na região durante duas semanas no final de 2011. Em seu blog, o especialista comentou o descaso com infraestrutura na região, que não tem nem saneamento básico, e ressaltou o que lhe disse um morador local: “não há vida para viver. Sem peixe, não há nada. A água está contaminada. Há muitas doenças”. (Leia o informe do antropólogo AQUIe o último relatório lançado pelo painel AQUI, ambos em inglês)

O BID chegou a realizar duas auditorias, e fez um empréstimo de US$5 milhões para o governo, destinado a fortalecer seu sistema de proteção ambiental e social associado ao projeto, de acordo com o próprio banco. A segunda parte do projeto recebeu aprovação de financiamento do Banco Interamericano em 2007 – não sem protestos de organizações ambientais, que alegaram omissão a certos critérios nas auditorias realizadas pelo BID, referentes a danos à biodiversidade e comunidades indígenas.

Em 2009, o BNDES aprovou um empréstimo para exportação da Confab Industrial S/A com destino à Transportadora de Gás do Peru, na modalidade de buyer’s credit, na qual o banco estabelece o contrato diretamente com a empresa importadora, por meio do exportador. Como sempre, o valor não é divulgado pelo banco. Este ano, o caso culminou em uma crise no governo peruano, com pedido de demissão do então vice-ministro de Interculturalidade do Peru, Paulo Vilca (leia mais AQUI).

BNDES na Bolívia: ex-ministro aponta má fama de empresas brasileiras

Os problemas envolvendo obras de empreiteiras brasileiras financiadas pelo BNDES se estendem pela região amazônica de outros países da América do Sul. Talvez um dos mais notórios exemplos é a construção da estrada San Ignacio de Moxos / Villa Tunari, na Bolívia – obra que se tornou um fiasco político e diplomático.

A estrada, também conhecida como rodovia Cochabamba-Beni, é um antigo antigo projeto do governo boliviano que cobria mais de 300 km, mas tomou corpo depois do BNDES firmar um contrato de US$ 332 milhões, através da aliança do então presidente Lula e o mandatário boliviano Evo Morales (AQUI). Faltaria à Bolívia apenas completar US$ 80 milhões para bancar a obra.

A construção da estrada foi entregue à empreiteira brasileira OAS em meio a uma delicada situação: pouco antes, a construtora brasileira Queiroz Galvão havia sido expulsa por não cumprir especificações do projeto de construção de duas rodovias no sul da Bolívia. As estradas apresentavam rachaduras nas obras e utilização de asfalto no lugar de cimento, segundo apontou o governo boliviano em 2007. A Bolívia chegou a decretar a prisão de um dos diretores da companhia, que escapou do país.

A situação foi revertida após negociações entre Brasil e Bolívia, mas novamente a Queiroz Galvão foi expulsa após divergências no custo de conserto das duas rodovias. A empresa afirmou por nota, na época, que iria buscar ressarcimento pelos danos pela “rescisão unilateral e injustificada do contrato pela Administradora Boliviana de Estradas”.

Após a desastrosa operação, a OAS assumiu o contrato de reparo das estradas e, coincidentemente, venceu a licitação para a construção da rodovia San Ignacio de Moxos / Villa Tunari na mesma época.

Apenas dois anos depois, em 2009, a OAS passou a ser investigada pela Controladoria-Geral da Bolívia após avaliações oficiais apontarem superfaturamento na estrada de Villa Tunari. Um estudo da Sociedade dos Engenheiros da Bolívia (SIB, em espanhol) afirmou que o preço de cada quilômetro era o dobro de outras obras na Bolívia, em locais de topografia similar. Além disso, a OAS foi a única empresa a participar da licitação.

Como se não bastasse, um trecho da rodovia passava dentro das terras do Parque Nacional y Territorio Indígena Isiboro-Secure (TIPNIS). O resultado: em agosto de 2011, a Confederação de Povos Indígenas da Bolívia (CIDOB) e outras organizações iniciaram uma marcha em oposição ao projeto, que durou meses e enfrentou prisões e espancamentos de manifestantes. A pressão popular foi tão intensa que balançou o primeiro governo de um indígena no país vizinho e, em outubro do mesmo ano, Evo Morales acabou promulgando uma Lei que impedia a rodovia de passar por TIPNIS e o declarava como território intangível.

O imbróglio acabou com o cancelamento do contrato com a OAS e o desgaste foi tamanho que, através da sua assessoria de imprensa, a empresa afirmou que atualmente não possui nenhum outro empreendimento na Bolívia.

O BNDES também foi afetado pela polêmica, e teve de publicar nota oficial afirmando que o banco havia determinado o cumprimento de todas as exigências ambientais cabíveis para que fosse firmado o contrato de financiamento à exportação de bens e serviços utilizados na estrada boliviana. “A assinatura do contrato foi condicionada às exigências usuais do BNDES, além de requisitos adicionais, elaborados em coordenação com o governo boliviano e fiscalizados por auditoria independente. Nos trechos da estrada que não passam por reserva indígena, o licenciamento ambiental já foi concluído, o que permitiu o início das obras”. Nenhum desembolso foi realizado pelo banco, visto que o contrato foi cancelado.

Mas, para Alejandro Almaraz, que foi vice-ministro de Terras do governo de Evo Morales até 2010 – e hoje é um dos maiores opositores da obra – todo o caso envolvendo a estrada do TIPNIS demonstra uma postura prejudicial das empresas brasileiras para com o povo boliviano, com conivência do governo local. “A imagem da empresa brasileira ficou muito desgastada, entretanto não é algo tão chamativo por não se tratar de nenhuma novidade. Está é a tradicional imagem das empresas construtoras brasileiras na Bolívia. Há várias décadas as empresas brasileiras têm uma espécie de monopólio na construção de estradas bolivianas, ao menos das grandes. Sempre houve esse tipo de denúncias, com bastante fundamento, mostrando superfaturamentos que beneficiam as empresas brasileiras. Isto é uma história eterna”, critica.

Para Almaraz, há pouca transparência sobre o tema na Bolívia. “Se abriu um processo judicial que, como tantos outros que envolvem agentes do governo, está congelado. Recentemente, pouco se fala [sobre o caso] na Bolívia e na imprensa. Tampouco há transparência sobre os ressarcimentos [entre a empresa brasileira e o governo boliviano] e na resolução do contrato” avalia.

Atualmente, a rodovia San Ignacio de Moxos / Villa Tunari segue em construção – exceto pelo trecho que passaria por TIPNIS – por empresas bolivianas. Entretanto, o governo boliviano vem realizando consultas com as populações afetadas para tentar retomar a construção do trecho (leia mais AQUI).

Imbróglios diplomáticos

Em 2004, o BNDES aprovou financiamento referente à exportação de bens e serviços da Odebrecht para a construção da hidrelétrica de San Francisco, na província amazônica de Pastaza, no Equador. O consórcio construtor contou também com as internacionais Alstom e Vatech.

A usina começou a operar em 2007, e no ano seguinte apresentou as primeiras falhas, que incluíam rachaduras em um dos túneis e defeitos em uma turbina. De seu lado, a Odebrecht afirmou que “durante seu primeiro ano de operação, a Central (hidrelétrica) trabalhou continuamente, sob a responsabilidade de empresa do governo equatoriano, e acima da capacidade projetada”, segundo comunicado. A empresa ainda alegou que as falhas se deviam a um aumento significativo de sedimentos” nas águas do rio Pastaza devido à erupção do vulcão Tungurahua, a 20 quilômetros da usina. Por outro lado, o governo equatoriano de Rafael Correa afirmou que a usina hidrelétrica apresentava “falhas estruturais” e exigiu uma indenização de US$ 43 milhões pelas perdas, além da reparação da obra.

A crise culminou com a emissão de dois decretos de Correa que pediam a tomada dos bens da construtora, o término de todos os contratos da empresa no país e expulsão de seus funcionários do território equatoriano. Foi o início de uma crise bilateral entre o Equador e o Brasil, com a declaração de que o governo de Correa não pagaria o crédito fornecido pelo BNDES para a importação dos serviços da Odebrecht para a concessionária equatoriana. Ao fim, o Equador voltou atrás, pagou o financiamento e, em 2010, entrou em acordo com a Odebrecht, que retomou suas operações no país.

mapa Pan Amazônia à brasileira

Mapa Investimentos negociados pelo BNDES na Pan-Amazônia

Como saber o que o BNDES faz na Pan-Amazônia?

Os diversos casos de conflitos socioambientais envolvendo os megaempreendimentos tocados por empresas brasileiras vêm se acumulando, e lançando dúvidas sobre a atuação das corporações brasileiras na Amazônia sulamericana – problema que se estende aos financiadores, sobretudo às instituições públicas como o BNDES, que, supostamente, deveria primar pelo desenvolvimento regional antes de abraçar tais projetos.

A situação se torna ainda mais dramática devido à dimensão dos investimentos do BNDES na região. Desde o início do governo Lula, o banco investiu mais de US$ 2 bilhões em apoios à exportação de empresas brasileiras somente para países que abarcam a Amazônia internacional (Bolívia, Colômbia, Equador, Bolívia e Venezuela). O principal país beneficiado é a Venezuela, que recebeu mais de dois terços desse valor (cerca de US$ 1,4 bi).

Toda essa quantia pode ser ainda maior, visto que o BNDES divulga apenas os números das exportações da modalidade de pós-embarque (quando o banco apoia a comercialização de bens e serviços nacionais no exterior), deixando de divulgar as cifras da modalidade de pré-embarque (quando o banco apoia a produção no Brasil das mercadorias que serão exportadas).

Além disso, o BNDES não disponibiliza uma lista clara de quais projetos no exterior foram ou estão sendo apoiados ou negociados pela instituição. A Pública enviou uma lista ao banco com quase 30 projetos, apenas da Pan-Amazônia (veja abaixo), que em algum momento haviam sido assinalados pela imprensa como destinos de financiamento do BNDES. Apenas o projeto da hidrelétrica de Chaglla foi confirmado pelo banco – a todos os demais, o BNDES se recusou a comentar, ainda que alguns deles tivessem documentos do Itamaraty que comprovavam o interesse do Governo Brasileiro em financiar obras bilaterais através do banco. O BNDES também se recusou a comentar quais motivos poderiam ter levado ao cancelamento do financiamento desses projetos e até mesmo se o banco ainda estaria em processo de avaliação dos contratos. Ou seja, o BNDES e o Governo Federal argumentam sigilo bancário para negar uma gama gigantesca de informações – desde negociações em curso até valores e projetos beneficiadas – e defender que o sigilo tem supremacia sobre o direito à informação da sociedade brasileira.

Veja a lista de projetos enviada à assessoria de imprensa do BNDES no link original da matéria.

A série BNDES na Amazônia é uma parceria da Agência Pública com O Eco.

** Publicado originalmente no site Agência Pública.

Brazilian Soccer Is Too Big To Fail (Bloomberg)

Brazil Soccer

Brazil’s Sao Paulo players react after losing their 2013 Copa Sudamericana semifinal first leg football match against Brazil’s Ponte Preta at Morumbi stadium on Nov. 20, 2013. Photographer: Nelson Almeida/AFP via Getty Images

By Raul Gallegos Nov 22, 2013 4:22 PM GMT-0200

To understand Brazil’s economic woes, one should consider how politics has ruined the country’s most venerated sport.

It’s no secret that the economics of the Brazilian soccer world are dysfunctional. For the most part, teams are poorly run, member-controlled organizations with histories of financial mismanagement, run by overpaid managers with little accountability. For years, soccer clubs stopped paying taxes and evaded social security obligations. And the government often rescued them from financial failure — as it may be about to do again.

According to an October piece in the Folha de S. Paulo newspaper, Brazil’s soccer clubs have run up a 4.8 billion reais ($2.1 billion) tab with the federal government. Approximately 36 percent of the total debt owed by clubs is due in the short term, according to an Oct. 25 analysis by consulting firm Pluri Consultoria. Soccer teams are heavily leveraged, and their profitability (the average profitability of the top 25 teams is 0.7 percent of annual sales) is almost nonexistent. “It is possible to say, with no shadow of a doubt, that soccer clubs would not be standing” if they operated as companies, Pluri warned.

As Vilson Ribeiro de Andrade, president of the Coritiba Foot Ball Club — a debtor — said in the Folha article, the government’s bill is “virtually unrecoverable.” This is not flattering for a country that boasts five FIFA World Cup titles and is set to host the event next year.

And so, legislators are considering a controversial new proposal that would absolve the game’s worst tax cheats. The disarmingly named “Program for the Strengthening of Olympic Sports” law proposal would apparently wipe out about 90 percent of the clubs’ fiscal debts and allow teams as long as 20 years to pay off the remainder of what they owe. In exchange, soccer clubs would be obligated to help train Olympic athletes.

Letting clubs off so easily does not sit well with some. In an editorial Monday, Folha demanded that the teams should at least agree to adopt standard business-management practices and make officials accountable for mismanagement in exchange for debt forgiveness. “The debts are not responsible for causing the administrative negligence of the clubs — but the other way around,” the editorial said.

Henrique Alves, president of Brazil’s Chamber of Deputies, gave a rather weak excuse for the proposed bailout last week: “Soccer, especially, is a source of happiness, socialization and integration of the Brazilian family.” Alves’s transparent move to rescue the sector suggests that Brazil’s soccer teams have also mastered the game of politics.

In a soccer-obsessed nation, politicians fear losing voters if they push teams to own up to their fiscal mistakes. Squeezing clubs financially could hurt their ability to hire talent and weaken their performance. This could prove unpopular with Brazil’s poor, for whom soccer is not just entertainment, but also a means of upward social mobility for talented players from the slums. Teams understand this political reality and have long taken advantage of it.

This partly explains why having the state lend a hand to troubled teams is a Brazilian tradition. In 2008, Brazil’s government introduced Timemania (Team Mania), a lottery game that includes 80 teams and is meant to generate enough proceeds to help pay what clubs owe the government. In addition, Brazil has led three refinancing programs for financially strapped clubs over the past 15 years. The bill under consideration by legislators is the latest version of a recurring story.

Attempts to professionalize the sport have failed. Even legendary soccer star Pele went nowhere fast with the “Pele Law” he helped usher in when he became the country’s sports minister in the 1990s. The legislation was meant to push teams to become professional sports businesses and to regulate the relationship between players and employers. But interest groups managed to water down the law over time.

These days, even the richest teams have trouble with cash flow. When Rio de Janeiro’s Flamengo — Brazil’s fourth-largest club as ranked by 2012 revenue — struggled to pay soccer star Ronaldinho last year, the player’s agent and brother, Roberto de Assis Moreira, apparently attempted to take more than 40 items without paying, including shirts and hats, from the club’s store in protest. “Flamengo aren’t paying my brother, so I’m not paying, either,” he allegedly told the store’s staff.

Brazil’s soccer teams now feel empowered to make their own rules. The Confederacao Brasileira de Futebol, or CBF, a member organization controlled by soccer teams, suggested earlier this year that in exchange for longer repayment times, it would offer to penalize member teams that default on tax debt or delay wage payments to players. CBF suggested it could go so far as to bar noncompliant teams from games. That’s about as realistic as expecting a World Cup final to run smoothly without referees present.

Romario, the World Cup player turned lawmaker, took a shot at the absurdity of that proposal: “Do you really think that the CBF has the moral courage and the ability to make Vasco, Flamengo or Corinthians fall because they did not pay debts?” His answer: “That’s a lie. This won’t happen. This is a utopia and will not exist.”

An amendment to the Pele Law that President Dilma Rousseff signed in October, intended to increase sports teams’ financial transparency and limit the tenure of executives running sports institutions, is a good call. But rewarding clubs for their notorious incompetence is not. Brazilian politicians managed to botch the country’s economic resurgence by not getting out of the way. But on the soccer field, Brazil’s role as a strong referee is not just desirable, but also necessary.

(Raul Gallegos is the Latin American correspondent for the World View blog. Follow him on Twitter. E-mail him at rgallegos5@bloomberg.net.)

Something Is Rotten at the New York Times (Huff Post)

By Michael E. Mann

Director of Penn State Earth System Science Center; Author of ‘Dire Predictions’ and ‘The Hockey Stick and the Climate Wars’

Posted: 11/21/2013 7:20 pm

Something is rotten at the New York Times.

When it comes to the matter of human-caused climate change, the Grey Lady’s editorial page has skewed rather contrarian of late.

A couple months ago, the Intergovernmental Panel on Climate Change (IPCC) publishedits 5th scientific assessment, providing the strongest evidence to date that climate change is real, caused by us, and a problem.

Among other areas of the science where the evidence has become ever more compelling, is the so-called “Hockey Stick” curve — a graph my co-authors and I published a decade and a half ago showing modern warming in the Northern Hemisphere to be unprecedented for at least the past 1000 years. The IPCC further strengthened that original conclusion, finding that recent warmth is likely unprecedented over an even longer timeframe.

Here was USA Today on the development:

The latest report from the Intergovernmental Panel on Climate Change, the internationally accepted authority on the subject, concludes that the climate system has warmed dramatically since the 1950s, and that scientists are 95% to 100% sure human influence has been the dominant cause. In the Northern Hemisphere, 1983 to 2012 was likely the warmest 30-year period of the past 1,400 years, the IPCC found.

And here was the Washington Post:

The infamous “hockey stick” graph showing global temperatures rising over time, first slowly and then sharply, remains valid.

And the New York Times? Well we instead got this:

The [Hockey Stick] graph shows a long, relatively unwavering line of temperatures across the last millennium (the stick), followed by a sharp, upward turn of warming over the last century (the blade). The upward turn implied that greenhouse gases had become so dominant that future temperatures would rise well above their variability and closely track carbon dioxide levels in the atmosphere….I knew that wasn’t the case.

Huh?

Rather than objectively communicating the findings of the IPCC to their readers, the New York Times instead foisted upon them the ill-informed views of Koch Brothers-fundedclimate change contrarian Richard Muller, who used the opportunity to deny the report’s findings.

In fact, in the space of just a couple months now, the Times has chosen to grant Muller not just one, but two opportunities to mislead its readers about climate change and the threat it poses.

The Times has now published another op-ed by Muller wherein he misrepresented the potential linkages between climate change and extreme weather–tornadoes to be specific, which he asserted would be less of a threat in a warmer world. The truth is that the impact of global warming on tornadoes remains uncertain, because the underlying science is nuanced and there are competing factors that come into play.

The Huffington Post published an objective piece about the current state of the science earlier this year in the wake of the devastating and unprecedented Oklahoma tornadoes.

That piece accurately quoted a number of scientists including myself on the potential linkages. I pointed out to the journalist that there are two key factors: warm, moist air is favorable for tornadoes, and global warming will provide more of it. But important too is the amount of “shear” (that is, twisting) in the wind. And whether there will, in a warmer world, be more or less of that in tornado-prone regions, during the tornado season, depends on the precise shifts that will take place in the jet stream–something that is extremely difficult to predict even with state-of-the-art theoretical climate models. That factor is a “wild card” in the equation.

So we’ve got one factor that is a toss-up, and another one that appears favorable for tornado activity. The combination of them is therefore slightly on the “favorable” side, and if you’re a betting person, that’s probably what you would go with. And this is the point that I made in the Huffington Post piece:

Michael Mann, a climatologist who directs the Earth System Science Center at Pennsylvania State University, agreed that it’s too early to tell.

“If one factor is likely to be favorable and the other is a wild card, it’s still more likely that the product of the two factors will be favorable,” said Mann. “Thus, if you’re a betting person — or the insurance or reinsurance industry, for that matter — you’d probably go with a prediction of greater frequency and intensity of tornadoes as a result of human-caused climate change.”

Now watch the sleight of hand that Muller uses when he quotes me in his latest Times op-ed:

Michael E. Mann, a prominent climatologist, was only slightly more cautious. He said, “If you’re a betting person — or the insurance or reinsurance industry, for that matter — you’d probably go with a prediction of greater frequency and intensity of tornadoes as a result of human-caused climate change.”

Completely lost in Muller’s selective quotation is any nuance or context in what I had said, let alone the bottom line in what I stated: that it is in fact too early to tell whether global warming is influencing tornado activity, but we can discuss the processes through which climate change might influence future trends.

Muller, who lacks any training or expertise in atmospheric science, is more than happy to promote with great confidence the unsupportable claim that global warming will actuallydecrease tornado activity. His evidence for this? The false claim that the historical data demonstrate a decreasing trend in past decades.

Actual atmospheric scientists know that the historical observations are too sketchy and unreliable to decide one way or another as to whether tornadoes are increasing or not (see this excellent discussion by weather expert Jeff Masters of The Weather Underground).

So one is essentially left with the physical reasoning I outlined above. You would think that a physicist would know how to do some physical reasoning. And sadly, in Muller’s case, you would apparently be wrong…

To allow Muller to so thoroughly mislead their readers, not once, but twice in the space of as many months, is deeply irresponsible of the Times. So why might it be that the New York Times is so enamored with Muller, a retired physicist with no training in atmospheric or climate science, when it comes to the matter of climate change?

I discuss Muller’s history as a climate change critic and his new-found role as a media favorite in my book “The Hockey Stick and the Climate Wars” (the paperback was just released a couple weeks ago, with a new guest foreword by Bill Nye “The Science Guy”).

Muller is known for his bold and eccentric, but flawed and largely discredited astronomical theories. But he rose to public prominence only two years ago when he cast himself in theirresistible role of the “converted climate change skeptic”.

Muller had been funded by the notorious Koch Brothers, the largest current funders of climate change denial and disinformation, to independently “audit” the ostensibly dubious science of climate change. This audit took the form of an independent team of scientists that Muller picked and assembled under the umbrella of the “Berkeley Earth Surface Temperature” (unashamedly termed “BEST” by Muller) project.

Soon enough, Muller began to unveil the project’s findings: First, in late 2011, he admitted that the Earth was indeed warming. Then, a year later he concluded that the warming was not only real, but could only be explained by human influence.

Muller, in short, had rediscovered what the climate science community already knew long ago.

summarized the development at the time on my Facebook page:

Muller’s announcement last year that the Earth is indeed warming brought him up to date w/ where the scientific community was in the the 1980s. His announcement this week that the warming can only be explained by human influences, brings him up to date with where the science was in the mid 1990s. At this rate, Muller should be caught up to the current state of climate science within a matter of a few years!

The narrative of a repentant Koch Brothers-funded skeptic who had “seen the light” andappeared to now endorse the mainstream view of human-caused climate change, was simply too difficult for the mainstream media to resist. Muller predictably was able to position himself as a putative “honest broker” in the climate change debate. And he was granted a slew of op-eds in the New York Times and Wall Street Journal, headline articles in leading newspapers, and interviews on many of the leading television and radio news shows.

Yet Muller was in reality seeking to simply take credit for findings established by otherscientists (ironically using far more rigorous and defensible methods!) literally decades ago. In 1995 the IPCC had already concluded, based on work by Ben Santer and other leading climate scientists working on the problem of climate change “detection and attribution”, that there was already now a “discernible human influence” on the warming of the planet.

And while Muller has now admitted that the Earth had warmed and that human-activity is largely to blame, he has used his new-found limelight and access to the media to:

1. Smear and misrepresent other scientists, including not just me and various other climate scientists like Phil Jones of the UK’s University of East Anglia, but even the President of the U.S. National Academy of Sciences himself, Ralph Cicerone.

2. Misrepresent key details of climate science, inevitably to downplay the seriousness of climate change, whether it is the impacts on extreme weather and heat, drought, Arctic melting, or the threat to Polar Bears. See my own debunking of various falsehoods that Muller has promoted in his numerous news interviews e.g. here or here.

3. Shill for fossil fuel energy, arguing that the true solution to global warming isn’t renewable or clean energy. No, not at all! Muller is bullish on fracking and natural gas as the true solution.

To (a) pretend to accept the science, but attack the scientists and misrepresent so many important aspect of the science, downplaying the impacts and threat of climate change, while (b) acting as a spokesman for natural gas, one imagines that the petrochemical tycoon Koch Brothers indeed were probably quite pleased with their investment. Job well done. As I put it in an interview last year:

It would seem that Richard Muller has served as a useful foil for the Koch Brothers, allowing them to claim they have funded a real scientist looking into the basic science, while that scientist– Muller—props himself up by using the “Berkeley” imprimatur (UC Berkeley has not in any way sanctioned this effort) and appearing to accept the basic science, and goes out on the talk circuit, writing op-eds, etc. systematically downplaying the actual state of the science, dismissing key climate change impacts and denying the degree of risk that climate change actually represents. I would suspect that the Koch Brothers are quite happy with Muller right now, and I would have been very surprised had he stepped even lightly on their toes during his various interviews, which he of course has not. He has instead heaped great praise on them, as in this latest interview.

The New York Times does a disservice to its readers when it buys into the contrived narrative of the “honest broker”–Muller as the self-styled white knight who must ride in to rescue scientific truth from a corrupt and misguided community of scientists. Especially when that white knight is in fact sitting atop a Trojan Horse–a vehicle for the delivery of disinformation, denial, and systematic downplaying of what might very well be the greatest threat we have yet faced as a civilization, the threat of human-caused climate change.

Shame on you New York Times. You owe us better than this.

Michael Mann is Distinguished Professor of Meteorology at Pennsylvania State University and author of The Hockey Stick and the Climate Wars: Dispatches from the Front Lines (now available in paperback with a new guest foreword by Bill Nye “The Science Guy”)

Is BP “Trolling” Its Facebook Critics? (Aljazeera)

Wednesday, 20 November 2013 13:04

By Dahr JamailAljazeera English

BP.BP Critics using BP America’s Facebook page allege they have been harassed. (Erika Blumenfeld / Al Jazeera)

New Orleans – BP has been accused of hiring internet “trolls” to purposefully attack, harass, and sometimes threaten people who have been critical of how the oil giant has handled its disaster in the Gulf of Mexico.

The oil firm hired the international PR company Ogilvy & Mather to run the BP America Facebook page during the oil disaster, which released at least 4.9 million barrels of oil into the Gulf in what is to date the single largest environmental disaster in US history.

The page was meant to encourage interaction with BP, but when people posted comments that were critical of how BP was handling the crisis, they were often attacked, bullied, and sometimes directly threatened.

“Marie” was deeply concerned by the oil spill, and began posting comments on the BP America Facebook page. Today, she asks that she remain anonymous out of what she described to Al Jazeera as “fear for my personal safety should the BP trolls find out that I am the whistleblower in this case”.

In internet slang, a troll is someone who sows online discord by starting arguments or upsetting people, often posting inflammatory messages in an online community, or even issuing physical threats.

Marie sought assistance from the Government Accountability Project (GAP) in Washington DC, and has produced boxes of documents and well-researched information that may show that the people harassing BP’s critics online worked for BP or Ogilvy.

“We’d been hearing of this kind of harassment by BP when we were working on our health project [in the Gulf of Mexico], so it sparked our interest,” GAP investigator Shanna Devine told Al Jazeera. “We saw Marie’s documentation of more serious threats made on the BP page, and decided to investigate.”

According to both Marie and Devine, some of the threats began on the page, but then escalated off the page.

Threats included identifying where somebody lived, an internet troll making reference to having a shotgun and making use of it, and “others just being more derogatory”, according to Devine. “We’ve seen all this documentation and that’s why we thought it was worth bringing to the ombudsman’s office of BP, and we told them we thought some of it even warranted calling the police about.”

Death Threats

“We have thousands of documents regarding communications posted through various Facebook websites,” said certified legal investigator Steve Lockman of Levin, Papantonio, Thomas, Mitchell, Rafferty & Proctor. “In addtion, we are in possession of communications between the federal government and the ombudsman’s office of BP regarding the [harassment] Internet communications, and the federal government requesting BP to control the harassment through their Facebook page and their interactions.”

“The harassment communications are not something that BP and their people are not aware of,” Lockman told Al Jazeera. “It’s not a hidden secret that the personal attacks, broadcast abuse, and type-written harassment were happening and continue to go on.”

Marie provided the firm and Al Jazeera with files of complaint letters, computer screenshots of the abuse, and a list of Facebook profiles used by the people who harassed her and others.

According to Marie, the harassment didn’t remain on the BP page. Trolls often followed users to their personal Facebook pages and continued to harass them there.”I was called a lot of names,” Marie added. “I was called a streetwalker and a lot of things like that, and eventually had gun threats.”

“They resorted to very demeaning methods of abuse,” Marie said. “They were racist, sexist, and threatened me and others with legal action and violence. They’ve insinuated that some commenters are ‘child molesters’, and have often used the tactic of mass reporting with the goal of having their targets completely removed from Facebook.”

One troll using the name “Griffin” makes several allusions to gun violence in order to distress and harass users, even going so far as to edit a photo of a BP critic’s pet bird into the crosshairs of a gunsight, before posting the photo online – along with photos of an arsenal of semi-automatic weapons.

Another instance occurred involving “Griffin” and an environmentalist who posted a picture of a rendition of Mother Earth saying “Mother Earth Has Been Waiting for Her Day in Court, BP”. “Griffin” posted a comment to the picture that read, “A few rounds from a .50 cal will stop that b**ch”.

According to Marie, Lockman and GAP, BP’s “astroturfing” efforts and use of “trolls” have been reported as pursuing users’ personal information, then tracking and posting IP addresses of users, contacting their employers, threatening to contact family members, and using photos of critics’ family members to create false Facebook profiles, and even threatening to affect the potential outcome of individual claims.

Marie, along with several other targets of harassment, wrote and sent two letters to BP America, asking the company to respond to the allegations and deal with the matter.  Neither letter received a response, which is why Marie decided to contact GAP, as well as the law firm.

While Marie’s evidence appears to tie Ogilvy and BP together via the trolls, the law firm Lockman works for is investigating further in order to conclusively determine the extent of BP’s involvement.

Spinning the Disaster

Stephen Marino worked for Ogilvy during the BP disaster. BP had been a client of Ogilvy for five years before the spill, and when the disaster occurred, “we were responsible for all the social media for BP during the spill”, Marino said during a lecture he gave at the University of Texas, Austin, on April 19, 2012.

His team, which he called the “digital influence team”, was “responsible for the crisis response”.  Marino told the audience that his job during the BP disaster was to run a ” reputation management campaign ” and gave this specific example of the depths to which Ogilvy worked to maintain a positive appearance for BP:

“We were putting out ads, if you guys remember those ads that came out where it would be Iris in the Gulf of Mexico and she’d be talking about how she grew up there and she wasn’t going to go away,” he explained . “The way we were working with the strategy on that was we would cut the ads one day, we would edit them overnight, we’d air them on Tuesday let’s say, and then we’d look at social media to see what the response was to the ads – and based upon the feedback we were getting on social media, the advertising agency would then go back and re-cut the ads to fix the message to make it resonate more with what the constituents wanted… that was the first key strategy.”

Chris Paulos, an attorney with the firm investigating Marie’s case, believes this is a perfect example of “subversive attempts by corporations to put forward their ideology of what we should think about them, and doing it in a way that is not decipherable to the average person”.

According to Paulos, the public should be concerned about this because we can no longer tell if people online are truly who they say they are, “or are working for a corporation and talking their script to control the dialogue about whatever issue they are addressing”.

“We are in unprecedented times with technology, and [in] the disparity between the power of corporations and autonomous consumers,” Paulos told Al Jazeera. ” Citizens United has basically emboldened corporations with their ability to speak as individuals with First Amendment rights. Ever since that decision, corporations have been outspoken and vigorously protecting themselves while doing it.”

BP’s Response

Billie Garde, BP’s deputy ombudsman, in a letter to the Government Accountability Project dated December 18, 2012, stated clearly that “BP America contracts management of its Facebook page to Ogilvy Public Relations” and added, “Ogilvy manages all of BP America’s social media matters”.

2013 1120-51

2013 1120-52

2013 1120-53

“According to BP America, Ogilvy has a group of 10 individuals in different time zones that perform comment screening of the page,” wrote Garde.

Interestingly, Garde’s letter addressed the fact that, at that time, according to Ogilvy’s data, 91 percent of all the comments on BP’s Facebook page were considered to be “unsupportive” of BP, while only nine percent were considered “supportive”.  She added that “i n previous years, the number of comments that were ‘unsupportive ‘ of BP was larger than the present 91 per cent “.

Her letter stated that Ogilvy follows a “three strike” policy for all comments, “meaning if they find a comment to be in violation of the commenting policy, they delete the comment and record a ‘strike’ against the user, and three strikes means a user is no longer able to comment on the page. It is also noted that Ogilvy will delete offending comments and send a note to the user indicating the comment was inappropriate”.

Garde added: “BP America has informed our office that Ogilvy strictly adheres to the Commenting Policy as stated on the BP America Facebook page. This policy serves as the guidelines that Ogilvy follows when evaluating the appropriateness of comments. Ogilvy does not evaluate a comment with respect to it being a positive or negative statement towards BP. Likewise, they do not delete any comments based on either of these qualifiers.”

According to Garde, BP America’s Director of Employee Concerns Oversight, Mike Wilson, was apprised of the situation. Wilson was provided examples of harassment and was asked if the examples were reviewed by Ogilvy. “The discussion is ongoing, and Mr Wilson is addressing these specific concerns internally, ” Garde added.

A BP spokesman provided the following statement for Al Jazeera: “The BP America Facebook page, and its moderators, do not endorse or dictate any user activity. All users’ comments and actions are their own. BP created the BP America Facebook page to engage the public in an informative conversation about our ongoing commitment to America and to facilitate constructive dialogue for any and all who wish to participate. No users are compensated for participating in the Facebook community. More information on our commenting policy can be found here .”

Marie, however, staunchly believes that BP is responsible for the pro-BP Facebook trolls.

“I have no doubt that they are, and I’ve found the links between the trolls and their friends who work for BP,” she told Al Jazeera. “The Government Accountability Project, through the inquiry they’re conducting for me, is still trying to find out. But we are being stonewalled on the other end, as far as BP doing some type of an internal investigation into these connections that I’ve uncovered.”

According to Marie, the harassment “almost ceased completely at around the same time GAP received Garde’s letter. I say ‘almost’ because at least two of the people who were involved in the prior harassment are still allowed to comment on BP’s page to this day, and [one of those] was still checking on people’s profiles to obtain their state of residence, and would use this against them on the page.”

“Terroristic Threats”

Lockman’s investigation continues, as do efforts of recovering additional documentation and sifting through information on hand that links the trolls to both BP and Ogilvy as well as other subcontracted companies used by BP as creative storytellers.

“The information we possess regarding Marie’s claims, printed out, fills two file boxes, and that does not include all the DVDs which are currently being duplicated at this time,” Lockman said. “It is an unbelievable amount of documentation that has been developed. This documentation, support materials, and information is coming from several different sources. It is like a spider web and we just got started.”

Al Jazeera asked the firm Lockman works for what the possible legal ramifications would be for the alleged actions of BP and Ogilvy.

“What these guys are doing is bordering on illegal,” Paulos told Al Jazeera. “Marie’s allegations are that these guys have made overt acts beyond what they did online, and it does sound like people who’ve been the victims of these actions believe they are in imminent danger of bodily harm, and that can become the basis for a claim of assault.”

Paulos went on to say that if money were involved, like if the threats made by the trolls were against people who had pending claims against BP, or offered to cease the harassment in exchange for funds or other benefits, “it can become a claim of extortion or fraud, depending on how the money is being used”.

Yet these are not the worst possible crimes.

“They [BP/Ogilvy] are obviously trying to silence folks who are opposed or critical of what they are doing,” Paulos claimed. “But it appears as though it has moved into threats that can be considered terroristic threats depending on the intent behind them, so there are a lot of laws they can be treading on, including stalking, and tortious interference with someone’s businesses. I understand they’ve called the workplaces of people on the websites, and depending on what’s being said that may become actionable under US civil law. So there are a lot of ways they could be breaching the law based on the intent of their communication and how that has been received.” Paulos believes Marie’s case is an example of how corporations such as BP use their money and power to take advantage of a lack of adequate legal regulations over the use of internet trolls and vigorous PR campaigns, and that this should give the general public pause.

“Marie’s story shows that corporations do not refrain from cyber-bullying, and they are doing it in a very aggressive fashion.”

Other Harassment

Linda Hooper Bui, an associate professor of entomology at Louisiana State University, experienced a different form of harassment from BP while working on a study about the impact of the oil disaster on spiders and insects.

“BP was desperately trying to control the science, and that was what I ran into,” Bui told Al Jazeera. According to her, BP’s chief science officer “tried to intimidate me”, and the harassment included BP “bullying my people” who were working in the field with her on her study that revealed how “insects and spiders in the oiled areas were completely decimated”.

While collecting data for the study, Bui and her colleagues regularly ran into problems with BP, she said.

“Local sheriffs working under the auspices of BP, as well as personnel with Wildlife and Fisheries, the US Coast Guard – all of these folks working under BP were preventing us from doing our job,” Bui explained. “We were barred from going into areas to collect data where we had previous data.”

Bui said personnel from the USCG, Fish and Wildlife, and even local sheriffs departments, always accompanied by BP staff, worked to prevent her from entering areas to collect data, confiscated her samples, and “if I’d refused to oblige they would have arrested me” – despite her having state permits to carry out her work.

Bui has also been harassed online, by what she thinks was “a BP troll”, but she remained primarily concerned about what BP was doing to block her science. Her frustration about this prompted her to write an opinion article for The New York Times , titled A Gulf Science Blackout .

That is when she received a call from BP.

“August 24, 2010, at 7:15am the morning my op-ed was published, I received a call from BP’s chief science officer who tried to get me to be quiet,” Bui said. “He said he’d solve my problem, and asked me how much money I needed.”

Bui explained to him she was only interested in being allowed to conduct her studies, and was not interested in working with BP, “that I was publishing science and it involved the entire scientific community”, and she never heard back from him.

She believes her method of dealing with the overall situation was a success. “When somebody starts to mess with me, I publicise it and say: ‘Don ‘ t f**k with me,'” she concluded. “And if you do, I’m going to go very public with it, and that’s what I did.”

BP did not respond to Al Jazeera for comment regarding her specific allegation.

GAP’s Shanna Devine told Al Jazeera she believes the onus is on BP to investigate the possibility that there is a connection between the harassment and Ogilvy and BP employees.

“But so far they’ve taken a very hands-off approach,” she explained. “They’ve not taken responsibility and they are not willing to share information with us. So if it’s through BP’s silence that the public is willing to draw their conclusions, I think that is legitimate.”

Hence, Devine concluded: “The BP America Facebook page is not a safe place to be.”

2013 1120-5aInternet troll “Griffin” here complains to Facebook that “D**” is a troll, making up fabrications about BP. “Griffin” posts a link to “D**”‘s profile page, next to a picture of a gun.

2013 1120-5bA second internet troll, “Ken Smith”, is understood to have taken a photo of “D**”‘s pet bird from the BP critic’s profile, printed it out, superimposed a rifle’s crosshairs upon the image – and shot it several times.

2013 1120-5c“Griffin”‘s profile, using an anonymised portrait, also features images of target practice. It is understood that his message has a threatening tone.

2013 1120-5d“Ken Smith”, who posted the previous image of a BP critic’s pet bird being used as target practice, here posts a picture of his considerable arsenal.

2013 1120-5e“Ken Smith” goes on to call BP critics “haters”, and one in particular a “drunken moron”.

2013 1120-5hOthers leave comments on BP America’s Facebook page supportive of the oil giant, claiming that scientists and others critical of the spill are attention-seeking drug users.

This piece was reprinted by Truthout with permission or license. It may not be reproduced in any form without permission or license from the source.

By DAHR JAMAIL

Dahr Jamail, a journalist for Al Jazeera’s Human Rights Department, is the author of “The Will to Resist: Soldiers Who Refuse to Fight in Iraq and Afghanistan,” (Haymarket Books, 2009), and “Beyond the Green Zone: Dispatches From an Unembedded Journalist in Occupied Iraq,” (Haymarket Books, 2007). Jamail reported from Iraq for more than a year, as well as from Lebanon, Syria, Jordan and Turkey over the last ten years, and has won the Martha Gellhorn Award for Investigative Journalism, among other awards.

Just 90 companies caused two-thirds of man-made global warming emissions (The Guardian)

Chevron, Exxon and BP among companies most responsible for climate change since dawn of industrial age, figures show

, US environment correspondent

theguardian.com, Wednesday 20 November 2013 16.07 GMT

 Sandbag’s report into the emergence of emissions trading in China : carbon pollutionOil, coal and gas companies are contributing to most carbon emissions, causing climate change and some are also funding denial campaigns. Photograph: David Gray/Reuters
The climate crisis of the 21st century has been caused largely by just 90 companies, which between them produced nearly two-thirds of the greenhouse gas emissions generated since the dawning of the industrial age, new research suggests.The companies range from investor-owned firms – household names such as Chevron, Exxon and BP – to state-owned and government-run firms.The analysis, which was welcomed by the former vice-president Al Goreas a “crucial step forward” found that the vast majority of the firms were in the business of producing oil, gas or coal, found the analysis, which has been accepted for publication in the journal Climatic Change.”There are thousands of oil, gas and coal producers in the world,” climate researcher and author Richard Heede at the Climate Accountability Institute in Colorado said. “But the decision makers, the CEOs, or the ministers of coal and oil if you narrow it down to just one person, they could all fit on a Greyhound bus or two.”Half of the estimated emissions were produced just in the past 25 years – well past the date when governments and corporations became aware that rising greenhouse gas emissions from the burning of coal and oil were causing dangerous climate change.Many of the same companies are also sitting on substantial reserves of fossil fuel which – if they are burned – puts the world at even greater risk of dangerous climate change.Climate change experts said the data set was the most ambitious effort so far to hold individual carbon producers, rather than governments, to account.The United Nations climate change panel, the IPCC, warned in September that at current rates the world stood within 30 years of exhausting its “carbon budget” – the amount of carbon dioxide it could emit without going into the danger zone above 2C warming. The former US vice-president and environmental champion, Al Gore, said the new carbon accounting could re-set the debate about allocating blame for the climate crisis.Leaders meeting in Warsaw for the UN climate talks this week clashed repeatedly over which countries bore the burden for solving the climate crisis – historic emitters such as America or Europe or the rising economies of India and China.Gore in his comments said the analysis underlined that it should not fall to governments alone to act on climate change.”This study is a crucial step forward in our understanding of the evolution of the climate crisis. The public and private sectors alike must do what is necessary to stop global warming,” Gore told the Guardian. “Those who are historically responsible for polluting our atmosphere have a clear obligation to be part of the solution.”Between them, the 90 companies on the list of top emitters produced 63% of the cumulative global emissions of industrial carbon dioxide and methane between 1751 to 2010, amounting to about 914 gigatonne CO2 emissions, according to the research. All but seven of the 90 wereenergy companies producing oil, gas and coal. The remaining seven were cement manufacturers.The list of 90 companies included 50 investor-owned firms – mainly oil companies with widely recognised names such as Chevron, Exxon, BP , and Royal Dutch Shell and coal producers such as British Coal Corp, Peabody Energy and BHP Billiton.Some 31 of the companies that made the list were state-owned companies such as Saudi Arabia’s Saudi Aramco, Russia’s Gazprom and Norway’s Statoil.Nine were government run industries, producing mainly coal in countries such as China, the former Soviet Union, North Korea and Poland, the host of this week’s talks.Experts familiar with Heede’s research and the politics of climate change said they hoped the analysis could help break the deadlock in international climate talks.”It seemed like maybe this could break the logjam,” said Naomi Oreskes, professor of the history of science at Harvard. “There are all kinds of countries that have produced a tremendous amount of historical emissions that we do not normally talk about. We do not normally talk about Mexico or Poland or Venezuela. So then it’s not just rich v poor, it is also producers v consumers, and resource rich v resource poor.”Michael Mann, the climate scientist, said he hoped the list would bring greater scrutiny to oil and coal companies’ deployment of their remaining reserves. “What I think could be a game changer here is the potential for clearly fingerprinting the sources of those future emissions,” he said. “It increases the accountability for fossil fuel burning. You can’t burn fossil fuels without the rest of the world knowing about it.”Others were less optimistic that a more comprehensive accounting of the sources of greenhouse gas emissions would make it easier to achieve the emissions reductions needed to avoid catastrophic climate change.John Ashton, who served as UK’s chief climate change negotiator for six years, suggested that the findings reaffirmed the central role of fossil fuel producing entities in the economy.”The challenge we face is to move in the space of not much more than a generation from a carbon-intensive energy system to a carbonneutral energy system. If we don’t do that we stand no chance of keeping climate change within the 2C threshold,” Ashton said.”By highlighting the way in which a relatively small number of large companies are at the heart of the current carbon-intensive growth model, this report highlights that fundamental challenge.”Meanwhile, Oreskes, who has written extensively about corporate-funded climate denial, noted that several of the top companies on the list had funded the climate denial movement.”For me one of the most interesting things to think about was the overlap of large scale producers and the funding of disinformation campaigns, and how that has delayed action,” she said.The data represents eight years of exhaustive research into carbon emissions over time, as well as the ownership history of the major emitters.The companies’ operations spanned the globe, with company headquarters in 43 different countries. “These entities extract resources from every oil, natural gas and coal province in the world, and process the fuels into marketable products that are sold to consumers on every nation on Earth,” Heede writes in the paper.The largest of the investor-owned companies were responsible for an outsized share of emissions. Nearly 30% of emissions were produced just by the top 20 companies, the research found.By Heede’s calculation, government-run oil and coal companies in the former Soviet Union produced more greenhouse gas emissions than any other entity – just under 8.9% of the total produced over time. China came a close second with its government-run entities accounting for 8.6% of total global emissions.ChevronTexaco was the leading emitter among investor-owned companies, causing 3.5% of greenhouse gas emissions to date, with Exxon not far behind at 3.2%. In third place, BP caused 2.5% of global emissions to date.The historic emissions record was constructed using public records and data from the US department of energy’s Carbon Dioxide Information and Analysis Centre, and took account of emissions all along the supply chain.The centre put global industrial emissions since 1751 at 1,450 gigatonnes.

Mosquitos transgênicos no céu do sertão (Agência Pública)

Saúde

10/10/2013 – 10h36

por Redação da Agência Pública

armadilhas 300x199 Mosquitos transgênicos no céu do sertão

As armadilhas são instrumentos instalados nas casas de alguns moradores da área do experimento. As ovitrampas, como são chamadas, fazem as vezes de criadouros para as fêmeas. Foto: Coletivo Nigéria

Com a promessa de reduzir a dengue, biofábrica de insetos transgênicos já soltou 18 milhões de mosquitos Aedes aegypti no interior da Bahia. Leia a história e veja o vídeo.

No começo da noite de uma quinta-feira de setembro, a rodoviária de Juazeiro da Bahia era o retrato da desolação. No saguão mal iluminado, funcionavam um box cuja especialidade é caldo de carne, uma lanchonete de balcão comprido, ornado por salgados, biscoitos e batata chips, e um único guichê – com perturbadoras nuvens de mosquitos sobre as cabeças de quem aguardava para comprar passagens para pequenas cidades ou capitais nordestinas.

Assentada à beira do rio São Francisco, na fronteira entre Pernambuco e Bahia, Juazeiro já foi uma cidade cortada por córregos, afluentes de um dos maiores rios do país. Hoje, tem mais de 200 mil habitantes, compõe o maior aglomerado urbano do semiárido nordestino ao lado de Petrolina – com a qual soma meio milhão de pessoas – e é infestada por muriçocas (ou pernilongos, se preferir). Os cursos de água que drenavam pequenas nascentes viraram esgotos a céu aberto, extensos criadouros do inseto, tradicionalmente combatidos com inseticida e raquete elétrica, ou janelas fechadas com ar condicionado para os mais endinheirados.

Mas os moradores de Juazeiro não espantam só muriçocas nesse início de primavera. A cidade é o centro de testes de uma nova técnica científica que utiliza Aedes aegypti transgênicos para combater a dengue, doença transmitida pela espécie. Desenvolvido pela empresa britânica de biotecnologia Oxitec, o método consiste basicamente na inserção de um gene letal nos mosquitos machos que, liberados em grande quantidade no meio ambiente, copulam com as fêmeas selvagens e geram uma cria programada para morrer. Assim, se o experimento funcionar, a morte prematura das larvas reduz progressivamente a população de mosquitos dessa espécie.

A técnica é a mais nova arma para combater uma doença que não só resiste como avança sobre os métodos até então empregados em seu controle. A Organização Mundial de Saúde estima que possam haver de 50 a 100 milhões de casos de dengue por ano no mundo. No Brasil, a doença é endêmica, com epidemias anuais em várias cidades, principalmente nas grandes capitais. Em 2012, somente entre os dias 1º de janeiro e 16 de fevereiro, foram registrados mais de 70 mil casos no país. Em 2013, no mesmo período, o número praticamente triplicou, passou para 204 mil casos. Este ano, até agora, 400 pessoas já morreram de dengue no Brasil.

Em Juazeiro, o método de patente britânica é testado pela organização social Moscamed, que reproduz e libera ao ar livre os mosquitos transgênicos desde 2011. Na biofábrica montada no município e que tem capacidade para produzir até 4 milhões de mosquitos por semana, toda cadeia produtiva do inseto transgênico é realizada – exceção feita à modificação genética propriamente dita, executada nos laboratórios da Oxitec, em Oxford. Larvas transgênicas foram importadas pela Moscamed e passaram a ser reproduzidas nos laboratórios da instituição.

Os testes desde o início são financiados pela Secretaria da Saúde da Bahia – com o apoio institucional da secretaria de Juazeiro – e no último mês de julho se estenderam ao município de Jacobina, na extremidade norte da Chapada Diamantina. Na cidade serrana de aproximadamente 80 mil habitantes, a Moscamed põe à prova a capacidade da técnica de “suprimir” (a palavra usada pelos cientistas para exterminar toda a população de mosquitos) o Aedes aegypti em toda uma cidade, já que em Juazeiro a estratégia se mostrou eficaz, mas limitada por enquanto a dois bairros.

“Os resultados de 2011 e 2012 mostraram que [a técnica] realmente funcionava bem. E a convite e financiados pelo Governo do Estado da Bahia resolvemos avançar e irmos pra Jacobina. Agora não mais como piloto, mas fazendo um teste pra realmente eliminar a população [de mosquitos]”, fala Aldo Malavasi, professor aposentado do Departamento de Genética do Instituto de Biociências da Universidade de São Paulo (USP) e atual presidente da Moscamed. A USP também integra o projeto.

Malavasi trabalha na região desde 2006, quando a Moscamed foi criada para combater uma praga agrícola, a mosca-das-frutas, com técnica parecida – a Técnica do Inseto Estéril. A lógica é a mesma: produzir insetos estéreis para copular com as fêmeas selvagens e assim reduzir gradativamente essa população. A diferença está na forma como estes insetos são esterilizados. Ao invés de modificação genética, radiação. A TIE é usada largamente desde a década de 1970, principalmente em espécies consideradas ameaças à agricultura. O problema é que até agora a tecnologia não se adequava a mosquitos como o Aedes aegypti, que não resistiam de forma satisfatória à radiação

O plano de comunicação

As primeiras liberações em campo do Aedes transgênico foram realizadas nas Ilhas Cayman, entre o final de 2009 e 2010. O território britânico no Caribe, formado por três ilhas localizadas ao Sul de Cuba, se mostrou não apenas um paraíso fiscal (existem mais empresas registradas nas ilhas do que seus 50 mil habitantes), mas também espaço propício para a liberação dos mosquitos transgênicos, devido à ausência de leis de biossegurança. As Ilhas Cayman não são signatárias do Procolo de Cartagena, o principal documento internacional sobre o assunto, nem são cobertas pela Convenção de Aarthus – aprovada pela União Europeia e da qual o Reino Unido faz parte – que versa sobre o acesso à informação, participação e justiça nos processos de tomada de decisão sobre o meio ambiente.

Ao invés da publicação e consulta pública prévia sobre os riscos envolvidos no experimento, como exigiriam os acordos internacionais citados, os cerca de 3 milhões de mosquitos soltos no clima tropical das Ilhas Cayman ganharam o mundo sem nenhum processo de debate ou consulta pública. A autorização foi concedida exclusivamente pelo Departamento de Agricultura das Ilhas. Parceiro local da Oxitec nos testes, a Mosquito Research & Control Unit (Unidade de Pesquisa e Controle de Mosquito) postou um vídeo promocional sobre o assunto apenas em outubro de 2010, ainda assim sem mencionar a natureza transgênica dos mosquitos. O vídeo foi divulgado exatamente um mês antes da apresentação dos resultados dos experimentos pela própria Oxitec no encontro anual daAmerican Society of Tropical Medicine and Hygiene (Sociedade Americana de Medicina Tropical e Higiene), nos Estados Unidos.

A comunidade científica se surpreendeu com a notícia de que as primeiras liberações no mundo de insetos modificados geneticamente já haviam sido realizadas, sem que os próprios especialistas no assunto tivessem conhecimento. A surpresa se estendeu ao resultado: segundo os dados da Oxitec, os experimentos haviam atingido 80% de redução na população de Aedes aegypti nas Ilhas Cayman. O número confirmava para a empresa que a técnica criada em laboratório poderia ser de fato eficiente. Desde então, novos testes de campo passaram a ser articulados em outros países – notadamente subdesenvolvidos ou em desenvolvimento, com clima tropical e problemas históricos com a dengue.

Depois de adiar testes semelhantes em 2006, após protestos, a Malásia se tornou o segundo país a liberar os mosquitos transgênicos entre dezembro de 2010 e janeiro de 2011. Seis mil mosquitos foram soltos num área inabitada do país. O número, bem menor em comparação ao das Ilhas Cayman, é quase insignificante diante da quantidade de mosquitos que passou a ser liberada em Juazeiro da Bahia a partir de fevereiro de 2011. A cidade, junto com Jacobina mais recentemente, se tornou desde então o maior campo de testes do tipo no mundo, com mais de 18 milhões de mosquitos já liberados, segundo números da Moscamed.

“A Oxitec errou profundamente, tanto na Malásia quanto nas Ilhas Cayman. Ao contrário do que eles fizeram, nós tivemos um extenso trabalho do que a gente chama de comunicação pública, com total transparência, com discussão com a comunidade, com visita a todas as casas. Houve um trabalho extraordinário aqui”, compara Aldo Malavasi.

Em entrevista por telefone, ele fez questão de demarcar a independência da Moscamed diante da Oxitec e ressaltou a natureza diferente das duas instituições. Criada em 2006, a Moscamed é uma organização social, sem fins lucrativos portanto, que se engajou nos testes do Aedes aegypti transgênico com o objetivo de verificar a eficácia ou não da técnica no combate à dengue. Segundo Malavasi, nenhum financiamento da Oxitec foi aceito por eles justamente para garantir a isenção na avaliação da técnica. “Nós não queremos dinheiro deles, porque o nosso objetivo é ajudar o governo brasileiro”, resume.

Em favor da transparência, o programa foi intitulado “Projeto Aedes Transgênico” (PAT), para trazer já no nome a palavra espinhosa. Outra determinação de ordem semântica foi o não uso do termo “estéril”, corrente no discurso da empresa britânica, mas empregada tecnicamente de forma incorreta, já que os mosquitos produzem crias, mas geram prole programada para morrer no estágio larval. Um jingle pôs o complexo sistema em linguagem popular e em ritmo de forró pé-de-serra. E o bloco de carnaval “Papa Mosquito” saiu às ruas de Juazeiro no Carnaval de 2011.

No âmbito institucional, além do custeio pela Secretaria de Saúde estadual, o programa também ganhou o apoio da Secretaria de Saúde de Juazeiro da Bahia. “De início teve resistência, porque as pessoas também não queriam deixar armadilhas em suas casas, mas depois, com o tempo, elas entenderam o projeto e a gente teve uma boa aceitação popular”, conta o enfermeiro sanitarista Mário Machado, diretor de Promoção e Vigilância à Saúde da secretaria.

As armadilhas, das quais fala Machado, são simples instrumentos instalados nas casas de alguns moradores da área do experimento. As ovitrampas, como são chamadas, fazem as vezes de criadouros para as fêmeas. Assim é possível colher os ovos e verificar se eles foram fecundados por machos transgênicos ou selvagens. Isso também é possível porque os mosquitos geneticamente modificados carregam, além do gene letal, o fragmento do DNA de uma água-viva que lhe confere uma marcação fluorescente, visível em microscópios.

Desta forma, foi possível verificar que a redução da população de Aedes aegypti selvagem atingiu, segundo a Moscamed, 96% em Mandacaru – um assentamento agrícola distante poucos quilômetros do centro comercial de Juazeiro que, pelo isolamento geográfico e aceitação popular, se transformou no local ideal para as liberações. Apesar do número, a Moscamed continua com liberações no bairro. Devido à breve vida do mosquito (a fêmea vive aproximadamente 35 dias), a soltura dos insetos precisa continuar para manter o nível da população selvagem baixo. Atualmente, uma vez por semana um carro deixa a sede da organização com 50 mil mosquitos distribuídos aos milhares em potes plásticos que serão abertos nas ruas de Mandacaru.

“Hoje a maior aceitação é no Mandacaru. A receptividade foi tamanha que a Moscamed não quer sair mais de lá”, enfatiza Mário Machado.

O mesmo não aconteceu com o bairro de Itaberaba, o primeiro a receber os mosquitos no começo de 2011. Nem mesmo o histórico alto índice de infecção pelo Aedes aegypti fez com que o bairro periférico juazeirense, vizinho à sede da Moscamed, aceitasse de bom grado o experimento. Mário Machado estima “em torno de 20%” a parcela da população que se opôs aos testes e pôs fim às liberações.

“Por mais que a gente tente informar, ir de casa em casa, de bar em bar, algumas pessoas desacreditam: ‘Não, vocês estão mentindo pra gente, esse mosquito tá picando a gente’”, resigna-se.

Depois de um ano sem liberações, o mosquito parece não ter deixado muitas lembranças por ali. Em uma caminhada pelo bairro, quase não conseguimos encontrar alguém que soubesse do que estávamos falando. Não obstante, o nome de Itaberaba correu o mundo ao ser divulgado pela Oxitec que o primeiro experimento de campo no Brasil havia atingido 80% de redução na população de mosquitos selvagens.

Supervisora de campo da Moscamed, a bióloga Luiza Garziera foi uma das que foram de casa em casa explicando o processo, por vezes contornando o discurso científico para se fazer entender. “Eu falava que a gente estaria liberando esses mosquitos, que a gente liberava somente o macho, que não pica. Só quem pica é a fêmea. E que esses machos quando ‘namoram’ – porque a gente não pode falar às vezes de ‘cópula’ porque as pessoas não vão entender. Então quando esses machos namoram com a fêmea, os seus filhinhos acabam morrendo”.

Este é um dos detalhes mais importantes sobre a técnica inédita. Ao liberar apenas machos, numa taxa de 10 transgênicos para 1 selvagem, a Moscamed mergulha as pessoas numa nuvem de mosquitos, mas garante que estes não piquem aqueles. Isto acontece porque só a fêmea se alimenta de sangue humano, líquido que fornece as proteínas necessárias para sua ovulação.

A tecnologia se encaixa de forma convincente e até didática – talvez com exceção da “modificação genética”, que requer voos mais altos da imaginação. No entanto, ainda a ignorância sobre o assunto ainda campeia em considerável parcela dos moradores ouvidos para esta reportagem. Quando muito, sabe-se que se trata do extermínio do mosquito da dengue, o que é naturalmente algo positivo. No mais, ouviu-se apenas falar ou arrisca-se uma hipótese que inclua a, esta sim largamente odiada, muriçoca.

A avaliação dos riscos

Apesar da campanha de comunicação da Moscamed, a ONG britânica GeneWatch aponta uma série de problemas no processo brasileiro. O principal deles, o fato do relatório de avaliação de riscos sobre o experimento não ter sido disponibilizado ao público antes do início das liberações. Pelo contrário, a pedido dos responsáveis pelo Programa Aedes Transgênico, o processo encaminhado à Comissão Técnica Nacional de Biossegurança (CTNBio, órgão encarregado de autorizar ou não tais experimentos) foi considerado confidencial.

“Nós achamos que a Oxitec deve ter o consentimento plenamente informado da população local, isso significa que as pessoas precisam concordar com o experimento. Mas para isso elas precisam também ser informadas sobre os riscos, assim como você seria se estivesse sendo usado para testar um novo medicamento contra o câncer ou qualquer outro tipo de tratamento”, comentou, em entrevista por Skype, Helen Wallace, diretora executiva da organização não governamental.

Especialista nos riscos e na ética envolvida nesse tipo de experimento, Helen publicou este ano o relatório Genetically Modified Mosquitoes: Ongoing Concerns (“Mosquitos Geneticamente Modificados: atuais preocupações”), que elenca em 13 capítulos o que considera riscos potenciais não considerados antes de se autorizar a liberação dos mosquitos transgênicos. O documento também aponta falhas na condução dos experimentos pela Oxitec.

Por exemplo, após dois anos das liberações nas Ilhas Cayman, apenas os resultados de um pequeno teste haviam aparecido numa publicação científica. No começo de 2011, a empresa submeteu os resultados do maior experimento nas Ilhas à revista Science, mas o artigo não foi publicado. Apenas em setembro do ano passado o texto apareceu em outra revista, a Nature Biotechnology, publicado como “correspondência” – o que significa que não passou pela revisão de outros cientistas, apenas pela checagem do próprio editor da publicação.

Para Helen Wallace, a ausência de revisão crítica dos pares científicos põe o experimento da Oxitec sob suspeita. Mesmo assim, a análise do artigo, segundo o documento, sugere que a empresa precisou aumentar a proporção de liberação de mosquitos transgênicos e concentrá-los em uma pequena área para que atingisse os resultados esperados. O mesmo teria acontecido no Brasil, em Itaberaba. Os resultados do teste no Brasil também ainda não foram publicados pela Moscamed. O gerente do projeto, Danilo Carvalho, informou que um dos artigos já foi submetido a uma publicação e outro está em fase final de escrita.

Outro dos riscos apontados pelo documento está no uso comum do antibiótico tetraciclina. O medicamento é responsável por reverter o gene letal e garantir em laboratório a sobrevivência do mosquito geneticamente modificado, que do contrário não chegaria à fase adulta. Esta é a diferença vital entre a sorte dos mosquitos reproduzidos em laboratório e a de suas crias, geradas no meio ambiente a partir de fêmeas selvagens – sem o antibiótico, estão condenados à morte prematura.

A tetraciclina é comumente empregada nas indústrias da pecuária e da aquicultura, que despejam no meio ambiente grandes quantidades da substância através de seus efluentes. O antibiótico também é largamente usado na medicina e na veterinária. Ou seja, ovos e larvas geneticamente modificados poderiam entrar em contato com o antibiótico mesmo em ambientes não controlados e assim sobreviverem. Ao longo do tempo, a resistência dos mosquitos transgênicos ao gene letal poderia neutralizar seu efeito e, por fim, teríamos uma nova espécie geneticamente modificada adaptada ao meio ambiente.

laboratorio 300x186 Mosquitos transgênicos no céu do sertãoA hipótese é tratada com ceticismo pela Oxitec, que minimiza a possibilidade disto acontecer no mundo real. No entanto, documento confidencial tornado público mostra que a hipótese se mostrou, por acaso, real nos testes de pesquisador parceiro da empresa. Ao estranhar uma taxa de sobrevivência das larvas sem tetraciclina de 15% – bem maior que os usuais 3% contatos pelos experimentos da empresa –, os cientistas da Oxitec descobriram que a ração de gato com a qual seus parceiros estavam alimentando os mosquitos guardava resquícios do antibiótico, que é rotineiramente usado para tratar galinhas destinadas à ração animal.

O relatório da GeneWatch chama atenção para a presença comum do antibiótico em dejetos humanos e animais, assim como em sistemas de esgotamento doméstico, a exemplo de fossas sépticas. Isto caracterizaria um risco potencial, já que vários estudos constataram a capacidade do Aedes aegypti se reproduzir em águas contaminadas – apesar de isso ainda não ser o mais comum, nem acontecer ainda em Juazeiro, segundo a Secretaria de Saúde do município.

Além disso, há preocupações quanto a taxa de liberação de fêmeas transgênicas. O processo de separação das pupas (último estágio antes da vida adulta) é feito de forma manual, com a ajuda de um aparelho que reparte os gêneros pelo tamanho (a fêmea é ligeiramente maior). Uma taxa de 3% de fêmeas pode escapar neste processo, ganhando a liberdade e aumentando os riscos envolvidos. Por último, os experimentos ainda não verificaram se a redução na população de mosquitos incide diretamente na transmissão da dengue.

Todas as críticas são rebatidas pela Oxitec e pela Moscamed, que dizem manter um rigoroso controle de qualidade – como o monitoramento constante da taxa de liberação de fêmeas e da taxa de sobrevivências das larvas sem tetraciclina. Desta forma, qualquer sinal de mutação do mosquito seria detectado a tempo de se suspender o programa. Ao final de aproximadamente um mês, todos os insetos liberados estariam mortos. Os mosquitos, segundo as instituições responsáveis, também não passam os genes modificados mesmo que alguma fêmea desgarrada pique um ser humano.

Mosquito transgênico à venda

Em julho passado, depois do êxito dos testes de campo em Juazeiro, a Oxitec protocolou a solicitação de licença comercial na Comissão Técnica Nacional de Biossegurança (CTNBio). Desde o final de 2012, a empresa britânica possui CNPJ no país e mantém um funcionário em São Paulo. Mais recentemente, com os resultados promissores dos experimentos em Juazeiro, alugou um galpão em Campinas e está construindo o que será sua sede brasileira. O país representa hoje seu mais provável e iminente mercado, o que faz com que o diretor global de desenvolvimento de negócios da empresa, Glen Slade, viva hoje numa ponte aérea entre Oxford e São Paulo.

“A Oxitec está trabalhando desde 2009 em parceria com a USP e Moscamed, que são parceiros bons e que nos deram a oportunidade de começar projetos no Brasil. Mas agora acabamos de enviar nosso dossiê comercial à CTNBio e esperamos obter um registro no futuro, então precisamos aumentar nossa equipe no país. Claramente estamos investindo no Brasil. É um país muito importante”, disse Slade numa entrevista por Skype da sede na Oxitec, em Oxford, na Inglaterra.

A empresa de biotecnologia é uma spin-out da universidade britânica, o que significa dizer que a Oxitec surgiu dos laboratórios de uma das mais prestigiadas universidades do mundo. Fundada em 2002, desde então vem captando investimentos privados e de fundações sem fins lucrativos, tais como a Bill & Melinda Gates, para bancar o prosseguimento das pesquisas. Segundo Slade, mais de R$ 50 milhões foram gastos nesta última década no aperfeiçoamento e teste da tecnologia.

O executivo espera que a conclusão do trâmite burocrático para a concessão da licença comercial aconteça ainda próximo ano, quando a sede brasileira da Oxitec estará pronta, incluindo uma nova biofábrica. Já em contato com vários municípios do país, o executivo prefere não adiantar nomes. Nem o preço do serviço, que provavelmente será oferecido em pacotes anuais de controle da população de mosquitos, a depender o orçamento do número de habitantes da cidade.

“Nesse momento é difícil dar um preço. Como todos os produtos novos, o custo de produção é mais alto quando a gente começa do que a gente gostaria. Acho que o preço vai ser um preço muito razoável em relação aos benefícios e aos outros experimentos para controlar o mosquito, mas muito difícil de dizer hoje. Além disso, o preço vai mudar segundo a escala do projeto. Projetos pequenos não são muito eficientes, mas se tivermos a oportunidade de controlar os mosquitos no Rio de Janeiro todo, podemos trabalhar em grande escala e o preço vai baixar”, sugere.

A empresa pretende também instalar novas biofábricas nas cidades que receberem grandes projetos, o que reduzirá o custo a longo prazo, já que as liberações precisam ser mantidas indefinidamente para evitar o retorno dos mosquitos selvagens. A velocidade de reprodução do Aedes aegypti é uma preocupação. Caso seja cessado o projeto, a espécie pode recompor a população em poucas semanas.

“O plano da empresa é conseguir pagamentos repetidos para a liberação desses mosquitos todo ano. Se a tecnologia deles funcionar e realmente reduzir a incidência de dengue, você não poderá suspender estas liberações e ficará preso dentro desse sistema. Uma das maiores preocupações a longo prazo é que se as coisas começarem a dar errado, ou mesmo se tornarem menos eficientes, você realmente pode ter uma situação pior ao longo de muitos anos”, critica Helen Wallace.

O risco iria desde a redução da imunidade das pessoas à doença, até o desmantelamento de outras políticas públicas de combate à dengue, como as equipes de agentes de saúde. Apesar de tanto a Moscamed quanto a própria secretaria de Saúde de Juazeiro enfatizarem a natureza complementar da técnica, que não dispensaria os outros métodos de controle, é plausível que hajam conflitos na alocação de recursos para a área. Hoje, segundo Mário Machado da secretaria de Saúde, Juazeiro gasta em média R$ 300 mil por mês no controle de endemias, das quais a dengue é a principal.

A secretaria negocia com a Moscamed a ampliação do experimento para todo o município ou mesmo para toda a região metropolitana formada por Juazeiro e Petrolina – um teste que cobriria meio milhão pessoas –, para assim avaliar a eficácia em grandes contingentes populacionais. De qualquer forma e apesar do avanço das experiências, nem a organização social brasileira nem a empresa britânica apresentaram estimativas de preço pra uma possível liberação comercial.

“Ontem nós estávamos fazendo os primeiros estudos, pra analisar qual é o preço deles, qual o nosso. Porque eles sabem quanto custa o programa deles, que não é barato, mas não divulgam”, disse Mário Machado.

Em reportagem do jornal britânico The Observer de julho do ano passado, a Oxitec estimou o custo da técnica em “menos de” £6 libras esterlinas por pessoa por ano. Num cálculo simples, apenas multiplicando o número pela contação atual da moeda britânia frente ao real e desconsiderando as inúmeras outras variáveis dessa conta, o projeto em uma cidade de 150 mil habitantes custaria aproximadamente R$ 3,2 milhões por ano.

Se imaginarmos a quantidade de municípios de pequeno e médio porte brasileiros em que a dengue é endêmica, chega-se a pujança do mercado que se abre – mesmo desconsiderando por hora os grandes centros urbanos do país, que extrapolariam a capacidade atual da técnica. Contudo, este é apenas uma fatia do negócio. A Oxitec também possui uma série de outros insetos transgênicos, estes destinados ao controle de pragas agrícolas e que devem encontrar campo aberto no Brasil, um dos gigantes do agronegócio no mundo.

Aguardando autorização da CTNBio, a Moscamed já se preparara para testar a mosca-das-frutas transgênica, que segue a mesma lógica do Aedes aegypti. Além desta, a Oxitec tem outras 4 espécies geneticamente modificadas que poderão um dia serem testadas no Brasil, a começar por Juazeiro e o Vale do São Francisco. A região é uma das maiores produtoras de frutas frescas para exportação do país. 90% de toda uva e manga exportadas no Brasil saem daqui. Uma produção que requer o combate incessante às pragas. Nas principais avenidas de Juazeiro e Petrolina, as lojas de produtos agrícolas e agrotóxicos se sucedem, variando em seus totens as logos das multinacionais do ramo.

“Não temos planos concretos [além da mosca-das-frutas], mas, claro, gostaríamos muito de ter a oportunidade de fazer ensaios com esses produtos também. O Brasil tem uma indústria agrícola muito grande. Mas nesse momento nossa prioridade número 1 é o mosquito da dengue. Então uma vez que tivermos este projeto com recursos bastante, vamos tentar acrescentar projetos na agricultura.”, comentou Slade.

Ele e vários de seus colegas do primeiro escalão da empresa já trabalharam numa das gigantes do agronegócio, a Syngenta. O fato, segundo Helen Wallace, é um dos revelam a condição do Aedes aegypti transgênico de pioneiro de todo um novo mercado de mosquitos geneticamente modificados: “Nos achamos que a Syngenta está principalmente interessada nas pragas agrícolas. Um dos planos que conhecemos é a proposta de usar pragas agrícolas geneticamente modificadas junto com semestres transgênicas para assim aumentar a resistências destas culturas às pragas”.

“Não tem nenhum relacionamento entre Oxitec e Syngenta dessa forma. Talvez tenhamos possibilidade no futuro de trabalharmos juntos. Eu pessoalmente tenho o interesse de buscar projetos que possamos fazer com Syngenta, Basf ou outras empresas grandes da agricultura”, esclarece Glen Slade.

Em 2011, a indústria de agrotóxicos faturou R$14,1 bilhões no Brasil. Maior mercado do tipo no mundo, o país pode nos próximos anos inaugurar um novo estágio tecnológico no combate às pestes. Assim como na saúde coletiva, com o Aedes aegypti transgênico, que parece ter um futuro comercial promissor. Todavia, resta saber como a técnica conviverá com as vacinas contra o vírus da dengue, que estão em fase final de testes – uma desenvolvida por um laboratório francês, outra pelo Instituto Butantan, de São Paulo. As vacinas devem chegar ao público em 2015. O mosquito transgênico, talvez já próximo ano.

Dentre as linhagens de mosquitos transgênicos, pode surgir também uma versão nacional. Como confirmou a professora Margareth de Lara Capurro-Guimarães, do Departamento de Parasitologia da USP e coordenadora do Programa Aedes Transgênico, já está sob estudo na universidade paulista a muriçoca transgênica. Outra possível solução tecnológica para um problema de saúde pública em Juazeiro da Bahia – uma cidade na qual, segundo levantamento do Sistema Nacional de Informações sobre Saneamento (SNIS) de 2011, a rede de esgoto só atende 67% da população urbana.

* Publicado originalmente no site Agência Pública.

(Agência Pública)

Explosive Dynamic Behavior On Twitter and in the Financial Market (Science Daily)

Oct. 7, 2013 — Over the past 10 years, social media has changed the way that people influence each other. By analysing data from the social networking service, Twitter, and stock trading in the financial market, researchers from the Niels Bohr Institute have shown that events in society bring rise to common behaviour among large groups of people who do not otherwise know each other The analysis shows that there are common features in user activity on Twitter and in stock market transactions in the financial market.

The results are published in the scientific journal, PNAS, Proceedings of the National Academy of Sciences.

The figure shows how often the international brands IBM, Pepsi and Toyota have been mentioned during a five-week period on Twitter. The activity is during long periods relatively steady and is then interrupted by sudden activity spikes. The research from NBI shows that there are common features in user activity on Twitter and in stock market transactions in the financial market. (Credit: Niels Bohr Institute)

“The whole idea of the study is to understand how social networks function. The strength of using the popular social media, Twitter, is that they are more than 200 million users worldwide, who write short messages about immediate experiences and impressions. This means that you can directly study human behaviour in crowds on the web. Twitter can be seen as a global social sensor,” explains Joachim Mathiesen, Associate Professor of physics at the Niels Bohr Institute at the University of Copenhagen.

Dynamic Twitter behaviour

Joachim Mathiesen developed a programme that could follow the use of Twitter constantly. He could see that there were periods with relatively steady activity and then there would be a very abrupt and intense upswing in activity. Suddenly there was an event that everyone had to respond to and there was an explosion in the amount of online activity.

“There arises a collective behaviour between people who otherwise do not know each other, but who are coupled together via events in society,” explains Joachim Mathiesen.

The analysis also took into account how frequently approximately 100 international brands, like Pepsi, IBM, Apple, Nokia, Toyota, etc. occurred in messages on Twitter. Here too, the level is characterised by days of steady activity, which is interrupted by sudden, but brief explosions of activity.

“Something happens that encourages people to write on Twitter, and suddenly the activity explodes. This is a kind of horde behaviour that is driven by an external even and gets crowds to react,” says Joachim Mathiesen.

But why is a physicist concerning himself with social behaviour?

“As physicists, we are good at understanding large amounts of complex data and we can create systems in this sea of coincidences. Complex systems are seen in many contexts and are simply learning about human behaviour in large social groups,” he explains.

The model calculations shed light on the statistical properties of large-scale user activity on Twitter and the underlying contexts. Similarly, he analysed the fluctuations in the activity of trading shares on the financial market.

“We saw prolonged intervals with steady activity, after which there was sudden and almost earthquake like activity. An even starts an avalanche in the trading. Statistically, we see the same characteristic horde behaviour in the financial markets as we do on Twitter, so the two social systems are not that different,” concludes Joachim Mathiesen.

Journal Reference:

  1. J. Mathiesen, L. Angheluta, P. T. H. Ahlgren, M. H. Jensen.Excitable human dynamics driven by extrinsic events in massive communitiesProceedings of the National Academy of Sciences, 2013; DOI: 10.1073/pnas.1304179110

As causas da grande mobilização indígena (Outras Palavras)

Ambiente

07/10/2013 – 11h49

por Marcelo Degrazia*

 As causas da grande mobilização indígena

Quais os projetos de mineradoras, madeireiras e ruralistas para avançar sobre territórios e direitos dos índios. Como tramitam, em silêncio, no Congresso Nacional

A Mobilização Nacional Indígena, deflagrada ao longo desta semana, é uma luta pela defesa dos direitos indígenas adquiridos e para barrar uma avalanche devastadora, liderada pela Frente Parlamentar do Agronegócio. A luta é pela terra, sua posse e uso. A convocação foi da Articulação dos Povos Indígenas do Brasil (Apib) e envolve organizações indígenas e indigenistas de diversas partes do país, agora articuladas e em luta.

A linha do tempo vai até as caravelas de Cabral, mas vamos tomá-la a partir deste ano, para compreender melhor o contexto atual. Em 16 de abril, cerca de 300 índios ocuparam o plenário da Câmara, em protesto contra a instalação de Comissão Especial para analisar a Proposta de Emenda Constitucional (PEC) 215, que torna praticamente impossível a demarcação das terras indígenas, ao tirar esta prerrogativa da Fundação Nacional do Índio (Funai) e transferi-la ao Congresso Nacional.

Na ocasião o presidente da Câmara, Henrique Eduardo Alves (PMDB-RN), prometeu não instalar a comissão antes do final de agosto. A Casa criou então um grupo de trabalho para discutir a condição dos índios no Brasil, cujo relatório seria um subsídio importante para a decisão de constituir ou não a comissão. Integraram o grupo lideranças indígenas, deputados ruralistas e parlamentares que defendem os direitos dos índios. Segundo Lincoln Portela (PR-MG), mediador do grupo, “basicamente aprovamos a rejeição da PEC 215.” A rejeição, concluindo pela inconstitucionalidade do projeto, foi por unanimidade dos presentes, já que nenhum parlamentar da frente do agronegócio compareceu às reuniões.

Na noite de 10 de setembro, contrariando o parecer do grupo de trabalho criado por ele mesmo, Henrique Eduardo Alves instituiu a Comissão Especial para analisar a PEC 215. Alves estaria atendendo compromisso assumido com a bancada ruralista durante sua campanha para a presidência da Câmara. Muitos dos 27 deputados indicados então para a Comissão Especial integram a frente do agronegócio e são autores de projetos que suprimem direitos dos índios, como veremos.

Nessa semana da Mobilização, Alves pretendia instalar a Comissão Especial, com a indicação do relator e do presidente – mas teve de recuar diante das manifestações.

A PEC 215, de 2000, é de autoria do ex-deputado Almir Sá (PRB-RR), atualmente presidente da Federação da Agricultura e Pecuária de Roraima. Ela estabelece a competência exclusiva do Congresso Nacional para aprovar a demarcação das terras tradicionalmente ocupadas pelos indígenas e ratificar as demarcações já homologadas – hoje atribuições exclusivas do Executivo, que as executa por meio da Fundação Nacional do Índio (Funai). Na avaliação de organizações indígenas e indigenistas, na prática significará o fim de novas demarcações. O risco não seria apenas para o futuro, mas também para hoje, pois das 1.046 terras já demarcadas apenas 363 estão regularizadas. As demais, ainda em processo por vários fatores, ficariam com sua homologação na dependência do Congresso. “Como contamos nos dedos quantos congressistas defendem a causa indígena, com certeza nenhuma terra será demarcada”, considera Ceiça Pitaguary, líder do movimento indígena do Ceará.

“A PEC é flagrantemente inconstitucional”, afirmou Dalmo Dallari, professor de direito da Universidade de São Paulo, ao Instituto Socioambiental (ISA): ela não respeita a separação dos poderes. As demarcações e homologações são atribuições do Executivo, procedimentos de natureza administrativa; ao Legislativo compete legislar e fiscalizar. Para alguns antropólogos, o direito à ocupação dessas terras é originário, e está assegurado na Constituição – as demarcações são apenas reconhecimento desse direito pré-existente.

A opinião de Carlos Frederico Maré, professor da Pontifícia Universidade Católica do Paraná vai na mesma direção. Ex-presidente da Funai, ele sustenta que a demarcação é um procedimento eminentemente técnico. Em entrevista ao ISA, disse que “a Constituição não deu direito à demarcação. Deu direito à terra. A demarcação é só o jeito de dizer qual é a terra. Quando se coloca todo o direito sobre a demarcação retira-se o direito à terra, porque então ele só existirá se houver demarcação. É isso que está escrito na PEC: que não há mais direitos originários sobre a terra. Muda-se a Constituição, eliminando-se um direito nela inscrito.”

O Projeto de Lei (PL) 1.610, de 1996, de autoria do senador Romero Jucá (PMDB-RR), dispõe sobre a exploração e o aproveitamento de recursos minerais em terras indígenas. Foi apresentado a pretexto de defender o “interesse nacional” (a ser explorado pela iniciativa privada, conforme o Código de Mineração). Se aprovado, irá se converter em lei complementar ao artigo 231 (Capítulo VIII) da Constituição. O senador pediu regime de urgência. Quer votar, portanto, sem muita discussão, e a matéria só não foi submetida à apreciação da Casa devido à mobilização em torno do tema. Na prática, talvez seja tão ou ainda mais danosa que a PEC 215. E não seria de duvidar que esta estaria sendo o boi de piranha, já que o governo mostrou-se receptivo ao PL 1.610.

Já o PL 227, de 2012, retrata cruamente um dos aspectos centrais do chamado “sequestro da democracia” pelas instituições que deveriam expressá-la. Foi proposto pelo deputado Homero Pereira (PSD-MT), ex-presidente da Frente Parlamentar do Agronegócio, a princípio com redação que visava dificultar as futuras demarcações de terras indígenas. Fazia-o diluindo atribuições da Funai e incluindo, entre as comissões encarregadas de definir novos territórios, os proprietários de terra. Já em sua origem era, portanto, anti-indígena.

Mas tornou-se muito pior, ao tramitar pela comissão de Agricultura, Pecuária e Desenvolvimento Rural da Câmara. Sem que tenha havido debate algum com a sociedade, os deputados que integram a comissão transformaram inteiramente sua redação. Converteram-no num projeto de lei que, se aprovado, revogará na prática, pela porta dos fundos, o Artigo 231 da Constituição.

Tal dispositivo trata dos direitos indígenas. Reconhece “sua organização social, costumes, línguas, crenças e tradições e os direitos originários sobre as terras que tradicionalmente ocupam”. Estabelece uma única exceção: em situações extremas, em que houvesse “relevante interesse público da União”a exclusividade dos indígenas seria flexibilizada e seus territórios poderiam conviver com outros tipos de uso. Esta possibilidade, rara, precisaria ser definida em lei complementar.

Na redação inteiramente nova que assumiu, o PL 227/2012 é transformado nesta lei complementar. E estabelece, já em seu artigo 1º, um vastíssimo leque de atividades que poderão ser praticadas nas terras indígenas. Estão incluídas mineração, construção de hidrelétricas, rodovias, ferrovias, portos, aeroportos, oleodutos, gasodutos, campos de treinamento militar e muitos outros.

Um inciso (o VIII), de redação obscura, procura ampliar ainda mais as possibilidades de violação dos territórios índios. Estabelece que é também “de relevante interesse público da União” a “legítima ocupação, domínio e posse de terras privadas em 5 de outubro de 1988”. Embora pouco claro, o texto dá margem a uma interpretação radical. A data mencionada é a da entrada em vigor da Constituição – quando foram reconhecidos os atuais direitos indígenas. Estariam legitimados, portanto, os “domínios e posses de terras privadas” existentes antes da Carta atual. Em outras palavras, a legislação recuaria no tempo, para anular na prática as demarcações que reconheceram território indígena e afastaram deles os ocupantes ilegítimos.

A PEC 237, de 2013, é de iniciativa do deputado Nelson Padovani (PSC-PR), titular do PSC na Comissão Especial da PEC 215, integrante da comissão do PL 1.610 e um dos signatários do pedido de criação da CPI da Funai, uma das estratégias da Frente para enfraquecer o órgão federal, já penalizado por redução de verbas. Essa PEC, se aprovada, tornará possível a posse indireta de terras indígenas a produtores rurais na forma de concessão. Será a porta de entrada do agronegócio aos territórios demarcados, e essa possibilidade tem tirado o sono de indígenas e indigenistas.

portaria 303, de iniciativa da Advocacia Geral da União (AGU) em 16/07/2012, é outro dispositivo que tolhe direitos indígenas, com tom autoritário, em especial no inciso V do art. 1º, em que o usufruto dos índios não se sobrepõe ao interesse da política de defesa nacional (!), à instalação de bases, unidades e postos militares e demais intervenções militares, à expansão estratégica da malha viária, à exploração de alternativas energéticas de cunho estratégico e ao resguardo das riquezas de cunho estratégico, a critério dos órgãos competentes (Ministério da Defesa e Conselho de Defesa Nacional), projetos esses que serão implementados independentemente de consulta às comunidades indígenas envolvidas ou à Funai (grifo nosso).

É a pavimentação para o avanço econômico do capitalismo sem fronteiras, além de contrariar a Convenção 169 da OIT (Organização Internacional do Trabalho), de 1989, assinada pelo Brasil, a qual assegura o direito de os povos indígenas serem consultados, de forma livre e informada, antes de serem tomadas decisões que possam afetar seus bens ou direitos.

Todas essas iniciativas legais têm por objetivo possibilitar o avanço do agronegócio e da exploração de lavras minerais sobre as terras indígenas. Assim se permitiria inclusive a intrusão em territórios de nações não contatadas. Basta um simples olhar na autoria dos projetos, na trajetória negocial de seus autores e apoiadores, em suas relações comerciais com o agronegócio nacional e estrangeiro e na sua atuação articulada através de uma Frente Parlamentar para se ter certeza de que o interesse econômico é privado, setorista e excludente, em nada aparentado ao interesse nacional, do bem comum ou da União. Se há diversificação de interesses nos projetos, é na razão direta da fome, mas de lucros, do agronegócio, da bancada ruralista, das mineradoras, das madeireiras e empreiteiras.

Marcelo Degrazia é escritor. Autor de A Noite dos Jaquetas-Pretas e do blog Concerto de Letras.

** Publicado originalmente no site Outras Palavras.

Contra o mugido das vacas, por José Ribamar Bessa Freire (Racismo Ambiental)

Por , 06/10/2013 06:26

Guarani no monumento SP

Em Taqui Pra Ti

No momento em que a Constituição Federal comemora 25 anos de existência, se ouve o mugido das vacas, o relincho dos cavalos e o trote das mulas que invadem o plenário do Congresso Nacional e se misturam ao zumbido estridente da moto serra. É possível sentir o bufo agressivo que sai em jatos de ar pelas narinas de parlamentares. Essa é a voz da bancada ruralista formada por 214 deputados e 14 senadores, que querem anular os direitos constitucionais dos índios. Seus “argumentos” são relinchos, bater de cascos, coices no ar e, por isso, não conseguem convencer os brasileiros.

Nas principais cidades do país ocorreram manifestações contra esta ofensiva do agronegócio. Nesta semana, a Articulação dos Povos Indígenas do Brasil (APIB) organizou Mobilização Nacional em defesa dos direitos indígenas. A parte sadia do país disse um rotundo “não” ao pacote de dezenas de Projetos de Emenda Constitucional (PEC) ou Projetos de Lei Complementar (PLP) que tramitam no Congresso apresentados pela bancada ruralista e pela bancada da mineração.

Esses parlamentares querem exterminar as culturas indígenas não por serem gratuitamente malvados, perversos e cruéis, mas porque pretendem abocanhar as terras tradicionalmente ocupadas pelos índios. Para ampliar a oferta de terras ao agronegócio, lançam ofensiva destinada a mudar até cláusulas pétreas da Constituição. Exibem despudoradamente seus planos em discursos e através da mídia como os artigos na Folha de São Paulo da senadora Kátia Abreu (PSD-TO vixe, vixe), a muuuusa da bancada ruralista e do deputado Luis Carlos Heinze (PP-RS vixe vixe).

Causa inconfessável

Quase todos os parlamentares da bancada ruralista tiveram suas campanhas financiadas por empresas de capital estrangeiro como Monsanto, Cargill e Syngente, além da indústria de armas e frigorífico, conforme dados da Transparência Brasil. Afinal, é disso que eles vivem, dessa promiscuidade com o capital estrangeiro, sem o qual não poderiam exportar e comprar produtos. Querem agora liberar as terras indígenas para grandes empresas brasileiras e estrangeiras plantarem monoculturas com agrotóxicos, construir barragens no rios e extrair minérios para a exportação.

No entanto, os ruralistas não podem confessar aos eleitores que seu objetivo é o lucro, apenas o lucro, nada mais que o lucro. Inventam, então, que estão defendendo “os interesses nacionais” e classificam como “anti-Brasil” os que não concordam com eles. Essa é uma velha tática, usada no século XIX, quando o agronegócio da época acusava os que defendiam a abolição dos escravos de representarem interesses estrangeiros. Trata-se de ganhar para uma causa indefensável os brasileiros crédulos que amam sua Pátria. Aí exploram o nacionalismo e apostam na desinformação.

No artigo com título sugestivo – “Causa Inconfessável” – a senadora Kátia Abreu tenta desqualificar os índios e seus aliados com uma argumentação esdrúxula. Sem citar fontes, sem dizer de onde tirou a informação, ela jura que “são mais de 100 mil ONGs, a maioria estrangeira, associadas a dois organismos ligados à Igreja Católica: o CIMI (Conselho Indigenista Missionário) e a CPT (Comissão Pastoral da Terra)”.

E por que cargas d’água milhares de ONGs estrangeiras defenderiam as terras indígenas? Na maior cara de pau, ofendendo a inteligência do leitor, a senadora Kátia Abreu, ousa dizer que elas querem destruir a agricultura brasileira. Comete um erro vergonhoso para uma parlamentar ao confundir nação com estado. Exibe sua ignorância deixando no chinelo o Tiririca:

Os financiadores são países que competem com a agricultura brasileira e que cobiçam nossas riquezas minerais e vegetais. São os mesmos que, reiteradamente, defendem que essa parte do território nacional deve ser cedida, e os brasileiros índios, transformados em nações independentes da ONU”.

Tudo nebuloso, deseducativo, desinformativo. A senadora não dá nomes nem aos bois nem às vacas, não diz quais são esses países, não diz quem quer decepar os territórios indígenas do Brasil e omite que as terras indígenas pertencem, constitucionalmente, à União e não aos índios. A “causa” dos ruralistas é, realmente, “inconfessável”: cada vez que uma medida prejudica seus lucros, dizem que “é ruim para o Brasil”, quando favorece “é bom para o Brasil”. O Brasil é a conta bancária deles. Sem confessar a origem dos recursos que financiam os ruralistas, a senadora faz dos índios um tábua de tiro ao alvo:

“É do mais alto interesse nacional – sobretudo do interesse dos próprios índios – saber quando, de onde vêm e como são gastos os millhões de dólares que sustentam a ação deletéria dessas organizações, que fazem dos índios escudos humanos de uma causa inconfessável”.

Cavaleira da desesperança

“É hora de defender o Brasil” berra o deputado Luis Carlos Heinze no título de seu artigo (3/10), que reproduz o mesmo papo furado, a mesma lenga-lenga, excluindo os índios da comunhão nacional. Ataca a FUNAI – Fundação Nacional do Índio – por identificar “pretensas terras indígenas” contra os ruralistas que ele diz serem “os legítimos detentores de terras”. E faz eternas juras de que está defendendo a pátria ameaçada por índios e por ONGs.

Nunca foi tão apropriada a conhecida frase do escritor inglês do século XVIII, Samuel Johnson, aclimatada por Millor Fernandes, no século XX, ao nosso contexto: “O patriotismo é o último refúgio dos canalhas” – escreveu Johnson. “No Brasil, é o primeiro”, acrescentou Millor.

A senadora, que se diz católica, bate na mesma tecla. Escreve que os defensores dos direitos indígenas “exercem notória militância política, de cunho ideológico, sob a inspiração da Teologia da Libertação, de fundo marxista”. Está zangada com a Igreja, que ela quer defendendo os interesses dos ruralistas e não dos despossuídos, dos injustiçados, dos espoliados. Esculhamba ainda com a FUNAI “aparelhada por antropólogos que compartilham a mesma ideologia“.

Mas não se limita aí a cavaleira da desesperança. De arma em riste, ataca outros “inimigos”. Ela está convencida de que “além das ONGs e das instituições como o CIMI e a CPT, há dois órgãos voltados para a defesa dos índios: a já citada Funai e a FUNASA, incumbida da saúde e da ação sanitária nas tribos”. Kátia é do tempo em que ainda se dizia que índios vivem em tribos.

“Seriam as terras destinadas à agricultura a causa do sofrimento dos índios?” – pergunta em seu artigo. E ela mesma responde: “Quem quiser que tire suas conclusões: os índios brasileiros dispõem de extensão de terra de dar inveja a muitos países”. Se um país que é um país sente inveja, imaginem os ruralistas. Por isso, a voz dela, que é a mais estridente  no Senado clama:

– Os índios não precisam de terra e sim de assistência social.

Ela chama de “invasão” a resistência dos índios em não permitir que seus territórios sejam apropriados pelo agronegócio e anuncia:

“Para reagir ao avanço dessas invasões, apresentei ao Senado projeto de lei que suspende processos demarcatórios de terras indígenas sobre propriedades invadidas pelos dois anos seguintes à sua desocupação”.

Guarani na paulista

Foi contra essas medidas do agronegócio e contra esses argumentos preconceituosos e retrógrados que manifestantes se insurgiram em manifestações pacíficas realizadas em Brasília, no Rio, em Belo Horizonte e nas principais cidades brasileiras.  Em São Paulo, a manifestação foi aberta pelos txondaro guarani e contou com a adesão de muitos antropólogos, estudantes, professores.

As imagens da manifestação em São Paulo foram registradas e editadas por Marcos Wesley de Oliveira para o Instituto Socioambiental. Em plena Avenida Paulista, ele entrevistou lideranças indígenas – Megaron Txucarramãe (kayapó), Renato Silva (guarani), Natan Gacán (xokleng), antropólogos – Manuela Carneiro da Cunha e Márcio Silva (USP), Maria Elisa Ladeira (CTI), Lúcia Helena Rangel (PUC/SP), Beto Ricardo (ISA) e os líderes quilombolas do Vale da Ribeira – Nilce Pereira e Ditão.

– Vocês não estão sozinhos – disse a mestranda em Antropologia, Ana Maria Antunes Machado, se dirigindo aos Yanomami, enquanto apontava os manifestantes da Avenida Paulista. Ela falou com bastante fluência em língua Yanomami, pois viveu com eles, com quem trabalhou mais de cinco anos como assessora pedagógica, antes de atuar no Observatório de Educação Indígena coordenado pela pesquisadora Ana Gomes (UFMG). O fato tem forte carga simbólica, por se tratar de alguém tão brasileira quanto a Katia Abreu, mas que, para ouvir os índios e com eles dialogar, aprendeu a língua Yanomami e foi capaz de reverenciá-los.

FAO reafirma o impacto devastador da produção de carne para o clima (Terra)

Em 03/10/2013

Amália Safatle

Não, nem todo ambientalista é vegetariano. Mas que reduzir o consumo de carne ajuda – e muito – isso é inegável. Diante das graves constatações divulgadas pelo Painel Intergovernamental sobre Mudança Climática (IPCC, na sigla em inglês),  uma das maneiras mais à mão – ou da mão à boca –  para contribuir com a redução de emissões é mexer nas formas de produzir e consumir alimentos, especialmente os de origem animal. Focalizando mais: sobretudo os de origem bovina.

O novo relatório da Organização das Nações Unidas para Alimentação e Agricultura (FAO), intitulado Tackling Climate Change Through Livestock, ou Combatendo as Mudanças Climáticas por Meio da Pecuária, é contundente em reafirmar o efeito devastador da criação de dezenas de bilhões de animais. As palavras são da Human Society Internacional (HSI), organização voltada à proteção animal, que pegou uma carona no relatório da FAO para defender não somente a redução no consumo, mas o tratamento mais ético e digno na produção animal – causa das mais nobres.

No estudo, a FAO expõe que somente a criação de animais responde por 14,5% dos gases de efeito estufa gerados por atividades humanas (acesse em http://www.fao.org/docrep/018/i3437e/i3437e.pdf). De acordo com um estudo de 2012, a pegada hídrica dos produtos de origem animal é seis vezes maior para a carne bovina, e uma vez e meia maior para carne de frango, ovos e laticínios, comparada à pegada dos legumes.

Além disso, a  expansão de pastos para animais de produção é uma das principais causas do desmatamento, especialmente no Brasil. Em todo o mundo, segundo a HSI, utilizamos mais terras para alimentar animais de produção do que para qualquer outro fim. Mais de 97% do farelo de soja e 60% da produção global de cevada e milho são usadas para alimentar animais de produção.

O impacto é tamanho que uma família americana de renda média que deixe de consumir carne vermelha e laticínios e os substitua por produtos de origem vegetal apenas um dia por semana terá, ao final de um ano, reduzido suas emissões anuais gases-estufa em volume equivalente ao emitido ao dirigir 1.600 quilômetros.

A partir de cálculos como esse surgiu a campanha Segunda Sem Carne, que propõe às pessoas evitar carne vermelha ao menos uma vez por semana.

É uma tentativa de refrear o aumento da demanda: de 1980 e 2005, o consumo deper capita de carnes no Brasil praticamente dobrou, alcançando níveis similares ao de países desenvolvidos, segundo a FAO. O consumo de laticínios e ovos também cresceu significativamente, em 40% e 20%, respectivamente.

Mas reduzir consumo não é a única alternativa. Para os carnívoros inveterados, o novo relatório da FAO mostra como a produção de carnes pode diminuir seus impactos e emissões se adotar novas tecnologias, técnicas mais avançadas de manejo e elevar a produtividade. Mais que isso, apresenta propostas para formuladores de políticas públicas.

O relatório ainda aponta que programas com objetivo de reduzir as emissões do setor devem também levar em consideração o bem-estar animal. Além de se submeter a regras mais rígidas para um tratamento humanitário dos animais no lado da oferta, na ponta da demanda o consumidor pode dar preferência a produtos que tenham padrões de bem-estar animal mais elevados.

“No Brasil, cerca de 90% da produção de ovos é proveniente do sistema de gaiolas em bateria convencional, tão intensivo que os animais praticamente não podem se mover. Na indústria suína, a maioria das porcas reprodutoras passam praticamente suas vidas inteiras em celas de gestação, que têm praticamente o mesmo tamanho do corpo dos animais e não permitem que as porcas sequer se virem dentro delas ou deem mais do que um passo para frente ou para trás”, informa a HSI.

Segundo a organização, o confinamento de poedeiras nas gaiolas em bateria convencional e o confinamento contínuo de porcas reprodutoras em celas de gestação já foram proibidos em toda a União Europeia e em vários estados dos EUA. Líderes de mercado como McDonald’s, Burger King, Wendy’s e Costco anunciaram que eliminarão o uso de celas de gestação em suas cadeias de fornecimento nos EUA.

Resta saber por que essas redes têm políticas diferenciadas nos países em que atuam, em vez de enfrentar o assunto de forma global, partindo do simples respeito à vida, seja ela qual for.

Antropólogos x ruralistas

JC e-mail 4826, de 03 de Outubro de 2013.

A Constituição em perigo

Ruralistas tentam tornar legais as transgressões da lei. Primeiro foi o Código Florestal. Agora querem legalizar o esbulho de terras indígenas

Artigo de Manuela Carneiro da Cunha* publicado na Folha. Há 25 anos, em 1988, uma nova Constituição afirmou que o país queria novos rumos

O capítulo dos direitos dos índios na Constituição de 1988 foi emblemático dessa postura. Não tanto pelo reconhecimento do direito dos índios à terra, que já figurava em todas as Constituições do século 20. Mais significativo foi o abandono da ideia –esta do século 19– de que a missão da chamada civilização consistia em fazer os índios deixarem de ser índios. Em vez disso, pela primeira vez, celebrou-se a diversidade como um valor a ser preservado.

Em 1988, as expectativas de mineração e construção de hidrelétricas em áreas indígenas já eram contrárias à afirmação dos direitos dos índios. No entanto, a Confederação Nacional dos Geólogos se opôs aos interesses das mineradoras e entendeu que as terras indígenas constituíam uma reserva mineral. Ou seja, elas deveriam ser as últimas a serem consideradas para mineração, quando o minério fosse de interesse estratégico indiscutível e não houvesse alternativa no território nacional.

Na Constituinte, chegou-se finalmente a um acordo: exceções às garantias de usufruto exclusivo dos índios sobre suas terras, somente em caso de relevante interesse da União. Foi o parágrafo 6º do artigo 231 da CF. O entendimento era de que cada caso seria debatido e sua excepcionalidade comprovada.

Agora, 25 anos mais tarde, as exceções pretendem se tornar a regra. Como? Definindo –a pretexto de regulamentar o tal parágrafo– o “relevante interesse da União” de uma forma tão genérica e tão ampla que tudo caiba nela. Pasme: passa a ser de “relevante interesse nacional” qualquer mineração e hidrelétrica, é claro, além de estradas, oleodutos, gasodutos, aeroportos, portos fluviais e até assentamentos agrários. E no final, a pérola que trai a origem da manobra: podem ser “de relevante interesse da União” até terras indígenas intrusadas, com títulos contestáveis.

Esse é o teor de um projeto de lei complementar na Câmara, de origem ruralista, o PLP 227/2012. Outro projeto, de redação mais sutil, mas com efeitos até piores, foi apresentado recentemente pelo senador Romero Jucá do PMDB de Roraima, e, sem sequer ainda ter número, deve ter rápida tramitação. Deve-se reconhecer a esperteza da manobra, que pretende acabar de uma vez com todas as restrições.

O que está acontecendo? A bancada ruralista, aliada à bancada da mineração, está tomando conta do nosso Congresso. Por outro lado, desde 1988, as terras públicas remanescentes foram sendo destinadas para se garantir o que interessa ao Brasil como um todo, por exemplo a conservação ambiental.

A investida dos ruralistas, agora em posição de força no Congresso –e, portanto, no governo também– é no sentido de tornar legais todas as transgressões da lei que já eram praticadas. Primeiro foi o Código Florestal, desfigurado há dois anos, que anistiou os desmatamentos irregulares. Agora querem legalizar o esbulho de terras indígenas.

Na tentativa de influenciar a opinião pública, os ruralistas usam como fachada os pequenos agricultores. A situação hoje é a seguinte: a definição de áreas de conservação ambiental e a demarcação de terras indígenas e de quilombolas estão paradas. Multiplicaram-se os projetos de lei e de emendas constitucionais que lhes são hostis.

Um exemplo gritante é a proposta de emenda constitucional (PEC) 215, que quer tirar do Executivo e passar para o Congresso a demarcação das terras indígenas, o que, na prática, significa o fim das demarcações.

Por toda esta semana, índios e não índios protestam contra o desmantelamento do capítulo “Dos Índios” na Constituição Federal. Mas esse não é só um ataque aos índios. É todo o nosso projeto de futuro que está em jogo.

*Manuela Carneiro da Cunha é antropóloga, é membro da Academia Brasileira de Ciências e professora titular aposentada da Universidade de São Paulo e da Universidade de Chicago

(Folha de S.Paulo)

 

É hora de defender o Brasil

Artigo de Luis Carlos Heinze* publicado na Folha. Demarcações fundamentadas em estudos antropológicos superficiais e sem isenção e laudos tendenciosos prevalecem na farsa indigenista

O princípio da legalidade no Brasil é o de que a administração nada pode fazer senão o que a lei determina –e essa é justamente uma das principais garantias do cidadão.

Esse preceito, porém, não é observado pela Fundação Nacional do Índio (Funai), que, de forma arbitrária e ideológica, desrespeita até a Constituição. Impedir que seus atos sejam analisados por outros órgãos, como faz com o apoio do Ministério Público, é ainda uma afronta ao sistema democrático.

Com insistência, a Funai identifica pretensas terras indígenas por meio de procedimentos administrativos de natureza inquisitória. O resultado é a insegurança jurídica.

O direito ao contraditório e à defesa foram extintos. A perda da propriedade é a pena imposta a legítimos detentores de terras de forma afrontosa à cláusula pétrea do dispositivo constitucional.

Demarcações fundamentadas em estudos antropológicos superficiais, sem a necessária isenção, e laudos tendenciosos e fraudulentos prevalecem na farsa indigenista. A evidência é tanta que a Procuradoria-Geral da República firmou acordo com a Associação Brasileira de Antropólogos, e a Funai contrata apenas os profissionais sugeridos para desenvolver seus estudos, que são, claro, favoráveis aos indígenas.

Apoiada por interesses de ONGs, do Conselho Indigenista Missionário (Cimi) e por setores do Ministério Público, a Funai se porta como um poder judiciário paralelo –ela mesma denuncia, julga e condena.

Com tantas irregularidades, apropriação de poderes e interpretações equivocadas, defendemos a aprovação da PEC 215 para esclarecer o que a Carta Magna estipula: é o Congresso Nacional que disciplina os bens da União. E o que são terras indígenas? Bens da União. Resta óbvio que os limites desses territórios são de competência do Legislativo. A PEC só faz reafirmar esse poder.

Também discutimos a regulamentação do artigo 231 da lei suprema para impor um marco temporal às demarcações, por meio do projeto de lei complementar (PLP) 227/12. Que mais uma vez é redundante: a Carta de 88 é claríssima ao expor que “a União concluirá as demarcações das terras indígenas no prazo de cinco anos a partir da promulgação da Constituição”. Constitucionalmente, esse é o prazo legal para as delimitações e deve ser respeitado rigorosamente. Hoje, 25 anos após a promulgação, existem mais de 500 processos em andamento e, a cada dia, surge um novo.

Segundo a Funai, no Brasil, há 110 milhões de hectares reconhecidos como terras indígenas –13% do território brasileiro– para atender uma população que não ultrapassa 900 mil índios –0,4% da população. Não bastasse, a Funai ainda quer mais 40 milhões de hectares –e não haverá limites, se não barrarmos o abuso.

Mais estranho ainda é o apoio do Ministério Público à Funai, ao desmerecer seu papel institucional de guardião da Constituição. É chegada a hora de defendermos o Brasil. Nós, deputados e senadores da Frente Parlamentar da Agropecuária, vamos impor esse respeito, para o bem do país e de seus cidadãos.

LUIS CARLOS HEINZE* é engenheiro agrônomo, deputado federal (PP-RS) e líder da Frente Parlamentar da Agropecuária

(Folha de S.Paulo)

“O REDD+ está pedindo socorro”, alerta Conservação Internacional (CarbonoBrasil)

Economia

01/10/2013 – 11h51

por Fabiano Ávila, do CarbonoBrasil

florestanew 300x208 O REDD+ está pedindo socorro, alerta Conservação Internacional

ONG afirma que mecanismo está ameaçado pelo grande desequilíbrio entre oferta e demanda; enquanto mais de 22 milhões de créditos podem ser gerados anualmente, apenas 6,8 milhões teriam compradores. 

A demora para criar instrumentos que estimulem, ou obriguem, países e empresas a comprar créditos florestais de carbono e a falta de vontade política para incluir o REDD+ (clique aqui e saiba mais sobre o conceito de REDD+)  em mercados já estabelecidos, como o EU ETS, estão resultando no excesso de créditos no mercado voluntário, causando a queda dos preços e diminuindo o interesse para o desenvolvimento de projetos de conservação florestal.

Essa é a mensagem central que a Conservação Internacional (CI) tenta passar com o relatório “REDD+ Market: Sending Out an SOS” (algo como Mercado de REDD+: pedindo socorro).

De acordo com a ONG, apenas considerando a certificação Verified Carbon Standard (VCS), até 22 milhões de créditos podem ser gerados anualmente, porém, a demanda do mercado voluntário atualmente não passaria de 6,8 milhões. Desde 2010, a procura por esse tipo de crédito teria caído 65%.

Esse desequilíbrio entre oferta e demanda fez com que o preço médio dos créditos do REDD+ passasse de US$ 12 em 2011 para US$ 6 no ano passado.

A CI aponta que o REDD+ já ajudou a proteger mais de 14 milhões de hectares de florestas. Além disso, trouxe ganhos para mais de 70 mil pessoas em comunidades locais, evitou as emissões de quatro milhões de toneladas de CO2 equivalente desde 2009 e protegeu 139 espécies que estão ameaçadas de extinção.

situacaoredd 133x300 O REDD+ está pedindo socorro, alerta Conservação Internacional“A falta de recompensas financeiras para esses casos de sucesso envia um sinal forte e preocupante para todos os países desenvolvendo esforços para reduzir o desmatamento. Suas ações não têm recebido apoio, mas indiferença e incertezas. Esse sinal não gera a motivação necessária para promover as reformas políticas complexas que o REDD+ tanto precisa”, afirma o relatório.

Como podem apenas ser negociados no mercado voluntário, os créditos do REDD+ são muito dependentes de doadores e de ferramentas internacionais que ainda não possuem a abrangência para estimular novos projetos de forma sustentável.

O relatório cita a Forest Carbon Partnership Facility’s do Banco Mundial (FCPF), o fundo de ação antecipada de REDD+ da Alemanha e o futuro Fundo Climático Verde como exemplos de mecanismos que têm buscado aumentar a demanda por créditos, mas que, no entanto, ainda são muito limitados em termos de disponibilização de financiamentos, de escopo geográfico e de velocidade de implementação.

Propostas

Uma das soluções óbvias citadas pela CI passa por garantir um preço justo para os créditos de REDD+.

Isso poderia ser conseguido de diversas formas: maior interesse dos fundos climáticos pelo REDD+, expansão dos programas de compensação voluntária do setor privado e a criação de compromissos para países doadores.

“Essas ações ajudariam a catalisar novos investimentos assim como estabilizariam a situação dos atuais projetos para os próximos anos, reduzindo a vulnerabilidade das comunidades devido à queda dos preços do REDD+”, afirma o relatório.

Outro ponto que precisa receber atenção seria o reconhecimento dos benefícios múltiplos dos projetos de REDD+.

Segundo a CI, as iniciativas de conservação florestal melhoram a vida de povos nativos, protegem a biodiversidade e garantem os serviços ecossistêmicos.

Assim, programas governamentais que tenham objetivos semelhantes aos que são alcançados pelo REDD+ deveriam considerar o financiamento desse tipo de projeto. Dessa forma, o mecanismo seria encarado não apenas como uma ferramenta para “compensar emissões”, mas também como um modelo de desenvolvimento inteligente.

O relatório destaca que muitos projetos já começam a ser desenvolvidos pelos próprios povos nativos, como é o caso do Projeto de Carbono Florestal Suruí, da Terra Indígena Sete de Setembro do povo Paiter Suruí, localizado nos estados de Rondônia e Mato Grosso.

Inclusive, no mês passado, o projeto Suruí vendeu seus primeiros créditos de REDD+; foram 120 mil unidades compradas pela Natura.

A CI conclui que a importância de manter o REDD+ funcionando em um alto nível de qualidade não pode ser subestimada. Não apenas para lidar com o desmatamento e com as emissões de gases do efeito estufa, mas também para evitar os impactos negativos que projetos mal elaborados podem produzir.

“Para alcançar os resultados esperados, está claro que o REDD+ deve melhorar em escala, mas também em questões como legislação (…) Isso deve ser feito para evitar que estímulos perversos sejam criados”, explica o relatório.

A ONG está neste caso se referindo aos riscos muitas vezes associados ao REDD+, como a exploração dos povos nativos e os conflitos por terras.

“Estabelecer estruturas institucionais é necessário para implementar a gestão local que facilitará o desenvolvimento de mecanismos de REDD+ nacionais e internacionais”, conclui a CI.

* Publicado originalmente no site CarbonoBrasil.

O que é e como surgiu o REDD? (ipam.org.br)

Florestas tropicais representam hoje 15% da superfície terrestre (FAO, 2006 apud GCP, 2008) e contém cerca de 25% de todo o carbono contido na biosfera terrestre (BONAN, 2008 apud GCP, 2008). Além disso, 90% dos cerca de 1,2 bilhões de pessoas que vivem abaixo da linha da pobreza dependem dos recursos florestais para sobreviverem (GCP, 2008).

Segundo a FAO (Food and Agriculture Organization), das Nações Unidas (2006), aproximadamente 13 milhões de hectares de florestas tropicais são desmatados todos os anos (uma área equivalente ao Peru).

Preservar florestas, além da redução nas emissões de gases do efeito estufa, tem o potencial de gerar co-benefícios substanciais, como impactos positivos sobre a biodiversidade e sobre a conservação de recursos hídricos.  A floresta em pé também auxilia na estabilização do regime de chuvas e, conseqüentemente, do clima (Angelsen, 2008).

O relatório do IPCC publicado em 2007 (IPCC, 2007) estimou as emissões por desmatamento nos anos 1990 como sendo de aproximadamente 20% do total, fazendo da “mudança no uso da terra” a segunda atividade que mais contribui para o aquecimento global (GCP, 2008).

Conceito e desenvolvimento

O conceito de REDD (Redução das Emissões por Desmatamento e Degradação florestal), basicamente, parte da idéia de incluir na contabilidade das emissões de gases de efeito estufa aquelas que são evitadas pela redução do desmatamento e a degradação florestal.  Nasceu de uma parceria entre pesquisadores brasileiros e americanos, que originou uma proposta conhecida como “Redução Compensada de Emissões” (Santilli et al, 2000), que foi apresentada durante a COP-9, em Milão, Itália (2003), por IPAM e parceiros. Segundo este conceito, os países em desenvolvimento detentores de florestas tropicais, que conseguissem promover reduções das suas emissões nacionais oriundas de desmatamento receberiam compensação financeira internacional correspondente às emissões evitadas. O conceito de redução compensada tornou-se a base da discussão de REDD nos anos seguintes.

Em seguida, durante a COP-11, em Montreal, Canadá (2005) a chamada “Coalition of Rainforest Nations” ou “Coalizão de Nações Tropicais”, liderados por  Papua Nova Guiné e Costa Rica, apresentou uma proposta similar que tem por objetivo discutir formas de incentivar economicamente a redução do desmatamento nos países em desenvolvimento, detentores de florestas tropicais (Pinto et al, 2009).

O argumento colocado é que os países tropicais são responsáveis por estabilizar o clima por meio de suas florestas e, assim, os custos para mantê-las em pé devem ser divididos por todos. Esta iniciativa fez com que, oficialmente, o assunto REDD fosse incluído na pauta de negociações internacionais.

Um ano depois, na COP-12, em Nairobi, Nigéria (2006), o governo brasileiro anunciou publicamente uma proposta para tratar da questão do desmatamento, também muito parecida com as anteriores, só que sem considerar o mecanismo de mercado de créditos de carbono e sim as doações voluntárias.

A COP-13, realizada em Bali, Indonésia, em 2007, culminou com a Decisão 1/ CP 13, conhecida como “Mapa do Caminho de Bali”, para discutir como inserir o tema REDD num mecanismo que será estruturado para iniciar em 2012, ano em que chega ao fim o primeiro período de compromisso do Protocolo de Quioto.

É imprescindível notar que este mecanismo foi inicialmente concebido para os países em desenvolvimento que detêm florestas tropicais, permitindo-os participar efetivamente dos esforços globais de redução de emissões de gases de efeito estufa.

Necessário também salientar que a discussão sobre o desmatamento evitado evoluiu de um mecanismo que tinha foco somente no desmatamento evitado (COP 11, 2005), para ser ampliado e incluir a degradação de florestas (COP 13, 2007),

e REDD+?

Hoje o conceito foi ampliado e é conhecido como REDD+, se refere à construção de um mecanismo, ou uma política, que deverá contemplar formas de prover incentivos positivos aos países em desenvolvimento que tomarem uma ou mais das seguintes ações para a mitigação das mudanças climáticas:

1. Redução das emissões derivadas de desmatamento e degradação das florestas;

2. Aumento das reservas florestais de carbono;

3. Gestão sustentável das florestas;

4. Conservação florestal. (Pinto et al, 2009).

—————

Referências:

ANGELSEN, Arild. (org.). Moving Ahead with REDD: Issues, Options and Implications. CIFOR. Poznan, Polônia. 2008.

GLOBAL CANOPY PROGRAM. The Little REDD Book: A guide to Governmental and non-governmental proposals for Reducing Emissions from Deforestation and Degradation. 2008. Disponível em: http://www.the littleREDDbook.org

INTERNATIONAL PANEL ON CLIMATE CHANGE (IPCC). Climate Change Synthesis Report. Summary for Policymakers. Switzerland. 2007.

PINTO, Erika; MOUTINHO, Paulo; RODRIGUES, Liana; OYO FRANÇA, Flavia Gabriela; MOREIRA, Paula Franco; DIETZSCH, Laura. Cartilha: Perguntas e Respostas Sobre Aquecimento Global. 4a edição. Instituto de Pesquisa Ambiental da Amazônia. Belém. 2009.

SANTILLI, Márcio; MOUTINHO, Paulo; SCHWARTZMAN, Stephan; NEPSTAD, Daniel; CURRAN, Lisa; NOBRE, Carlos. Tropical deforestation and the Kyoto Protocol: an editorial essay. Instituto de Pesquisa Ambiental da Amazônia. 2000.

Contribuição de conteúdo por Ricardo Rettmann (ricardo.rettmann@ipam.org.br)

————–

Acesse publicação REDD no Brasil: um enfoque amazônico

O livro apresenta e discute as condições favoráveis do Brasil à implementação de um regime nacional de REDD+ e propõe dois modelos de estrutura institucional para a repartição de benefícios: um baseado na distribuição por estados e outra por cate-gorias fundiárias. REDD+ é aqui discutido como um elemento importante na transição do modelo de desenvolvimento da Amazônia para um de baixas emissões de carbono, com distribuição de renda e justiça social. A alteração mais importante desta 3a edição foi a utilização da metodologia de cálculo do desmatamento evitado proposta pelo Comitê Técnico do Fundo Amazônia, juntamente com parâmetros fixados pelo Decreto 7.390/2010, que regulamenta a Política Nacional sobre Mudança do Clima. Esta alteração nos cálculos não altera a mensagem central do livro, porém pode ser percebida em algumas figuras chaves que demonstram o valor total do desmatamento evitado no Brasil.

Faça download da publicação

Pesquisadores alertam sobre necessidade urgente de proteger os oceanos (Fapesp)

Artigo de brasileiro e uruguaio será publicado como editorial no periódico Marine Pollution Bulletin(Wikipedia)

02/10/2013

Por José Tadeu Arantes

Agência FAPESP – Estima-se que 41% dos mares e oceanos do planeta se encontrem fortemente impactados pela ação humana, segundo estudos. Trata-se de um problema grave que não tem recebido a merecida atenção. Um exemplo está no ritmo de implementação da diretriz relativa à proteção marinha definida pela Convenção sobre Diversidade Biológica (CDB), da Organização das Nações Unidas (ONU).

Aprovada por 193 países mais a União Europeia durante a 10ª Conferência das Partes da CDB, realizada em Nagoya, Japão, em outubro de 2010, essa diretriz estabeleceu que, até 2020, pelo menos 10% das áreas costeiras e marinhas, especialmente aquelas importantes por sua biodiversidade, deveriam estar protegidas.

Decorrido quase um terço do prazo, porém, as chamadas Áreas de Proteção Marinha (APMs) não cobrem mais do que 1,17% da superfície dos mares e oceanos do planeta. Dos 151 países com linha de costa, apenas 12 excederam os 10%. E a maior potência do mundo, os Estados Unidos, dotada de extensos litorais tanto no Atlântico como no Pacífico, não aderiu ao protocolo.

As informações, que configuram um alerta urgente, estão no artigo Politics should walk with Science towards protection of the oceans (“A política deve caminhar com a ciência na proteção dos oceanos”), assinado pelo brasileiro Antonio Carlos Marques, professor associado do Instituto de Biociências da Universidade de São Paulo, e pelo uruguaio Alvar Carranza, pesquisador do Museu Nacional de História Natural, do Uruguai. Enviado ao Marine Pollution Bulletin, o texto, que será publicado como editorial da versão impressa do periódico, está disponível on-line em www.sciencedirect.com/science/article/pii/S0025326X13004530.

O artigo também destaca que, com uma das mais extensas costas do mundo – de 9.200 quilômetros, se forem consideradas as saliências e reentrâncias –, o Brasil possui apenas 1,5% de seu litoral protegido por APMs. Além disso, 9% das áreas consideradas prioritárias para conservação já foram concedidas a companhias petroleiras para exploração. As costas altamente povoadas dos Estados de São Paulo e Rio de Janeiro concentram a maioria das reservas de petróleo do país.

Os dados publicados são derivados de dois projetos apoiados pela FAPESP e coordenados por Marques: um projeto de Auxílio à Pesquisa – Regular, que apoia a Rede Nacional de Pesquisa em Biodiversidade Marinha (Sisbiota Mar), e um Projeto Temático para pesquisar fatores que geram e regulam a evolução e diversidade marinhas.

“Como um expediente para cumprir a meta, alguns governos têm criado Áreas de Proteção Marinha gigantescas, mas em torno de ilhas ou arquipélagos praticamente desabitados, muito distantes do próprio país”, disse Marques à Agência FAPESP.

“A maior APM do mundo, situada no arquipélago de Chagos, tem mais de meio milhão de quilômetros quadrados. É uma área enorme, que cumpre, com sobra, a meta do Reino Unido”, disse. O arquipélago faz parte do Território Britânico do Oceano Índico.

“Porém a população dessa área se resume ao contingente rotativo de uma base britânica. A ninguém mais. Além disso, as características da área, situada no meio do Oceano Índico, em nada correspondem à biodiversidade do Reino Unido”, prosseguiu.

Embora reconheça o valor de uma APM como essa, Marques argumenta que sua criação não é necessariamente efetiva em termos de preservação ambiental. Segundo ele, cumpre-se o aspecto quantitativo, mas não o qualitativo, ou seja, não oferece proteção efetiva ao litoral do país onde está a maior parte de sua população. E o que é mais grave, segundo Marques, é que o mesmo expediente foi adotado em todas as outras grandes APMs criadas recentemente.

“Verificamos, e divulgamos em nosso artigo, que a população média das 10 maiores APMs do mundo, computada em raios de 10 quilômetros em torno das mesmas, é de apenas 5.038 pessoas”, informou Marques. E essa média é puxada para cima por apenas duas APMs, a Reserva Marinha de Galápagos (Equador) e o Parque Nacional da Grande Barreira de Corais (Austrália), ambas com pouco mais de 25 mil habitantes. A população total das demais APMs não chega a 4 mil indivíduos, sendo nula em três delas.

“Para os governos, é uma medida muito cômoda criar áreas de proteção ambiental em regiões como essas, porque o desgaste socioeconômico de tal implementação é baixíssimo. Exceto por uma ou outra indústria pesqueira, ninguém vai reclamar muito. É uma situação muito diferente da que ocorreria se as APMs fossem criadas nos litorais dos respectivos países”, disse Marques.

O pesquisador ressalta que essas áreas remotas são úteis, como nas APMs de Galápagos e da Barreira de Corais, pela especialidade dos ecossistemas protegidos. Mas as APMs não seriam representativas da gama de ambientes dos países.

Fracassos e sucessos

“Nossa principal intenção ao escrever o artigo foi destacar que existe uma necessidade de proteção, que pode ser parcialmente atendida pela meta de 10%, mas essa proteção tem que respeitar os ambientes reais dos países. Não basta alcançar o número sem que haja uma correspondência entre quantidade e qualidade”, disse Marques.

O pesquisador conta que, ao enviar o artigo para o Marine Pollution Bulletin, um de seus objetivos foi estabelecer uma interlocução com o editor do periódico, Charles Sheppard, da University of Warwick, no Reino Unido. Sheppard é considerado uma das maiores autoridades em conservação marinha do mundo e foi um dos mentores da APM britânica do arquipélago de Chagos.

“A resposta do professor Sheppard foi a mais positiva que eu poderia esperar, tanto que ele decidiu publicar nosso artigo como editorial do Marine Pollution Bulletin.

De acordo com Marques, os dados básicos e as análises gerados pelos cientistas são vitais para o melhor uso dos recursos, ao estabelecer áreas de preservação.

“É necessário entender se a área é a ideal para ser protegida do ponto de vista evolutivo, genético, biogeográfico, ecológico etc. Há exemplos de sucesso em que isso foi observado e exemplos de fracassos em que foi ignorado. O melhor cenário possível é aquele em que cientistas, técnicos e políticos participam francamente do processo”, disse.

Privatização das águas e a desilusão dos pescadores artesanais (IHU On-Line)

Sociedade

02/10/2013 – 11h26

por Redação do IHU On-Line

pescadores artesanais alto uruguai 370x230 Privatização das águas e a desilusão dos pescadores artesanais

Foto: http://bit.ly/1fNDm5V

Com a privatização das águas, “não só os pescadores serão prejudicados, mas a sociedade de modo geral, porque vai haver um processo de diminuição da pesca artesanal”, adverte a integrante do Movimento dos Pescadores e Pescadoras artesanais.

Responsável por 70% da produção de pescado no país, a pesca artesanal está ameaçada pelo Projeto do Ministério da Pesca e da Aquicultura, denominado pelo movimento dos pescadores e pescadoras tradicionais de “privatização das águas públicas dos mares”.

Trata-se da Cessão de águas Públicas lançada em editais no mês de junho (Licitações: 11/2013- 12/2013-13/2013-14/2013), que transfere determinada área do mar para grupos que pretendem cultivar uma determinada espécie de peixe. Segundo a integrante do Movimento dos Pescadores e Pescadoras Artesanais, Elionice Sacramento, já serão privatizadas áreas em cinco estados brasileiros, sendo “três áreas no Ceará, 26 no Rio Grande do Norte, duas em Pernambuco, 16 no Maranhão e 22 na Bahia, as quais são historicamente utilizadas pelos pescadores e pescadoras artesanais”.

Na entrevista a seguir, concedida à IHU On-Line por telefone, Elionice enfatiza que “quando o Ministério da Pesca foi criado, na primeira gestão do governo Lula, os pescadores no Brasil apoiaram sua criação com a ilusão de que esse Ministério atenderia a pesca artesanal”. Com o passar do tempo, acentua, o órgão passou a adotar políticas “que fortaleciam mais a aquicultura, ou seja, o processo de criação de pescados em cativeiro, e os empresários, que têm relação com essa atividade, sem considerar o trabalho dos pescadores artesanais do Brasil”.

Elionice Sacramento é integrante do Movimento dos Pescadores e Pescadoras Artesanais.

Confira a entrevista:

IHU On-Line – O que caracteriza a privatização das águas públicas e qual é o objetivo desta privatização? Em que consiste essa política desenvolvida pelo Ministério da Pesca e Aquicultura?

Elionice Sacramento – Queria dizer que quando o Ministério da Pesca foi criado, na primeira gestão do governo Lula, os pescadores no Brasil apoiaram sua criação com a ilusão de que esse Ministério atenderia a pesca artesanal. Depois percebemos que ele estava adotando políticas que fortaleciam mais a aquicultura, ou seja, o processo de criação de pescados em cativeiro, e os empresários, que têm relação com essa atividade, sem considerar o trabalho dos pescadores artesanais do Brasil. Então, o governo passou a ver o Ministério como um espeço de promoção política de alguns deputados, tanto que se criou um esquema de corrupção muito grande no Ministério no que diz respeito à documentação de pescadores. Daí para frente começamos a ouvir falar em um projeto de privatização das águas públicas.

Em junho, foi lançado no país um edital para a privatização de áreas de quatro estados brasileiros, ou seja, serão privatizadas três áreas no Ceará, 26 no Rio Grande do Norte, duas em Pernambuco, 16 no Maranhão e 22 na Bahia, as quais são historicamente utilizadas pelos pescadores e pescadoras artesanais. Trata-se de um modelo que passa por cima das comunidades tradicionais que utilizam aquele espaço com uma relação de respeito com o mar e que interessa às forças capitalistas.

IHU On-Line – Como funciona esse processo de privatização das águas?

Elionice Sacramento – Foi lançado um edital, os interessados demonstram seus interesses, concorrem a esses espaços. Após a licitação, o grupo interessado terá direito de fazer uso daquele espaço durante 20 anos e pagar uma quantia mínima aos cofres públicos.

IHU On-Line – O que a privatização das águas públicas significa para as comunidades tradicionais, especialmente, as pesqueiras? Além das comunidades, quem mais será prejudicado com a privatização desses espaços?

Elionice Sacramento – Não só os pescadores serão prejudicados, mas a sociedade de modo geral, porque vai haver um processo de diminuição da pesca artesanal. Então, os turistas serão prejudicados, e o comércio dessas regiões também, porque esses pescados que são produzidos em cativeiro são pescados para exportação, e não para uso nacional. Por outro lado, haverá um processo de desequilíbrio do meio ambiente, porque espécies estranhas serão cultivada no mar, e o lixo produzido por elas ficará no mar.

Sem contar que os pescadores e pescadoras artesanais desempenham um papel fundamental no Brasil. Nós somos guardiões de uma tradição milenar, somos produtores de alimento, porque 70% de todo pescado produzido no país vem da pesca artesanal. Então, essa tradição só se manteve durante tantos anos porque estabelecemos com a natureza uma relação de completo respeito, uma relação de amor, mas principalmente uma relação de dependência e de respeito.

Respeitamos os períodos de reposição dos peixes, e agimos de acordo com a determinação da natureza. Esses processos industriais não têm respeito com nada. Eles atropelam tudo, desmontam processos de organização que já existem nas comunidades.

IHU On-Line – Já existem editais lançados para a compra de corpos d’águas em alguns estados. Do ponto de vista legal, como o movimento vem contestando os editais e esse processo de privatização?

Elionice Sacramento – Esse edital lançado em junho feriu algumas leis e alguns acordos internacionais. Por exemplo, o princípio de consulta às comunidades tradicionais não foi cumprido.

Então, as comunidades que fazem uso desses espaços não foram consultadas sobre esse processo de privatização das águas públicas. E isso já é motivo de ilegalidade do processo.

Quando o edital foi lançado na Bahia, o ministro em exercício à época não quis ouvir os integrantes do movimento e disse que apenas uma pessoa poderia falar. Quando nós nos negamos a aceitar essa proposta, o ministro levantou e disse que não ficava no encontro. Não houve nenhum tipo de diálogo com a comunidade. Por outro lado, nós visitamos a Secretaria de Patrimônio da União, que foi quem regularizou as áreas da água para ceder ao Ministério da Pesca, e questionamos por que os territórios não estão sendo cedidos aos pescadores, e sim para a apicultura. Segundo as pessoas que nos receberam, existia a Secretaria de Patrimônio da União desconhecia o porquê de essas áreas não serem destinadas para a pesca artesanal.

Então, entramos com um recurso contestando a ilegalidade do processo, fomos até a 6ª Câmara Federal, procuramos a Promotora Deborah Duprat, e também outros cinco promotores. Todos receberam esse processo com muita indignação.

IHU On-Line – Os editais determinam que as empresas vencedoras das licitações devem promover um número mínimo de empregos. Como você enxerga esse ponto específico?

Elionice Sacramento – A maioria dos empreendimentos, quando chegam às comunidades, apontam a justificativa de que vão gerar empregos. Por conta disso, esses empreendimentos acabam recebendo a aceitação de políticos e de pessoas que não têm vocação para a pesca. Só que isso é enganação. Temos muita clareza de que o discurso do emprego não é verdadeiro, até porque o processo que querem implementar é muito industrial.

IHU On-Line – Quais apoios são importantes no processo de luta para impedir a privatização das águas públicas?

Elionice Sacramento – Nós estamos em campanha pela própria ação e regularização dos territórios pesqueiros. Nessa campanha foi pensado um projeto de iniciativa popular onde a sociedade brasileira vai dizer, através de assinaturas, se concorda que o território pesqueiro seja protegido. Também temos divulgado o trabalho dos pescadores, porque somos invisível nesse país. Parece que a sociedade não sabe de onde vem o peixe que gostamos de comer.

IHU On-Line – Você gostaria de acrescentar algo?

Elionice Sacramento – Gostaria de sugerir que as pessoas acessem o nosso blog, assinem o abaixo assinado pela Campanha da Regulamentação dos Territórios Pesqueiros, e compreendam a importância da pesca artesanal e dos pescadores e pescadoras.

* Publicado originalmente no site IHU On-Line.

IPCC climate report: humans ‘dominant cause’ of warming – and other articles (BBC)

27 September 2013 Last updated at 09:12 GMT

By Matt McGrathEnvironment correspondent, BBC News, Stockholm

Climate change “threatens our planet, our only home”, warns Thomas Stocker, IPCC co-chair

A landmark report says scientists are 95% certain that humans are the “dominant cause” of global warming since the 1950s.

The report by the UN’s climate panel details the physical evidence behind climate change.

On the ground, in the air, in the oceans, global warming is “unequivocal”, it explained.

It adds that a pause in warming over the past 15 years is too short to reflect long-term trends.

The panel warns that continued emissions of greenhouse gases will cause further warming and changes in all aspects of the climate system.

To contain these changes will require “substantial and sustained reductions of greenhouse gas emissions”.

Infographic

Projections are based on assumptions about how much greenhouse gases might be released

After a week of intense negotiations in the Swedish capital, the summary for policymakers on the physical science of global warming has finally been released.

The first part of an IPCC trilogy, due over the next 12 months, this dense, 36-page document is considered the most comprehensive statement on our understanding of the mechanics of a warming planet.

It states baldly that, since the 1950s, many of the observed changes in the climate system are “unprecedented over decades to millennia”.

Each of the last three decades has been successively warmer at the Earth’s surface, and warmer than any period since 1850, and probably warmer than any time in the past 1,400 years.

“Our assessment of the science finds that the atmosphere and ocean have warmed, the amount of snow and ice has diminished, the global mean sea level has risen and that concentrations of greenhouse gases have increased,” said Qin Dahe, co-chair of IPCC working group one, who produced the report.

Speaking at a news conference in the Swedish capital, Prof Thomas Stocker, another co-chair, said that climate change “challenges the two primary resources of humans and ecosystems, land and water. In short, it threatens our planet, our only home”.

Since 1950, the report’s authors say, humanity is clearly responsible for more than half of the observed increase in temperatures.

Dr Rajendra Pachauri said he was confident the report would convince the public on global climate change

But a so-called pause in the increase in temperatures in the period since 1998 is downplayed in the report. The scientists point out that this period began with a very hot El Nino year.

“Trends based on short records are very sensitive to the beginning and end dates and do not in general reflect long-term climate trends,” the report says.

Prof Stocker, added: “I’m afraid there is not a lot of public literature that allows us to delve deeper at the required depth of this emerging scientific question.

“For example, there are not sufficient observations of the uptake of heat, particularly into the deep ocean, that would be one of the possible mechanisms to explain this warming hiatus.”

“Likewise we have insufficient data to adequately assess the forcing over the last 10-15 years to establish a relationship between the causes of the warming.”

However, the report does alter a key figure from the 2007 study. The temperature range given for a doubling of CO2 in the atmosphere, called equilibrium climate sensitivity, was 2.0C to 4.5C in that report.

In the latest document, the range has been changed to 1.5C to 4.5C. The scientists say this reflects improved understanding, better temperature records and new estimates for the factors driving up temperatures.

In the summary for policymakers, the scientists say that sea level rise will proceed at a faster rate than we have experienced over the past 40 years. Waters are expected to rise, the document says, by between 26cm (at the low end) and 82cm (at the high end), depending on the greenhouse emissions path this century.

The scientists say ocean warming dominates the increase in energy stored in the climate system, accounting for 90% of energy accumulated between 1971 and 2010.

For the future, the report states that warming is projected to continue under all scenarios. Model simulations indicate that global surface temperature change by the end of the 21st Century is likely to exceed 1.5 degrees Celsius, relative to 1850.

Prof Sir Brian Hoskins, from Imperial College London, told BBC News: “We are performing a very dangerous experiment with our planet, and I don’t want my grandchildren to suffer the consequences of that experiment.”

What is the IPCC?

In its own words, the IPCC is there “to provide the world with a clear scientific view on the current state of knowledge in climate change and its potential environmental and socio-economic impacts”.

The offspring of two UN bodies, the World Meteorological Organization and the United Nations Environment Programme, it has issued four heavyweight assessment reports to date on the state of the climate.

These are commissioned by the governments of 195 countries, essentially the entire world. These reports are critical in informing the climate policies adopted by these governments.

The IPCC itself is a small organisation, run from Geneva with a full time staff of 12. All the scientists who are involved with it do so on a voluntary basis.

Document

PDF download IPCC Summary for Policymakers

Related Stories

IPCC sustenta que aquecimento global é inequívoco (IPS)

Ambiente

30/9/2013 – 08h01

por Fabíola Ortiz, da IPS

IPCC1 IPCC sustenta que aquecimento global é inequívoco

A elevação do nível do mar pode alagar várias regiões do Recife, no Nordeste do Brasil. Foto: Alejandro Arigón/IPS

Rio de Janeiro, Brasil, 30/9/2013 – Em meio a rumores de que o aquecimento global se deteve nos últimos 15 anos, o novo informe do Grupo Internacional de Especialistas sobre a Mudança Climática (IPCC) indica que as três últimas décadas foram, sucessivamente, mais quentes do que qualquer outra desde 1850. O Resumo para Responsáveis por Políticas do informe do Grupo de Trabalho I – Bases de Ciência Física, foi divulgado no dia 27, em Estocolmo, na Suécia.

O texto completo, sem edições, será conhecido hoje e constitui o primeiro dos quatro volumes do Quinto Informe de Avaliação do IPCC. O aquecimento é “inequívoco”, afirma o IPCC. “A atmosfera e o oceano esquentam, a quantidade de neve e gelo diminui, o nível do mar sobe e as concentrações de gases-estufa aumentam”, destaca o estudo.

Para o especialista brasileiro em clima, Carlos Nobre, um dos autores principais do Quarto Informe de Avaliação, o novo relatório não dá “nenhuma razão para o otimismo. Cada uma das três últimas décadas foi sucessivamente mais quente do que qualquer outra desde 1850. No Hemisfério Norte, o período 1983-2012 representa, provavelmente, os 30 anos mais quentes dos últimos 1.400”, diz o novo resumo. Os dados “das temperaturas médias terrestres e da superfície do oceano, calculados como uma tendência linear, mostram um aquecimento de 0,85 grau no período 1880-2012”, acrescentou Nobre

A respeito da suposta pausa no aumento do calor, o IPCC afirma que “a taxa de aquecimento dos últimos 15 anos (1998-2012) – que foi de 0,05 grau por década e que começou com um potente El Niño (fase quente da Oscilação do Sul) – é menor do que a calculada entre 1951 e 2012, que foi de 0,12 grau por década”.

Entretanto, argumenta, “devido à variabilidade natural, as tendências baseadas em registros de períodos curtos são muito sensíveis às datas de começo e final, e não refletem, em geral, as tendências climáticas de longo prazo”. Resumindo, diz o documento, “é virtualmente certo (99% a 100% de certeza) que a troposfera esquenta desde meados do século 20”.

Nobre indicou à IPS que “o resumo observa com mais detalhe o que está mudando e reduz as incertezas com um conhecimento científico aperfeiçoado”. Além disso, confirma que as alterações do clima se originam principalmente nas ações humanas, destacou Nobre, secretário de Pesquisa e Desenvolvimento do Ministério de Ciência e Tecnologia.

A humanidade deverá se decidir a deixar grande parte dos combustíveis fósseis – responsáveis pela emissão de gases que esquentam a atmosfera – e passar para outras formas de energia renovável, advertiu Nobre. Tecnicamente, é possível, falta uma opção consciente de todos os países, ressaltou. “Essa transição tem um custo, mas que é cada vez menor do que o estimado há 15 anos. O problema não é a tecnologia, mas a decisão política”, acrescentou.

Para Carlos Rittl, coordenador do programa de mudanças climáticas e energia do WWF-Brasil (Fundo Mundial para a Natureza), “embora o aquecimento tenha apresentado uma aparente estabilização quanto à temperatura média, os anos mais quentes foram registrados na última década. Isso não nos deixa em uma situação de conforto”.

O informe do IPCC, uma revisão das pesquisas científicas disponíveis, se baseou em trabalhos de 259 autores de 39 países, e contou com 54.677 comentários. Sua divulgação veio permeada de uma renovada onda mediática de dúvidas e rumores sobre a existência do aquecimento global.

Com base em diferentes trajetórias de emissão de gases-estufa, o resumo projeta para este final de século uma elevação da temperatura superior a 1,5 grau em relação ao período 1850-1900 em todos os cenários, menos no de menor concentração de gases. Também afirma que, provavelmente, o aumento exceda os dois graus até 2100 nos dois cenários de maior emissão de gases. O informe anterior, de 2007, previa aumento de dois graus, no melhor dos casos, e de até seis, no pior.

Após o fracasso da conferência intergovernamental de Copenhague, em dezembro de 2009, quando os países não conseguiram obter um acordo para reduzir a contaminação climática, foram redobrados os questionamentos ao IPCC, em particular por uma errônea estimativa do derretimento das geleiras do Himalaia. A informação “foi usada de forma irresponsável por quem nega o aquecimento global”, alertou Rittl.

Seis anos depois, há mais e melhores evidências científicas para estimar, por exemplo, quanto o derretimento de gelos contribui para a elevação do nível do mar. Até o final de 2100 a elevação média do mar oscilará entre 24 centímetros e 63 centímetros, segundo o melhor e o pior cenários de contaminação atmosférica. As chuvas “aumentarão nas regiões mais úmidas e diminuirão naquelas onde há escassez pluviométrica”, detalhou Rittl, que é doutor em ecologia.

No Brasil os exemplos são a árida região do Nordeste e as mais úmidas do Sul e Sudeste. A incidência de chuvas crescerá entre 1% e 3% em zonas do sul, segundo a velocidade do aquecimento, enquanto as áridas apresentarão padrões de seca mais severos. Todas as tendências confirmadas pelo informe são “alarmantes”, apontou Rittl. “Nós, humanos, somos responsáveis por essas mudanças, que vão piorar o cenário atual em que já há centenas de milhões de pessoas sofrendo escassez de água, de comida e de condições adequadas para sobreviver”, ressaltou.

O primeiro volume do Quinto Informe de Avaliação do IPCC é divulgado dois meses antes de acontecer em Varsóvia, na Polônia, a 19ª Conferência das Partes da Convenção das Nações Unidas sobre Mudança Climática. Nesse encontro deverá ser feito um esforço mundial para garantir a transição para uma economia baixa em dióxido de carbono, disse Nobre. “Este informe é um choque de realidade”, ressaltou.

Em sua opinião, o Brasil é um dos “poucos bons exemplos”, pois conseguiu reduzir em 38,4% suas emissões de gases-estufa entre 2005 e 2010, devido à queda no desmatamento da Amazônia. “O Brasil adotou compromissos voluntários, mas no global não há um acordo ambicioso”, explicou Nobre. Quanto mais tempo se demorar em “adotar ações concretas, mais difícil e improvável será conseguir uma trajetória sustentável de acomodação e adaptação à mudança climática”, enfatizou.

Rittl acredita que os governos devem enfrentar a mudança climática como um desafio nacional para o desenvolvimento, a inclusão social e a redução da pobreza. “É necessário lidar com os riscos e as oportunidades com muita responsabilidade”, concluiu.

Envolverde/IPS

Quinto relatório do IPCC: repercussão

Documento divulgado nesta sexta (27/09) afirma que a temperatura do planeta pode subir quase 5 °C durante este século, o que poderá elevar o nível dos oceanos em até 82 centímetros (foto do Oceano Ártico: Nasa)

Especiais

Quinto relatório do IPCC mostra intensificação das mudanças climáticas

27/09/2013

Por Karina Toledo, de Londres

Agência FAPESP – Caso as emissões de gases do efeito estufa continuem crescendo às atuais taxas ao longo dos próximos anos, a temperatura do planeta poderá aumentar até 4,8 graus Celsius neste século – o que poderá resultar em uma elevação de até 82 centímetros no nível do mar e causar danos importantes na maior parte das regiões costeiras do globo.

O alerta foi feito pelos cientistas do Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês), da Organização das Nações Unidas (ONU), que divulgaram no dia 27 de setembro, em Estocolmo, na Suécia, a primeira parte de seu quinto relatório de avaliação (AR5). Com base na revisão de milhares de pesquisas realizadas nos últimos cinco anos, o documento apresenta as bases científicas da mudança climática global.

De acordo com Paulo Artaxo, professor do Instituto de Física da Universidade de São Paulo (USP) e um dos seis brasileiros que participaram da elaboração desse relatório, foram simulados quatro diferentes cenários de concentrações de gases de efeito estufa, possíveis de acontecer até o ano de 2100 – os chamados “Representative Concentration Pathways (RCPs)”.

“Para fazer a previsão do aumento da temperatura são necessários dois ingredientes básicos: um modelo climático e um cenário de emissões. No quarto relatório (divulgado em 2007) também foram simulados quatro cenários, mas se levou em conta apenas a quantidade de gases de efeito estufa emitida. Neste quinto relatório, nós usamos um sistema mais completo, que leva em conta os impactos dessas emissões, ou seja, o quanto haverá de alteração no balanço de radiação do sistema terrestre”, explicou Artaxo, que está em Londres para a FAPESP Week London, onde participou de um painel sobre mudança climática.

O balanço de radiação corresponde à razão entre a quantidade de energia solar que entra e que sai de nosso planeta, indicando o quanto ficou armazenada no sistema terrestre de acordo com as concentrações de gases de efeito estufa, partículas de aerossóis emitidas e outros agentes climáticos.

O cenário mais otimista prevê que o sistema terrestre armazenará 2,6 watts por metro quadrado (W/m2) adicionais. Nesse caso, o aumento da temperatura terrestre poderia variar entre 0,3 °C e 1,7 °C de 2010 até 2100 e o nível do mar poderia subir entre 26 e 55 centímetros ao longo deste século.

“Para que esse cenário acontecesse, seria preciso estabilizar as concentrações de gases do efeito estufa nos próximos 10 anos e atuar para sua remoção da atmosfera. Ainda assim, os modelos indicam um aumento adicional de quase 2 °C na temperatura – além do 0,9 °C que nosso planeta já aqueceu desde o ano 1750”, avaliou Artaxo.

O segundo cenário (RCP4.5) prevê um armazenamento de 4,5 W/m2. Nesse caso, o aumento da temperatura terrestre seria entre 1,1 °C e 2,6 °C e o nível do mar subiria entre 32 e 63 centímetros. No terceiro cenário, de 6,0 W/m2, o aumento da temperatura varia de 1,4 °C até 3,1 °C e o nível do mar subiria entre 33 e 63 centímetros.

Já o pior cenário, no qual as emissões continuam a crescer em ritmo acelerado, prevê um armazenamento adicional de 8,5 W/m2. Em tal situação, segundo o IPCC, a superfície da Terra poderia aquecer entre 2,6 °C e 4,8 °C ao longo deste século, fazendo com que o nível dos oceanos aumente entre 45 e 82 centímetros.

“O nível dos oceanos já subiu em média 20 centímetros entre 1900 e 2012. Se subir outros 60 centímetros, com as marés, o resultado será uma forte erosão nas áreas costeiras de todo o mundo. Rios como o Amazonas, por exemplo, sofrerão forte refluxo de água salgada, o que afeta todo o ecossistema local”, disse Artaxo.

Segundo o relatório AR5 do IPCC, em todos os cenários, é muito provável (90% de probabilidade) que a taxa de elevação dos oceanos durante o século 21 exceda a observada entre 1971 e 2010. A expansão térmica resultante do aumento da temperatura e o derretimento das geleiras seriam as principais causas.

O aquecimento dos oceanos, diz o relatório, continuará ocorrendo durante séculos, mesmo se as emissões de gases-estufa diminuírem ou permanecerem constantes. A região do Ártico é a que vai aquecer mais fortemente, de acordo com o IPCC.

Segundo Artaxo, o aquecimento das águas marinhas tem ainda outras consequências relevantes, que não eram propriamente consideradas nos modelos climáticos anteriores. Conforme o oceano esquenta, ele perde a capacidade de absorver dióxido de carbono (CO2) da atmosfera. Se a emissão atual for mantida, portanto, poderá haver uma aceleração nas concentrações desse gás na atmosfera.

“No relatório anterior, os capítulos dedicados ao papel dos oceanos nas mudanças climáticas careciam de dados experimentais. Mas nos últimos anos houve um enorme avanço na ciência do clima. Neste quinto relatório, por causa de medições feitas por satélites e de observações feitas com redes de boias – como as do Projeto Pirata que a FAPESP financia no Atlântico Sul –, a confiança sobre o impacto dos oceanos no clima melhorou muito”, afirmou Artaxo.

Acidificação dos oceanos

Em todos os cenários previstos no quinto relatório do IPCC, as concentrações de CO2 serão maiores em 2100 em comparação aos níveis atuais, como resultado do aumento cumulativo das emissões ocorrido durante os séculos 20 e 21. Parte do CO2 emitido pela atividade humana continuará a ser absorvida pelos oceanos e, portanto, é “virtualmente certo” (99% de probabilidade) que a acidificação dos mares vai aumentar. No melhor dos cenários – o RCP2,6 –, a queda no pH será entre 0,06 e 0,07. Na pior das hipóteses – o RCP8,5 –, entre 0,30 e 0,32.

“A água do mar é alcalina, com pH em torno de 8,12. Mas quando absorve CO2 ocorre a formação de compostos ácidos. Esses ácidos dissolvem a carcaça de parte dos microrganismos marinhos, que é feita geralmente de carbonato de cálcio. A maioria da biota marinha sofrerá alterações profundas, o que afeta também toda a cadeia alimentar”, afirmou Artaxo.

Ao analisar as mudanças já ocorridas até o momento, os cientistas do IPCC afirmam que as três últimas décadas foram as mais quentes em comparação com todas as anteriores desde 1850. A primeira década do século 21 foi a mais quente de todas. O período entre 1983 e 2012 foi “muito provavelmente” (90% de probabilidade) o mais quente dos últimos 800 anos. Há ainda cerca de 60% de probabilidade de que tenha sido o mais quente dos últimos 1.400 anos.

No entanto, o IPCC reconhece ter havido uma queda na taxa de aquecimento do planeta nos últimos 15 anos – passando de 0,12 °C por década (quando considerado o período entre 1951 e 2012) para 0,05°C (quando considerado apenas o período entre 1998 e 2012).

De acordo com Artaxo, o fenômeno se deve a dois fatores principais: a maior absorção de calor em águas profundas (mais de 700 metros) e a maior frequência de fenômenos La Niña, que alteram a taxa de transferência de calor da atmosfera aos oceanos. “O processo é bem claro e documentado em revistas científicas de prestígio. Ainda assim, o planeta continua aquecendo de forma significativa”, disse.

Há 90% de certeza de que o número de dias e noites frios diminuíram, enquanto os dias e noites quentes aumentaram na escala global. E cerca de 60% de certeza de que as ondas de calor também aumentaram. O relatório diz haver fortes evidências de degelo, principalmente na região do Ártico. Há 90% de certeza de que a taxa de redução da camada de gelo tenha sido entre 3,5% e 4,1% por década entre 1979 e 2012.

As concentrações de CO2 na atmosfera já aumentaram mais de 20% desde 1958, quando medições sistemáticas começaram a ser feitas, e cerca de 40% desde 1750. De acordo com o IPCC, o aumento é resultado da atividade humana, principalmente da queima de combustíveis fósseis e do desmatamento, havendo uma pequena participação da indústria cimenteira.

Para os cientistas há uma “confiança muito alta” (nove chances em dez) de que as taxas médias de CO2, metano e óxido nitroso do último século sejam as mais altas dos últimos 22 mil anos. Já mudanças na irradiação solar e a atividade vulcânica contribuíram com uma pequena fração da alteração climática. É “extremamente provável” (95% de certeza) de que a influência humana sobre o clima causou mais da metade do aumento da temperatura observado entre 1951 e 2010.

“Os efeitos da mudança climática já estão sendo sentidos, não é algo para o futuro. O aumento de ondas de calor, da frequência de furacões, das inundações e tempestades severas, das variações bruscas entre dias quentes e frios provavelmente está relacionado ao fato de que o sistema climático está sendo alterado”, disse Artaxo.

Impacto persistente

Na avaliação do IPCC, muitos aspectos da mudança climática vão persistir durante muitos séculos mesmo se as emissões de gases-estufa cessarem. É “muito provável” (90% de certeza) que mais de 20% do CO2 emitido permanecerá na atmosfera por mais de mil anos após as emissões cessarem, afirma o relatório.

“O que estamos alterando não é o clima da próxima década ou até o fim deste século. Existem várias publicações com simulações que mostram concentrações altas de CO2 até o ano 3000, pois os processos de remoção do CO2 atmosférico são muito lentos”, contou Artaxo.

Para o professor da USP, os impactos são significativos e fortes, mas não são catastróficos. “É certo que muitas regiões costeiras vão sofrer forte erosão e milhões de pessoas terão de ser removidas de onde vivem hoje. Mas claro que não é o fim do mundo. A questão é: como vamos nos adaptar, quem vai controlar a governabilidade desse sistema global e de onde sairão recursos para que países em desenvolvimento possam construir barreiras de contenção contra as águas do mar, como as que já estão sendo ampliadas na Holanda. Quanto mais cedo isso for planejado, menores serão os impactos socioeconômicos”, avaliou.

Os impactos e as formas de adaptação à nova realidade climática serão o tema da segunda parte do quinto relatório do IPCC, previsto para ser divulgado em janeiro de 2014. O documento contou com a colaboração de sete cientistas brasileiros. Outros 13 brasileiros participaram da elaboração da terceira parte do AR5, que discute formas de mitigar a mudança climática e deve sair em março.

De maneira geral, cresceu o número de cientistas vindos de países em desenvolvimento, particularmente do Brasil, dentro do IPCC. “O Brasil é um dos países líderes em pesquisas sobre mudança climática atualmente. Além disso, o IPCC percebeu que, se o foco ficasse apenas nos países desenvolvidos, informações importantes sobre o que está acontecendo nos trópicos poderiam deixar de ser incluídas. E é onde fica a Amazônia, um ecossistema-chave para o planeta”, disse Artaxo.

No dia 9 de setembro, o Painel Brasileiro de Mudanças Climáticas (PBMC) divulgou o sumário executivo de seu primeiro Relatório de Avaliação Nacional (RAN1). O documento, feito nos mesmos moldes do relatório do IPCC, indica que no Brasil o aumento de temperatura até 2100 será entre 1 °C e 6 °C, em comparação à registrada no fim do século 20. Como consequência, deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

“A humanidade nunca enfrentou um problema cuja relevância chegasse perto das mudanças climáticas, que vai afetar absolutamente todos os seres vivos do planeta. Não temos um sistema de governança global para implementar medidas de redução de emissões e verificação. Por isso, vai demorar ainda pelo menos algumas décadas para que o problema comece a ser resolvido”, opinou Artaxo.

Para o pesquisador, a medida mais urgente é a redução das emissões de gases de efeito estufa – compromisso que tem de ser assumido por todas as nações. “A consciência de que todos habitamos o mesmo barco é muito forte hoje, mas ainda não há mecanismos de governabilidade global para fazer esse barco andar na direção certa. Isso terá que ser construído pela nossa geração”, concluiu.

*   *   *

JC e-mail 4822, de 27 de Setembro de 2013.

IPCC lança na Suécia novo relatório sobre as mudanças climáticas (O Globo)

O documento reúne previsões do aquecimento global até 2100 apontando aumento de temperatura superior a 2 graus. ‘A influência humana no clima é clara’, diz trabalho

A previsão do Painel Intergovernamental sobre Mudanças Climáticas da ONU (IPCC) é que o aquecimento global até o final do século 21 seja “provavelmente superior” a 2 graus (com pelo menos 66% de chances disto acontecer), superando o limite considerado seguro pelos especialistas. Até 2100, o nível do mar deve aumentar perigosamente de 45 a 82 centímetros, considerando o pior cenário (ou de 26 a 55 centímetros, no melhor), e o gelo do Ártico pode diminuir até 94% durante o verão local.

Além disso, o relatório do IPCC — publicado na manhã desta sexta-feira em Estocolmo, na Suécia, com as bases científicas mais atualizadas sobre as mudanças climáticas — considera que há mais de 95% de certeza para afirmar que o homem causou mais da metade da elevação média da temperatura entre 1951 e 2010. Neste período, o nível dos oceanos aumentou 19 centímetros.

O documento, com o trabalho de 259 cientistas e representantes dos governos de 195 países, inclusive o Brasil, ressalta que parte das emissões de CO2 provocadas pelo homem continuará a ser absorvida pelos oceanos. Por isso, é praticamente certo (99% de probabilidade) que a acidificação dos mares vai aumentar, afetando profundamente a vida marinha.

– A mudança de temperatura da superfície do planeta deve exceder 1,5 grau, e, provavelmente, será superior a 2 graus – disse o copresidente do trabalho Thomas Stocker. – É muito provável que as ondas de calor ocorram com mais frequência e durem mais tempo. Com o aquecimento da Terra, esperamos ver regiões atualmente úmidas recebendo mais chuvas, e as áridas, menos, apesar de haver exceções.

Os especialistas fizeram quatro projeções considerando situações diferentes de emissões de gases-estufa. Em todas, há aumento de temperatura. As mais brandas ficam entre 0,3 ºC e 1,7 ºC. Nestes casos, seria necessário diminuir muito as emissões. Já no cenário mais pessimista, o aquecimento ficaria entre 2,6 ºC e 4,8 ºC.

– Na minha opinião, o relatório é muito bom, repleto de informações e todas muito bem fundamentadas – comentou a especialista brasileira Suzana Kahn, que faz parte do grupo de pesquisadores do IPCC em Estocolmo. – No fundo, o grande ganho é a comprovação do que tem sido dito há mais tempo, com muito mais informação sobre o papel dos oceanos, das nuvens e aerossóis. Isto é muito importante para o mundo científico, pois aponta para áreas que precisam ser mais investigadas.

Suzana conta que a dificuldade de fazer projeções e análises para o Hemisfério Sul causou muita polêmica. O grande problema é a falta de dados:

– Acho que isto foi interessante para comprovar que estávamos certos ao criar o Painel Brasileiro de Mudança Climática para suprir esta lacuna.

De acordo com Carlos Rittl, Coordenador do Programa de Mudanças Climáticas e Energias do WWF-Brasil, o relatório do IPCC deixa uma mensagem clara: o aquecimento global é incontestável. E é preciso começar agora contra os piores efeitos.

– O relatório do IPCC reafirma algumas certezas e vai além. Aponta a perda de massa de gelo, o aumento do nível dos oceanos, o incremento de chuvas onde já se chove muito, além da diminuição da umidade nas regiões mais áridas. No Brasil, o semiárido pode se tornar mais árido. Por outro lado, o Sul e Sudeste podem ter mais chuvas do que hoje – enumerou Rittl. – É importante ressaltar que o relatório fala de médias. Ou seja, em algumas regiões do país pode haver aumento de seis graus, com picos de mais de oito graus. A gente não está preparado para isso. E nossas emissões nos colocam numa trajetória de altíssimo risco, mais próxima dos piores cenários.

Para Rittl, a ciência está dando uma mensagem clara: é preciso diminuir as emissões. Isso significa levar os temas relacionados às mudanças climáticas para as decisões políticas:

– Hoje o aquecimento global ainda é um tema marginal. Os investimentos em infraestrutura, energia, o plano Safra, todos os grandes investimentos da escala de trilhões de reais não têm praticamente nenhuma vinculação com a lógica de baixo carbono. Estamos sendo pouco responsáveis.

Diplomacia e ciência
John Kerry, secretário de Estado dos EUA, ressalta que o relatório do IPCC não deve ser esquecido num armário, nem interpretado como uma peça política feita por políticos: “é ciência”, resume. De acordo com ele, os Estados Unidos estão “profundamente comprometidos em combater as mudanças climáticas”, reduzindo emissões de gases-estufa e investindo em formas eficientes de energia.

Este é mais um chamado de atenção: aqueles que negam a ciência ou procuram desculpas para evitar a ação estão brincando com fogo – afirmou Kerry. – O resumo do relatório do IPCC é este: a mudança climática é real, está acontecendo agora, os seres humanos são a causa dessa transformação, e somente a ação dos seres humanos pode salvar o mundo de seus piores impactos.

Lançado a cada seis anos, os relatórios do IPCC estão sob críticas de especialistas. O processo de análise dos documentos por representantes do governo acaba chegando a uma situação intermediária entre diplomacia e ciência, explica Emilio La Rovere, pesquisador da Coppe/UFRJ.

– O resultado é um meio termo entre diplomacia e ciência – afirmou Rovere.
Um dos pontos mais polêmicos são os chamados hiatos, períodos de cerca de 15 anos em que a temperatura média do planeta não aumenta. Por exemplo, a Agência Estatal de Meteorologia da Espanha anunciou, nesta semana, que o último trimestre na Península Ibérica foi o menos quente desde 2008. Entretanto, o relatório de 2007 do IPCC não citou estas pausas do aquecimento, dando argumento aos céticos.

Limite do aquecimento global
As informações do IPCC são importantes para a criação de estratégias de combate às mudanças climáticas. Na Convenção do Clima da Dinamarca (COP-15, realizada em 2009), foi criada a meta de limitar o aquecimento global em 2 graus. Para isso acontecer em 2050, explica Emilio La Rovere, da Coppe/UFRJ, seria necessário cortar 80% das emissões em comparação com 1990:

– Os modelos matemáticos simulando evolução demográfica, economia mundial, demanda e oferta de energia mostram que fica realmente quase impossível atingir este objetivo.

Este é o Quinto Relatório do IPCC, que será lançado em quatro partes, entre setembro de 2013 e novembro de 2014. Nesta sexta-feira, foi publicado o documento do Grupo de Trabalho I (sobre os aspectos científicos das mudanças climáticas). Entre os dias 25 e 29 de março de 2014, será a vez do Grupo de Trabalho II (analisando os impactos, a adaptação e a vulnerabilidade), que se reunirá em Yokohama, no Japão. O Grupo de Trabalho III (especializado na mitigação dos impactos das mudanças climáticas) está previsto para os dias 7 e 11 de abril em Berlim, na Alemanha. Por fim, será criado um relatório síntese, cujos trabalhos ocorrerão entre os dias 27 e 31 de outubro, em Copenhague, na Dinamarca.

(Cláudio Motta/O Globo)

http://oglobo.globo.com/ciencia/ipcc-lanca-na-suecia-novo-relatorio-sobre-as-mudancas-climaticas-10173671#ixzz2g6D6tmU6

Matéria complementar de O Globo:

Relatório destaca como a ação humana agrava o aquecimento
http://oglobo.globo.com/ciencia/relatorio-destaca-como-acao-humana-agrava-aquecimento-1-10171896#ixzz2g6MfZIsl

Veja mais em:

Folha de S.Paulo
Relatório sobe tom de alerta sobre aquecimento
http://www1.folha.uol.com.br/fsp/saudeciencia/131005-relatorio-sobe-tom-de-alerta-sobre-aquecimento.shtml

Agência Estado
ONU culpa atividades humanas por aquecimento global
http://www.territorioeldorado.limao.com.br/noticias/not297255.shtm

Zero Hora
Temperatura da Terra subirá entre 0,3°C e 4,8°C neste século, aponta IPCC
http://zerohora.clicrbs.com.br/rs/geral/planeta-ciencia/noticia/2013/09/temperatura-da-terra-subira-entre-0-3c-e-4-8c-neste-seculo-aponta-ipcc-4283083.html

Correio Braziliense
Temperatura do planeta subirá entre 0,3 e 4,8ºC no século 21, diz IPCC
http://www.correiobraziliense.com.br/app/noticia/ciencia-e-saude/2013/09/27/interna_ciencia_saude,390388/temperatura-do-planeta-subira-entre-0-3-e-4-8-c-no-seculo-21-diz-ipcc.shtml

 

Por trás do desmatamento da Amazônia (Fapesp)

Mais de 50% das emissões de gases de efeito estufa do bioma são causados pela demanda do restante do país e do exterior por insumos produzidos na região, aponta estudo feito na USP (Nasa)

Especiais

20/09/2013

Por Elton Alisson

Agência FAPESP – O consumo interno do Brasil e as exportações de soja, carne bovina e outros produtos primários provenientes da Amazônia são responsáveis por mais da metade das taxas de desmatamento e, consequentemente, das emissões de gases de efeito estufa (GEE) registradas pelo bioma.

A avaliação é de um estudo realizado por pesquisadores da Faculdade de Economia, Administração e Contabilidade (FEA), da Universidade de São Paulo (USP), no âmbito de um Projeto Temático, realizado no Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG).

Os resultados do estudo foram apresentados no dia 12 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima), realizada pela FAPESP em parceria com a Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), em São Paulo.

“Mais da metade das emissões de GEE da Amazônia acontecem por conta da demanda de consumo fora da região, para abastecimento interno do país ou para exportação”, disse Joaquim José Martins Guilhoto, professor da FEA e um dos pesquisadores participantes do projeto.

De acordo com dados apresentados pelo pesquisador, obtidos do segundo Inventário Nacional de Emissões de Gases de Efeito Estufa – publicado no final de 2010, abrangendo o período de 1990 a 2005 –, em 2005 o Brasil emitiu mais de 2,1 gigatoneladas de CO2 equivalente. A Amazônia contribui com mais de 50% das emissões de GEE do país.

A fim de identificar e entender os fatores econômicos causadores do desmatamento e, por conseguinte, das emissões de GEE na Amazônia naquele ano, os pesquisadores fizeram um mapeamento das emissões diretas por atividade produtiva separando a Região Amazônica do restante do Brasil e calcularam a parcela de contribuição de cada um na emissão de CO2 equivalente, assim como a participação das exportações.

Os cálculos revelaram que as exportações diretas da Amazônia são responsáveis por 16,98% das emissões de GEE da região. Já as exportações do resto do país são responsáveis por mais 6,29% das emissões da Amazônia, uma vez que há produtos provenientes da região que são processados e exportados por outros estados brasileiros.

O consumo interno, por sua vez, responde por 46,13% das emissões amazônicas, sendo 30,01% pelo consumo no restante do país e 16,12% pelo consumo dentro da própria Região Amazônica, aponta o estudo.

“A soma desses percentuais demonstra que mais de 50% das emissões de GEE da Amazônia ocorrem por conta do consumo de bens produzidos na região, mas consumidos fora dela”, afirmou Guilhoto. “Essa constatação indica que os fatores externos são mais importantes para explicar as emissões de GEE pela Amazônia.”

Segundo o estudo, a pecuária, a produção de soja e de outros produtos agropecuários são os setores produtivos que mais contribuem para as emissões de GEE pela Amazônia. Mas, além deles, há outros setores econômicos, como o de mobiliário, entre outros, que são fortemente dependentes de insumos produzidos na região.

“Os dados obtidos no estudo mostram que, de modo geral, apesar de haver uma dependência muito maior da Amazônia pelos insumos produzidos pelo resto do Brasil, a pouca dependência que o resto do Brasil tem do bioma se dá em insumos fortemente relacionados com a emissão de GEE na região”, resumiu Guilhoto.

Redução do desmatamento

Em outro estudo também realizado por pesquisadores da FEA, no âmbito do Projeto Temático, constatou-se que entre 2002 e 2009 houve uma grande expansão da área de produção agropecuária brasileira e, ao mesmo tempo, uma redução drástica das taxas de desmatamento da Amazônia.

A cana-de-açúcar, a soja e o milho responderam por 95% da expansão líquida da área colhida entre 2002 e 2009, enquanto o rebanho bovino teve um acréscimo de 26 milhões de cabeças de gado. Nesse mesmo período a Amazônia registrou uma queda de 79% do desmatamento.

A fim de investigar os principais vetores do desmatamento no país, uma vez que boa parte dos eventos de expansão agropecuária ocorre fora da Amazônia, os pesquisadores fizeram um estudo usando análises espaciais integradas do território brasileiro, incluindo os seis biomas do país.

Para isso, utilizaram dados sobre desmatamento obtidos do Projeto Prodes, do Ministério do Meio Ambiente (MMA) e do Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais (Ibama), além de imagens georreferenciadas obtidas dos satélites Landsat, da agência espacial norte-americana Nasa.

O estudo revelou que, no período de 2002 a 2009, foram desmatados 12,062 milhões de hectares da Amazônia, 10,015 milhões de hectares do Cerrado, 1,846 milhão de hectares da Caatinga, 447 mil hectares do Pantanal, 375 mil hectares da Mata Atlântica e 257 mil hectares do Pampa.

“A soma desses números indica que o Brasil desmatou em sete anos o equivalente ao Estado de São Paulo mais o Triângulo Mineiro ou uma Grã-Bretanha”, calculou Rafael Feltran-Barbieri, pesquisador da FEA e um dos autores do estudo.

De acordo com o pesquisador, uma das principais conclusões do estudo foi que os outros biomas estão funcionando como uma espécie de “amortecedor” do desmatamento da Amazônia.

“Quando consideramos a expansão agropecuária do Brasil como um todo, vemos que boa parte da redução das taxas de desmatamento da Amazônia se deve ao fato de que os outros biomas estão sofrendo essas consequências [registrando aumento no desmatamento]”, afirmou.

Outra conclusão do estudo é de que há um impacto espacial sinérgico dos vetores do desmatamento no Brasil, uma vez que a expansão das diversas atividades agropecuárias – como o cultivo da cana e da soja ou a criação de gado – ocorre de forma concomitante e disputa território.

No caso da cana-de-açúcar, uma das constatações foi que, no período de 2002 a 2009, a cultura passou a ocupar áreas desmatadas por outras atividades agropecuárias, embora ela própria não tenha vocação para desmatar.

“Estamos percebendo que existe uma formação quase complementar entre as expansões [nos diferentes biomas] e isso faz com que os efeitos de desmatamento sejam altamente correlacionados”, disse Feltran-Barbieri.

“Essa constatação leva à conclusão de que, se o Brasil pretende assumir uma posição de fato responsável em relação às mudanças climáticas – e disso depende a agropecuária –, é preciso fazer planejamento estratégico do território, porque o planejamento setorial não está dando conta de compreender esses efeitos sinérgicos”, avaliou.

Painel do clima da ONU sobe alerta para aquecimento global (Folha de S.Paulo)

27/09/2013 – 05h07

RAFAEL GARCIA, ENVIADO ESPECIAL A ESTOCOLMO

Atualizado às 09h47.

Quem esperava ver o IPCC (Painel Intergovernamental de Mudança Climática) emitir um relatório mais enfraquecido em razão da recente desaceleração no aquecimento global, testemunhou os cientistas da entidade subirem o tom de alerta, destacando uma subida acelerada no nível do mar e no derretimento do Ártico.

Além de manter que a mudança climática é “inequívoca”, o documento mostra projeções para o futuro com um grau de certeza melhorado. “A atmosfera e o oceano se aqueceram, a quantidade de neve e gelo diminuiu, o nível do mar subiu, e as concentrações de gases-estufa aumentaram”, diz o Sumário para Formuladores de Política, a seção do documento divulgada nesta manhã.

Mensageiro Sideral: Que diabos acontece com nosso planeta?

No final deste século, a temperatura média da superfície terrestre provavelmente vai exceder um aumento médio de 1,5°C até 2100, em relação à média de 1850 a 1900. Isso vale para todos os cenários considerados exceto o mais otimista, no qual emissões de gases estufa sofrem cortes drásticos, atingindo um pico daqui a dez anos e caindo para zero 50 anos depois.

Em um cenário intermediário, no qual as emissões dobram até 2060 e recuam a um nível maior que o atual antes de 2100, a temperatura provavelmente excederá um aumento de 2°C, limite considerado perigoso por cientistas.

Manifestantes gritam em protesto em Estocolmo, onde foi divulgado o novo relatório do painel do clima da ONU

No pior cenário, um no qual a humanidade triplica a emissão de gases do efeito estufa até 2100, a temperatura média provavelmente subiria até 4,8°C.

A palavra “provavelmente”, na linguagem do painel, significa uma propensão acima de 66%, a melhor confiabilidade possível para projeções futuras, baseadas em modelos matemáticos de simulação do clima.

Ao avaliar o efeito das emissões de gases estufa no clima passado, o relatório é bem mais contundente. O texto afirma ser “extremamente provável” (95% de certeza) que o aquecimento observado desde o meio do século 20 seja resultado da influência humana no clima. O último relatório, de 2007, dizia que o mesmo era “muito provável” (90%).

OCEANOS

O relatório também afirma com “alta confiabilidade” que o aquecimento dos oceanos domina o aumento da energia armazenada no sistema climático. Mais de 90% da energia acumulada pela Terra desde 1971 foi armazenada nos mares, diz o relatório.

“À medida que os oceanos se aquecem e as geleiras e plataformas de gelo se reduzem, o nível do mar continuará a aumentar, mas a uma taxa mais rápida do que aquela que experimentamos ao longo dos últimos 40 anos”, afirmou Qin-Dahe, co-presidente do Grupo 1 do IPCC.

O aumento do nível do mar entre 1900 e 2012 foi de 19 cm. Mesmo dentro do melhor cenário, com uma queda brusca de emissões, esse número pode quase triplicar, em razão de os oceanos já terem absorvindo muita temperatura. A hipótese mais pessimista dentro do pior cenário vê um aumento de 82 cm, que impactaria uma população de um tamanho da ordem de dezenas de milhões.

Uma das razões para a revisão dos números é que os modelos lidam melhor agora com o derretimento da Groenlândia e do oeste da Antártida. Antes, os números eram basicamente uma projeção da expansão térmica da água oceânica, que continua sendo a maior causa do aumento do nível do mar.

HIATO

A questão da desaceleração do aquecimento global nos últimos 15, o “hiato” da mudança climática, tomou grande parte do tempo de discussão dos delegados do IPCC que se reuniram nesta semana. O texto final do relatório lidou com o fenômeno afirmando que a tempereatura média global de superfície “exibe substancial variabilidade interanual e decadal” apesar de um “robusto aquecimento multi-decadal” verificado.

“Como exemplo, a taxa de aquecimento ao longo dos últimos 15 anos (1998-2012); 0,05°C por década), que começa com um forte El Niño, é menor do que a taxa calculada desde de 1951 (1951-2012; 0,12°C por década)”, afirma o relatório.

Apesar de haverem estudos recentes indicando que o calor da atmosfera está sendo roubado por águas oceânicas profundas, o relatório não menciona esse fenômeno. “É preciso colher mais evidências disso”, diz Thomas Stocker, o outro co-presidente do Grupo 1 do IPCC.

Editoria de Arte/Folhapress

 

 

Manifestantes do grupo Avaaz usam gangorra gigante para demonstrar os 95% de certeza sobre a culpa do homem nas mudanças climáticas; de um lado fica a maioria dos cientitas e, de outro, um homem com uma maleta de dinheiro

Faixa em protesto em Estocolmo diz: “o debate acabou”, em referência ao novo relatório do painel do clima, que aumenta o grau de certeza sobre a responsabilidade do homem na mudança climática

Protesto em Estocolmo, na Suécia, pede ação imediata para conter efeitos da mudança climática

*   *   *
24/09/2013 – 02h53

Previsão de aumento do nível do mar piora

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

A julgar pela versão preliminar do quinto relatório do IPCC (painel do clima da ONU), a ser divulgado na próxima sexta-feira, a principal atualização nas projeções da mudança climática não serão relacionadas ao aumento de temperatura, mas sim do nível do mar.

Quando o quarto relatório, que projetava um aumento de 18 cm a 59 cm, saiu em 2007, muitos cientistas o consideraram conservador. O esboço do novo texto fala agora de uma margem entre 28 cm e 89 cm de aumento até 2100.

Uma mudança da escala de dezenas de centímetros na projeção não é pequena. A margem de erro para o cenário mais pessimista chega a quase um metro de altura, o que afetaria áreas habitadas por algumas dezenas de milhares de pessoas.

Editoria de Arte/Folhapress

O principal fenômeno por trás do aumento do nível do mar é o fato de que a água aumenta de volume quando está mais quente –e os oceanos absorvem boa parte do calor aprisionado na atmosfera.

“A expansão termal é a maior contribuição para o aumento futuro do nível do mar, sendo responsável por 30% a 55% do total, com a segunda maior contribuição vindo das geleiras”, afirma a versão preliminar do sumário político do documento.

“Há alta confiabilidade em que o aumento do derretimento da superfície da Groenlândia vai exceder a elevação da queda de neve, levando à contribuição positiva [aumentando o nível do mar].”

INCERTEZAS
Se o novo relatório do IPCC será mais contundente ao dizer que o impacto do aquecimento sobre o nível do mar será maior, ele ainda tem limitações quando tenta especificar quão maior.
Um dos problemas por trás das projeções do painel do clima é que o balanço do derretimento e da formação de gelo na Antártida ainda é difícil de prever.

Apesar de a maioria das observações e dos modelos de computador alertar para o derretimento da parte ocidental do continente gelado, o aumento de precipitação na Antártida oriental deixa o cenário incerto.

Divulgação/Nasa/France Presse
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira
Imagem capturada por satélite da Nasa mostra uma rachadura (ao centro) em geleira

“Há uma cofiabilidade média de que nevascas na Antártida vão aumentar, enquanto o derretimento de superfície continuará pequeno, resultando numa contribuição negativa [de redução do nível do mar]”, diz o texto.

Um avanço do novo relatório é a tentativa de lidar melhor com as incertezas regionais. Por exemplo, apesar de a Groenlândia ter a massa de gelo terrestre que mais vai contribuir para a elevação do mar, lá ele não deve subir.

Como a massa de gelo da região vai diminuir, ela perde força de gravidade que puxa água na direção da costa. E o mesmo deve ocorrer com a Península Antártica.

“O efeito gravitacional do derretimento da Antártida, combinado com o efeito da dinâmica de correntes e a temperatura abaixo da média, deve deixar o nível do mar abaixo da média na ponta da América do Sul”, diz Aimée Slangen, da Universidade de Utrecht, na Holanda.

“Indo para o Equador, o efeito gravitacional se reverte, deixando o nível do mar acima da média.”

Slangen publicou no ano passado um estudo sobre diferenças regionais na subida da linha d’água, mas diz que ainda é difícil fazer um mapa preciso. “Precisamos entender o papel das plataformas de gelo, das geleiras, o efeito térmico e saber como a crosta vai se mover”, diz.

O último esboço do relatório afirma que, em 95% das áreas oceânicas do mundo, o nível do mar vai subir, e que 70% das áreas costeiras terão um aumento com desvio de menos de 20% da média.

Para os cientistas, porém, é preciso aprimorar o mapeamento. “Para uma cidade ou um país, a média mundial não importa, é preciso saber o que está acontecendo logo à porta de casa”, diz Slangen.

*   *   *
26/09/2013 – 20h04

Relatório eleva o tom de alerta sobre o aquecimento global

RAFAEL GARCIA, ENVIADO ESPECIAL A ESTOCOLMO

O IPCC (painel do clima da ONU) divulgará na manhã desta sexta-feira (27) um relatório que eleva o nível de alerta para o aquecimento global. Apesar de a desaceleração na subida de temperaturas nos últimos 15 anos ter tomado bom tempo da discussão, a nova versão do “Sumário para Formuladores de Política” do documento deve indicar que as alterações climáticas têm sido mais acentuadas e mais rápidas do que se esperava, não o inverso.

As discussões finais sobre o conteúdo do documento ainda ocorrem a portas fechadas nesta madrugada em Estocolmo, mas algumas questões cruciais já foram resolvidas. A versão final do texto do Grupo 1 do IPCC –responsável pela física do clima– deve ganhar então um tom acima do que a daquela enviada aos governos para comentários em junho.

Algumas nações, incluindo o Brasil, haviam pedido que o documento excluísse a menção ao “hiato” de 15 anos, mas ela será mantida, acompanhada de explicação.

“Está escrito que esta descontinuidade decorre de um fenômeno atípico em águas no Pacífico e que um período tão curto não pode ser usado para projeções de longo prazo”, disse à Folha um dos cientistas brasileiros presentes na discussão.

Christian Åslund/Greenpeace
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo
Protesto do Greenpeace em frente ao local de reuniões do IPCC, em Estocolmo

O debate sobre esse problema tomou tanto tempo que, no início do terceiro dos quatro dias de trabalho, o painel só tinha avançado 30% da pauta. “Entendo a frustração dos cientistas em gastar tanto tempo nisso, mas eles não tinham a opção evitar essa discussão, que se tornou pública”, afirmou a observadora de uma ONG presente à reunião.

“O que vemos é que níveis não tão altos de aquecimento estão causando impactos maiores do que aqueles que esperávamos, como no derretimento do gelo do Ártico e da Groenlândia ou no aumento do nível do mar.”

Em relação ao relatório anterior do IPCC, publicado em 2007, muitas das novidades têm a ver com o grau de confiabilidade de fenômenos conhecidos. A certeza de que o aquecimento global é causado pelos humanos, por exemplo, aumentou de 90% para 95%. Houve até uma proposta derrubada de aumentar o número para 99%, relata um delagado holandês.

Algumas tentativas de aguar o esboço inicial também falharam. Ao descrever as principais fontes de gases do efeito estufa, delegados sauditas queriam que o texto equiparasse em gravidade o desmatamento e a agricultura à queima de combustíveis fósseis, mas foram derrotados. Apesar de não ter grandes mudanças de conteúdo, a versão final do texto sairá com “palavras mais fortes”, disse outro observador.

A divulgação da versão definitiva do “Sumário para Formuladores de Políticas” do Grupo 1 do IPCC está marcada para as 5h00 desta sexta-feira. A versão completa do relatório, incluindo o “Sumário Técnico” destinado a cientistas, ocorre na segunda-feira.

*   *   *
26/09/2013 – 13h20

Veja dez perguntas para entender as discussões sobre clima na ONU

DA BBC BRASIL

O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) divulga na sexta-feira em Estocolmo, na Suécia, um novo relatório no qual pretende estabelecer, com o maior grau de certeza já obtido, o papel das atividades humanas nas mudanças climáticas.

Para ajudar a entender melhor o tema, a BBC preparou uma lista com dez perguntas e respostas sobre a questão:

O que é mudança climática?

O clima do planeta está mudando constantemente ao longo do tempo geológico. A temperatura média global hoje é de cerca de 15ºC, mas as evidências geológicas sugerem que ela já foi muito maior ou muito menor em outras épocas no passado.

Entretanto, o atual período de aquecimento está ocorrendo de maneira mais rápida do que em muitas ocasiões no passado. Os cientistas estão preocupados de que a flutuação natural, ou variabilidade, está dando lugar a um aquecimento rápido induzido pela ação humana, com sérias consequências para a estabilidade do clima no planeta.

O que é ‘efeito estufa’?

O efeito estufa se refere à maneira como a atmosfera da Terra “prende” parte da energia do Sol. A energia solar irradiada de volta da superfície da Terra para o espaço é absorvida por gases atmosféricos e reemitida em todas as direções.

A energia que irradia de volta para o planeta aquece tanto a baixa atmosfera quanto a superfície da Terra. Sem esse efeito, a Terra seria 30ºC mais fria, deixando as condições no planeta hostis para a vida.

Os cientistas acreditam que estamos contribuindo para o efeito natural de estufa com gases emitidos pela indústria e pela agricultura, absorvendo mais energia e aumentando a temperatura.

O mais importante desses gases no efeito estufa natural é o vapor de água, mas suas concentrações mostram pouca mudança. Outros gases do efeito estufa incluem dióxido de carbono, metano e óxido nitroso, que são liberados pela queima de combustíveis fósseis. O desmatamento contribui para seu aumento ao eliminar florestas que absorvem carbono.

Desde o início da revolução industrial, em 1750, os níveis de dióxido de carbono (CO2) aumentaram mais de 30%, e os níveis de metano cresceram mais de 140%. A concentração de CO2 na atmosfera é agora maior do que em qualquer momento nos últimos 800 mil anos.

Qual é a evidência sobre o aquecimento?

Os registros de temperatura, a partir do fim do século 19, mostram que a temperatura média da superfície da Terra aumentou cerca de 0,8ºC nos últimos cem anos. Cerca de 0,6ºC desse aquecimento ocorreu nas últimas três décadas.

Dados de satélites mostram um aumento médio nos níveis do mar de cerca de 3 milímetros por ano nas últimas décadas. Uma grande proporção da mudança nos níveis do mar se deve à expansão dos oceanos pelo aquecimento. Mas o derretimento das geleiras de montanhas e das camadas de gelo polar também contribuem para isso.

A maioria das geleiras nas regiões temperadas do mundo e na Península Antártica estão encolhendo. Desde 1979, registros de satélites mostram um declínio dramático na extensão do gelo no Ártico, a uma taxa anual de 4% por década. Em 2012, a extensão de gelo alcançou o menor nível já registrado, cerca de 50% menor do que a média do período entre 1979 e 2000.

O manto de gelo da Groenlândia verificou um derretimento recorde nos últimos anos. Se a camada inteira, de 2,8 milhões de quilômetros cúbicos, derretesse, haveria um aumento de 6 metros nos níveis dos mares.

Dados de satélites mostram que a capa de gelo do oeste da Antártica também está perdendo massa, e um estudo recente indicou que o leste da Antártica, que não havia mostrado tendências claras de aquecimento ou resfriamento, também pode ter começado a perder massa nos últimos anos. Mas os cientistas não esperam mudanças dramáticas. Em alguns lugares, a massa de gelo pode aumentar, na verdade, com as temperaturas em alta provocando mais tempestades de neve.

Os efeitos de uma mudança climática também podem ser vistos na vegetação e nos animais terrestres. Isso inclui também o florescimento e frutificação precoces em plantas e mudanças nas áreas ocupadas pelos animais terrestres.

Há uma pausa no aquecimento?

Alguns especialistas argumentam que desde 1998 não houve um aquecimento global significativo, apesar do aumento contínuo nos níveis de emissão de CO2. Os cientistas tentam explicar isso de várias formas.

Isso inclui: variações na emissão de energia pelo Sol, um declínio no vapor de água atmosférico e uma maior absorção de calor pelos oceanos. Mas até agora, não há um consenso geral sobre o mecanismo preciso por trás dessa pausa.

Céticos destacam essa pausa como um exemplo da falibilidade das previsões baseadas em modelos climáticos computadorizados. Por outro lado, os cientistas do clima observam que o hiato no aquecimento ocorre em apenas um dos componentes do sistema climático – a média global da temperatura da superfície -, e que outros indicadores, como o derretimento do gelo e as mudanças na fauna e na flora demonstram que a Terra continua a se aquecer.

Quanto as temperaturas vão aumentar no futuro?

Em seu relatório de 2007, o IPCC previu um aumento da temperatura global entre 1,8ºC e 4ºC até 2100.

Mesmo que as emissões de gases do efeito estufa caiam dramaticamente, os cientistas dizem que os efeitos continuarão, porque partes do sistema climático, particularmente os grandes corpos de água e gelo, podem levar centenas de anos para responder a mudanças na temperatura. Também leva décadas para que os gases do efeito estufa sejam removidos da atmosfera.

Quais serão os impactos disso?

A escala do impacto potencial é incerto. As mudanças podem levar à escassez de água potável, trazer mudanças grandes nas condições para a produção de alimentos e aumentar o número de mortes por inundações, tempestades, ondas de calor e secas.

Os cientistas preveem mais chuvas em geral, mas dizem que o risco de seca em áreas não costeiras deverá aumentar durante os verões mais quentes. Mais inundações são esperadas por causa de tempestades e do aumento do nível do mar. Deverá haver, porém, muitas variações regionais nesse padrão.

Os países mais pobres, que estão menos capacitados para lidar com a mudança rápida, deverão sofrer mais.

A extinção de plantas e animais está prevista, por conta de mudanças nos habitats mais rápidas do que a capacidade de adaptação das espécies à estas. A Organização Mundial da Saúde (OMS) advertiu que a saúde de milhões de pessoas pode ser ameaçada por aumentos nos casos de malária, doenças transmitidas pela água e malnutrição.

O aumento na absorção de CO2 pelos oceanos pode levá-los a se tornar mais ácidos. Esse processo de acidificação em andamento poderia provocar grandes problemas para os recifes de corais, já que as mudanças químicas impedem os corais de formar um esqueleto calcificado, que é essencial para sua sobrevivência.

O que não sabemos?

Os modelos computadorizados são usados para estudar a dinâmica do clima na Terra e fazer projeções sobre futuras mudanças de temperatura. Mas esses modelos climáticos diferem sobre a “sensibilidade climática” – a quantidade de aquecimento ou esfriamento que ocorre por conta de um fator específico, como a elevação ou a queda na concentração de CO2.

Os modelos também diferem na forma como expressam “feedback climático”.

O aquecimento global deverá provocar algumas mudanças com probabilidade de criar mais aquecimento, como a emissão de grandes quantidades de gases do efeito estufa com o derretimento do permafrost (gelo eterno da superfície da Terra). Isso é conhecido como feedback climático positivo (no sentido de adicionar calor).

Mas também existem os feedbacks negativos, que compensam o aquecimento. Por exemplo, os oceanos e a terra absorvem CO2 como parte do ciclo do carbono.

A questão é saber qual o resultado final da soma dessas variáveis.

As inundações vão me atingir?

Detalhes vazados do relatório a ser apresentado nesta semana indicam que no pior cenário traçado pelo IPCC, com o maior nível de emissões de dióxido de carbono, os níveis dos mares no ano 2100 poderiam subir até 97 centímetros.

Alguns cientistas criticam os modelos usados pelo IPCC para calcular esse aumento. Usando o que é chamado de modelo semiempírico, as projeções para o aumento do nível do mar podem chegar a 2 metros. Nessas condições, 187 milhões de pessoas a mais no mundo sofreriam com inundações.

Mas o IPCC deve dizer que não há consenso sobre o enfoque semiempírico e manterá o dado pouco inferior a 1 metro.

O que vai acontecer com os ursos polares?

O estado dos polos Norte e Sul tem sido uma preocupação crescente para a ciência, conforme os efeitos do aquecimento global se tornam mais intensos nessas regiões.

Em 2007, o IPCC disse que as temperaturas no Ártico aumentaram quase duas vezes mais que a média global nos últimos cem anos. O relatório destacou que a região pode ter uma grande variação, com um período quente observado entre 1925 e 1945.

Nos rascunhos do relatório desta semana, os cientistas dizem que há uma evidência maior de que as camadas de gelo e as geleiras estão perdendo massa e que a camada de gelo está diminuindo no Ártico.

Em relação à Groenlândia, que por si só tem a capacidade de aumentar os níveis globais dos mares em 6 metros, o painel diz estar 90% certo de que a velocidade da perda de gelo entre 1992 e 2001 aumentou seis vezes no período entre 2002 e 2011.

Enquanto a extensão média do gelo no Ártico caiu cerca de 4% por década desde 1979, o gelo na Antártica aumentou até 1,8% por década no mesmo período.

Para o futuro, as previsões são bastante dramáticas. No pior cenário traçado pelo IPCC, um Ártico sem gelo no verão é provável até o meio deste século.

E a perspectiva para os ursos polares e para outras espécies que vivem nesse ambiente não é bom, segundo disse à BBC o professor Shang-Ping Xie, do Instituto de Oceanografia da Universidade da Califórnia em San Diego.

“Haverá bolsões de gelo marítimo em alguns mares marginais. Esperamos que os ursos polares sejam capazes de sobreviver no verão nesses bolsões de gelo remanescentes”, disse.

Qual a credibilidade do IPCC?

A escala global do envolvimento científico com o IPCC dá uma ideia do peso dado ao painel.

Dividido em três grupos de trabalho que analisam a ciência física, os impactos e as opções para limitar as mudanças climáticas, o painel envolve milhares de cientistas de todo o mundo.

O relatório a ser apresentado em Estocolmo tem 209 autores coordenadores e 50 revisões de editores de 39 países diferentes.

O documento é baseado em cerca de 9.000 estudos científicos e 50 mil comentários de especialistas.

Mas em meio a esse conjunto enorme de dados, as coisas podem não sair como o esperado.

No último relatório, publicado em 2007, houve um punhado de erros que ganharam grande projeção, entre eles a afirmação de que as geleiras do Himalaia desapareceriam até 2035. Também houve erro na projeção da porcentagem do território da Holanda que ficaria sob o nível do mar.

O IPCC admitiu os erros e explicou que em um relatório de 3 mil páginas é sempre possível que haja alguns pequenos erros. A afirmação sobre o Himalaia veio da inclusão de uma entrevista que havia sido publicada pela revista New Scientist.

Em 2009, uma revisão da forma como o IPCC analisa as informações sugeriu que o painel seja mais claro no futuro sobre as fontes de informação usadas.

O painel também teve a reputação manchada pela associação com o escândalo provocado pelo vazamento de e-mails trocados entre cientistas que trabalhavam para o IPCC, em 2009.

As mensagens pareciam mostrar algum grau de conluio entre os pesquisadores para fazer com que os dados climáticos se encaixassem mais claramente na teoria das mudanças climáticas induzidas pelo homem.

Porém ao menos três pesquisas não encontraram evidências para apoiar essa conclusão.

Mas o efeito final desses eventos sobre o painel foi o de torná-lo mais cauteloso.

Apesar de o novo relatório possivelmente enfatizar uma certeza maior entre os cientistas de que as atividades humanas estão provocando o aquecimento climático, em termos de escala, níveis e impactos a palavra “incerteza” deverá aparecer com bastante frequência.

*   *   *
23/09/2013 – 03h00

Análise: Com IPCC na defensiva, novo relatório ainda tem combustível para polêmica

MARCELO LEITE

DE SÃO PAULO

Seis anos e sete meses atrás, quando lançou o documento “Mudança Climática 2007: A Base da Ciência Física”, a reputação do IPCC estava no auge. Naquele mesmo ano viria o Prêmio Nobel da Paz, como reconhecimento pela façanha de impor o tema da mudança do clima à agenda política mundial.

A autoridade do grupo formado pela ONU 18 anos antes era tamanha que a climatologista americana Susan Solomon, coordenadora do texto de 21 páginas, deu o passo arriscado: na entrevista coletiva em Paris, repetiu com ênfase a avaliação de que o aquecimento global era “inequívoco”.

Brasil ataca hiato do aquecimento global

Foi a resposta retórica e política daqueles cientistas à repercussão então alcançada pelo grupo dos chamados “céticos” (ou negacionistas). Depois disso, o IPCC nunca mais seria o mesmo.

Em novembro de 2009, um mês antes da Conferência do Clima de Copenhague, hackers invadiram computadores de uma universidade britânica e surrupiaram mensagens eletrônicas entre climatologistas do IPCC que permitia a impressão de que houvera manipulação de dados.

Os autores foram inocentados, mas uma brecha se abrira no prestígio do painel. Ela se agravou dois meses depois, quando veio à tona que o relatório continha erro grosseiro sobre derretimento de geleiras no Himalaia.

Desde então, o IPCC se manteve na defensiva. Criou critérios mais rígidos sobre o tipo de dados científicos que poderiam fundamentar suas previsões. O resultado desse retraimento transparecerá no “Quinto Relatório de Avaliação” (AR5), cujo “Sumário para Formuladores de Políticas” entra agora em sua fase final de redação.

POLÊMICAS
Parece pouco provável que o sumário repita juízos de valor como o contido no adjetivo “inequívoco”. Ainda assim, o documento contém combustível para polêmica.

A primeira coisa a prestar atenção no relatório, além da aparente redução na taxa de aquecimento, é a maneira pela qual lidará com a situação da calota de gelo sobre o oceano Ártico. O IPCC deve reafirmar como muito alta a probabilidade de que ela continue a encolher a cada verão do hemisfério Norte.

O problema é que, neste final do verão setentrional, o gelo no polo Norte se estende por uma área 50% maior (5,1 milhões de km2) do que há um ano. Em 2012, ela caíra para 3,4 milhões de km².

Editoria de Arte/Folhapress

Como se pode ver no gráfico, porém, todos os cinco últimos anos viram a área ficar muito abaixo da média de 1981 a 2010. É dessa escala temporal de transformações (décadas) que se ocupam as projeções do IPCC, não da variação de ano para ano.

O segundo ponto a atentar é a elevação do nível do mar. vAssim como ocorre com a atmosfera, o efeito estufa também esquenta o oceano. Isso expande seu volume, que também aumenta com o derretimento de geleiras sobre terra firme (como as da Groenlândia).

No caso do “Quarto Relatório de Avaliação”, de 2007, o IPCC terminou acusado de ser conservador demais na projeção de que o mar se elevaria entre 18 cm e 59 cm até o ano 2100, pois alguns estudos já indicavam mudanças de até mais de 1 m.

Tudo indica que o limite superior da nova previsão do painel deve chegar perto disso (versões preliminares apontam até 97 cm). Seria o suficiente para inundar as moradias de dezenas de milhões de pessoas no mundo.

O número, sozinho, parecerá alarmante para muitas pessoas. Pode ou não vir acompanhado, na sua divulgação, de ponderações sóbrias– como assinalar o prazo de 86 anos (de 2014 a 2100) disponível para adaptação.

Se não contornarem com muita habilidade essas armadilhas, os cientistas e porta-vozes do IPCC se arriscam a desperdiçar a oportunidade de recompor sua credibilidade como corpo científico e vê-lo, mais uma vez, desqualificado como militante da causa alarmista.

*   *   *
23/09/2013 – 19h19

IPCC promete relatório sem viés e com revisão mais rigorosa

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

O chefe do conjunto de climatologistas que escreveu a mais nova atualização do IPCC sobre a física do clima, o Grupo de Trabalho 1, prometeu ontem entregar um relatório com uma visão “sem precedentes e não enviesada sobre o estado do sistema climático”.

Abrindo a primeira sessão de trabalhos que vai finalizar a primeira das três partes do AR5, o quinto relatório de avaliação do painel do clima da ONU, Thomas Stocker diz ter levado em consideração os mais de 50 mil comentários que o documento recebeu das delegações de governos, que já tiveram acesso ao “sumário para formuladores de políticas” do relatório. “Não conheço nenhum outro documento que tenha passado por um escrutínio assim”.

Após uma última rodada de discussões, a versão final do relatório sai nesta sexta-feira, e a versão provisória do documento indica que a certeza probabilística sobre a culpa das atividades humanas pelo aquecimento global deve subir de 90% para 95%, em relação ao que o IPCC concluíra em 2007.

Qin Dahe, co-chefe do Grupo 1 do IPCC, ressaltou, porém, que apesar de incertezas permanecerem em alguns aspectos do relatório, o papel humano no clima não está sendo revisado. “A evidência científica da mudança climática antropogênica se fortaleceu ano a ano, deixando poucas incertezas sobre as consequências da inação.”

Uma versão vazada do relatório técnico do Grupo 1 do IPCC, documento mais completo que o sumário para políticos, indica que há espaço para os cientistas explicarem a recente pausa no aquecimento global: o período dos últimos 15 anos em que a subida de temperaturas se desacelerou. Uma versão do documento obtida pela agência de notícias Reuters indica que “períodos de hiato de 15 anos são comuns” no registro climático. A menção ao hiato é um dos pontos criticados pelo governo brasileiro no relatório.

*   *   *

25/09/2013 – 02h57

Para painel do clima, nuvens devem elevar aquecimento

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

O papel das nuvens na mudança climática ainda é um assunto cheio de incertezas, mas o próximo relatório do IPCC (painel do clima da ONU) dá um passo na direção de um veredito.

Segundo uma versão preliminar do documento, o que a ciência mostra até agora é que a alteração que o aquecimento global provoca na dinâmica de formação de nuvens contribui para que o calor se amplifique.

A versão provisória do AR5, o quinto relatório do IPCC, a ser divulgado na sexta, reconhece que as nuvens têm efeitos paradoxais sobre o clima, algumas delas fazendo a Terra reter mais calor, outras fazendo o planeta refletir radiação solar.

O texto porém, afirma que “o sinal do balanço de feedback radiativo é provavelmente positivo”. Em outras palavras, os cientistas têm 66% de certeza de que a mudança climática cria um ciclo vicioso, no qual nuvens aquecem um planeta que cria mais nuvens causadoras de aquecimento.

Ainda não é um veredito com grau de certeza acachapante como o atribuído aos gases-estufa –a culpa do aquecimento global é da queima de combustíveis fósseis por ação humana com 95% de certeza, diz o relatório. Mas é uma grande evolução desde o último relatório, o AR4, em 2007, que se declarou incapaz de chegar a um consenso sobre a questão.

Editoria de Arte/Folhapress

“O fato de o AR4 ter botado o dedo na ferida e dito que a parte de aerossóis e nuvens era a mais crítica fez com que milhares de cientistas voltassem pesquisas para essa área”, diz Paulo Artaxo, climatologista da USP e coautor do capítulo dedicado ao tema no novo relatório.

O maior problema era –e ainda é– saber se as nuvens baixas têm efeito positivo ou negativo sobre o aquecimento. Por estarem sob mais pressão, elas ficam mais compactas e ajudam a refletir luz solar. Já o vapor comum ou as nuvens mais altas (rarefeitas) retêm calor.

O efeito das nuvens baixas era um dos aspectos mais explorados por grupos que negam o aquecimento global causado pelo homem.

Ainda que o grau de certeza da nova resposta esteja abaixo do máximo, a alegação de que as nuvens vão salvar o planeta não tem obtido sustentação.

O problema agora é projetar o futuro. Para isso, é preciso usar modelos matemáticos de previsão, que ainda não estão prontos para tal.

Uma das principais razões para essa limitação, segundo Artaxo, é que a resolução dos modelos ainda é grosseira demais para tratar de nuvens.

Uma célula do planeta em um modelo é como um pixel de 50 km de largura, mas nuvens são menores que isso, podendo ter 100 m ou menos. Os cientistas precisam então simplificar a representação das nuvens em seus modelos matemáticos do clima.

RAIOS CÓSMICOS
O novo relatório também descarta uma teoria que ganhou espaço entre críticos do IPCC: a de que a formação de nuvens pudesse estar sendo afetada por uma alteração sazonal na taxa de raios cósmicos. Defendida pelo físico dinamarquês Henrik Svensmark, a hipótese seria uma explicação alternativa para o aquecimento não relacionada aos combustíveis fósseis.

Segundo Artaxo, o texto fez o maior esforço possível para não deixar nenhum aspecto de fora. “Você pode até achar que uma ou outra coisa é bobagem, mas não importa. É preciso analisar as evidências experimentais para verificar se uma coisa que parece a maior loucura do mundo é verdadeira ou não.”

*   *   *

23/09/2013 – 02h59

Brasil ataca ‘hiato’ do aquecimento global

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

Nos últimos 15 anos, a temperatura média da Terra parou de subir tão rápido quanto antes, mas isso não significa que a mudança climática esteja freando. Essa é a posição do governo brasileiro, que defenderá retirar do mais importante documento internacional sobre clima a menção ao chamado “hiato” do aquecimento global.

O encontro que define o conteúdo final do quinto relatório do IPCC (Painel Intergovernamental de Mudança Climática) começa hoje em Estocolmo, na Suécia, quando se reúne o Grupo de Trabalho 1 da instituição –aquele encarregado de avaliar a ciência física do clima.

O relatório técnico do painel já está pronto, mas só será publicado após a edição final do “Sumário para Formuladores de Políticas”, único anexo do relatório sobre o qual governos podem opinar antes da divulgação, marcada para a próxima sexta (27).

Editoria de Arte/Folhapress

Em junho, um esboço final dessa parte do relatório foi enviado a delegações para comentários. O texto, que vazou para a imprensa, incluía uma frase com referência ao hiato: “A taxa de aquecimento ao longo dos últimos 15 anos (1998-2012; 0,05°C por década) é menor do que a tendência desde 1951 (1951-2012; 0,12°C por década)”.

Editoria de Arte/Folhapress

Explorada por negacionistas da mudança climática, essa flexão no gráfico de temperatura é descrita por alguns como mero ruído estatístico numa tendência clara de aquecimento no longo prazo.

Autores do sumário não deveriam ter incluído um recorte arbitrário de 15 anos num documento que avalia um trajeto só visível em escala maior, defende um dos representantes do governo brasileiro perante o IPCC.

“Alguém escolheu para isso um determinado ano [1998] que foi um ano de El Niño e era mais quente que o padrão”, diz Gustavo Luedemann, coordenador de mudanças globais de clima do Ministério da Ciência. “Isso é obviamente um erro metodológico e deixa o documento um menos contundente.”

Luedeman, porém, considera a menção ao hiato apenas um equívoco pontual e diz crer que o relatório é incisivo ao culpar a humanidade pela mudança climática.

Ainda assim, cientistas tentam entender por que o gráfico de temperaturas se achatou. Segundo Ed Hawkins, climatólogo da Universidade de Reading (Inglaterra) que tem estudado o fenômeno, há vários motivos, incluindo queda de atividade solar e erupções vulcânicas recentes, que tem efeito resfriador sobre a Terra.

“O terceiro fator é a variabilidade natural do clima, com mudanças importantes no Pacífico tropical”, diz. “A energia extra entrando no sistema climático provavelmente está sendo armazenada no oceano profundo.”

*   *   *

26/09/2013 – 02h54

Oceano Ártico terá verão sem gelo em 2050, diz relatório da ONU

RAFAEL GARCIA

ENVIADO ESPECIAL A ESTOCOLMO

Quando o biólogo sueco Tom Arnbom desembarcou neste verão na costa do mar de Laptev, na Rússia, para coletar DNA de morsas, notou que os enormes mamíferos tinham um medo incomum de ursos-polares, animal que normalmente não os ataca.

Após alguns dias no local, o cientista percebeu que, sem terem gelo marinho como base de caça, os ursos não alcançavam focas e outras presas prediletas. A alternativa era tentar abocanhar filhotes de morsa, com alto risco de serem pegos pelos adultos.

Alex Argozino/Editoria de Arte/Folhapress

Esse é um dos impactos que o declínio do gelo marinho no Ártico provocou nos últimos anos. O aumento do ritmo de degelo na região é um dos principais pontos a serem revistos no próximo relatório do IPCC (painel do clima da ONU, formado por milhares de cientistas).

Amanhã, a primeira parte do texto, dedicada à física do clima, será divulgada.

“É muito provável que a cobertura de gelo marinho no Ártico continue a encolher e afinar”, afirma o texto preliminar do documento. “Sob o cenário RCP8.5 [hipótese mais pessimista do relatório], um oceano Ártico quase sem gelo provavelmente será visto antes do meio do século.”

O painel informa que é possível dizer com “alta confiabilidade” que o Ártico vai se aquecer mais rápido que outras regiões e revê para pior o seu prognóstico. Há menos de uma década, porém, o maior relatório sobre o tema, o “Arctic Climate Impact Assessment”, estimava que o temido “setembro sem gelo” só viria no fim do século.

O gelo marinho ajuda a refletir radiação solar. Com o degelo e mais área de águas escuras para absorver calor, a escassez de superfície branca vai retroalimentar a mudança climática, diz o IPCC.

A MARCHA DAS MORSAS
Arnbom, hoje um pesquisador a serviço da ONG ambientalista WWF, trabalhou por muitos anos na região para o governo da Suécia, país que tem 15% de seu território no círculo ártico.
“O que eu vi no Ártico 40 anos atrás não existe mais. É impressionante ver quão rápido se foi. Estava lá todos os anos. Alguns eram mais frios que outros, e a população de animais variava, mas em 2007 me dei conta de que os impactos eram bem visíveis.”

Naquele ano, todo o gelo em alto mar derreteu na região de Laptev, e morsas que costumavam se espalhar em pedaços de gelo marinho migraram para uma única praia, formando uma concentração de mais de 50 mil indivíduos.

Norbert Rosing/National Geographic Stock/WWF Canadá

Morsas amontoadas no Ártico; derretimento do gelo reduz área disponível para os bichos, o que pode causar a morte dos filhotes prensados pelos adultos em espaços pequenos

O local, afastado das áreas de alimentação ricas em moluscos, era pequeno demais para abrigar tantos animais, e muitos morriam esmagados. O fenômeno se repetiu depois, em 2011, com uma concentração estimada em 100 mil morsas.

RÚSSIA x AMBIENTE
Ursos e morsas, porém, não são os únicos animais da região a terem mudado de comportamento. Segundo a WWF, a região é habitada por 40 comunidades tradicionais, que enfrentam escassez na caça e pesca artesanal.

E outro grupo de humanos, vendo novas rotas de navegação se abrirem, enxerga agora o potencial econômico da região como rota de transporte marítimo, pesca industrial e fonte de petróleo –o benefício vem justamente para a indústria cujo produto é apontado como causa da mudança climática.

A gigante russa Gazprom, que estabeleceu a primeira plataforma de petróleo “offshore” da região, teve suas instalações no mar de Pechora invadidas por ativistas do Greenpeace na semana passada. Trinta ambientalistas, incluindo uma brasileira, estão presos.

A ONG WWF também intensificou sua atividade na região. O DNA de morsas coletado por Arnbom será usado para pesquisas em universidades dinamarquesas, mas ainda está parado na alfândega russa.

Robots Take Over Economy: Sudden Rise of Global Ecology of Interacting Robots Trade at Speeds Too Fast for Humans (Science Daily)

Sep. 11, 2013 — Recently, the global financial market experienced a series of computer glitches that abruptly brought operations to a halt. One reason for these “flash freezes” may be the sudden emergence of mobs of ultrafast robots, which trade on the global markets and operate at speeds beyond human capability, thus overwhelming the system. The appearance of this “ultrafast machine ecology” is documented in a new study published on September 11 in Nature Scientific Reports.

Typical ultrafast extreme events caused by mobs of computer algorithms operating faster than humans can react. (Credit: Neil Johnson, University of Miami)

The findings suggest that for time scales less than one second, the financial world makes a sudden transition into a cyber jungle inhabited by packs of aggressive trading algorithms. “These algorithms can operate so fast that humans are unable to participate in real time, and instead, an ultrafast ecology of robots rises up to take control,” explains Neil Johnson, professor of physics in the College of Arts and Sciences at the University of Miami (UM), and corresponding author of the study.

“Our findings show that, in this new world of ultrafast robot algorithms, the behavior of the market undergoes a fundamental and abrupt transition to another world where conventional market theories no longer apply,” Johnson says.

Society’s push for faster systems that outpace competitors has led to the development of algorithms capable of operating faster than the response time for humans. For instance, the quickest a person can react to potential danger is approximately one second. Even a chess grandmaster takes around 650 milliseconds to realize that he is in trouble — yet microchips for trading can operate in a fraction of a millisecond (1 millisecond is 0.001 second).

In the study, the researchers assembled and analyzed a high-throughput millisecond-resolution price stream of multiple stocks and exchanges. From January, 2006, through February, 2011, they found 18,520 extreme events lasting less than 1.5 seconds, including both crashes and spikes.

The team realized that as the duration of these ultrafast extreme events fell below human response times, the number of crashes and spikes increased dramatically. They created a model to understand the behavior and concluded that the events were the product of ultrafast computer trading and not attributable to other factors, such as regulations or mistaken trades. Johnson, who is head of the inter-disciplinary research group on complexity at UM, compares the situation to an ecological environment.

“As long as you have the normal combination of prey and predators, everything is in balance, but if you introduce predators that are too fast, they create extreme events,” Johnson says. “What we see with the new ultrafast computer algorithms is predatory trading. In this case, the predator acts before the prey even knows it’s there.”

Johnson explains that in order to regulate these ultrafast computer algorithms, we need to understand their collective behavior. This is a daunting task, but is made easier by the fact that the algorithms that operate below human response times are relatively simple, because simplicity allows faster processing.

“There are relatively few things that an ultrafast algorithm will do,” Johnson says. “This means that they are more likely to start adopting the same behavior, and hence form a cyber crowd or cyber mob which attacks a certain part of the market. This is what gives rise to the extreme events that we observe,” he says. “Our math model is able to capture this collective behavior by modeling how these cyber mobs behave.”

In fact, Johnson believes this new understanding of cyber-mobs may have other important applications outside of finance, such as dealing with cyber-attacks and cyber-warfare.

Journal Reference:

  1. Neil Johnson, Guannan Zhao, Eric Hunsader, Hong Qi, Nicholas Johnson, Jing Meng, Brian Tivnan. Abrupt rise of new machine ecology beyond human response time.Scientific Reports, 2013; 3 DOI: 10.1038/srep02627

Climate Change’s Silver Bullet? Our Interview With One Of The World’s Top Geoengineering Scholars (Climate Progress)

BY ARI PHILLIPS ON SEPTEMBER 6, 2013 AT 1:10 PM

Clive HamiltonMELBOURNE, Australia — Since coming to Australia almost two months ago I’ve heard about Clive Hamilton in the process of reporting just about every story I’ve done. Then I picked up his new book Earthmasters: The Dawn of the Age of Climate Engineeringand now I see what all the fuss is about.

In all of the debates over how to address climate change, climate engineering — or geoengineering — is among the most contentious. It involves large-scale manipulation of the Earth’s climate using grand technological interventions, such as fertilizing the oceans with iron to absorb carbon dioxide or releasing sulfur into the atmosphere to reduce radiation. While its proponents call geoengineering a silver bullet for our climate woes, its skeptics are far more critical. Joe Romm, for one, likens geoengineering to a dangerous course of chemotherapy and radiation to treat a condition curable through diet and exercise — or, in this case, emissions reduction.

According to the cover of Hamilton’s new book, “The potential risks are enormous. It is messing with nature on a scale we’ve never seen before, and it’s attracting a flood of interest from scientists, venture capitalists and oil companies.”

Hamilton is an Australian author and public intellectual. Until 2008 he was the Executive Director of The Australia Institute, a progressive think tank that he founded in 1993. Now he’s Professor of Public Ethics at the Centre for Applied Philosophy and Public Ethics, a joint center of Charles Stuart University and the University of Melbourne.

His books include Requiem for a Species: Why we resist the truth about climate changeScorcher: The dirty truth about climate change and Growth Fetishamongst others.

Hamilton’s next book will be about the anthropocene — a new geologic era in which human activities have had a significant impact on the Earth’s ecosystems. He took some time to talk with me about this new era, the future of geoengineering and what it all means for humanity. This interview has been edited for clarity and length.

How has the environmental community responded to your book on geoengineering?

Cover-image-Yale-UP3

I remember back in late 1990s around Kyoto there was a great deal of resistance amongst environmentalists and climate activists, including myself, against any talk of adaptation. It was seen to be a capitulation to a kind of defeatism that we ought not to be talking about adaptation because that means that mitigation has failed. Eventually I think we all came around to view that some climate change is going to happen and therefore adaptation has to be considered. It’s better to have seat at the table, as it were, when adaptation is being discussed.

I think we’re in the same stage now with geoengineering. Most environmentalists don’t want to know about it. Most climate activists don’t want to talk about it. There is a sense that in doing so you are conceding that it could well be possible that geoengineering will be necessary because the world community will continue to fail, perhaps even more egregiously, at responding to scientific warnings.

But I wrote the book because I became aware in writing my previous book that the genie was out of the bottle: geoengineering was going to grow in importance. Therefore, climate campaigners and environmental groups sooner or later are going to have to engage in the issue. It’s a question of whether they start now or leave it for another five years, at which point the lobby backing geoengineering will be much more powerful and will have had an opportunity to frame it more inflexibly in the media and in broader public mind.

Did you come across any big surprises while writing the book?

There were a couple of big surprises. One was the extent of the geoengineering lobby and the links between the scientists and the investors. I developed a much stronger sense of the likelihood of a powerful geoengineering constituency emerging, which would — if it were not countered by a skeptical community of thinkers and campaigners — essentially take control of whole agenda. Plotting those links and laying them out was something that I go into quite a lot of detail over. At the same time it stimulated me to think about the military-industrial complex, the famous lobby group that help such sway in the U.S. in the middle of the 20th century.

One thing I noticed while doing this research and looking at scientists involved was the density of the linkages with the Lawrence Livermore National Laboratory. So I investigated further and thought it’s really quite astonishing the extent to which many, if not most, prominent scientific researchers in geoengineering in the U.S. worked at Livermore or have close links with people there now or those who used to work there.

Then when I read Hugh Gusterson’s book on Livermore and it’s role in the cold war and nuclear weapons development, I started to think much more carefully about the type of mindset that is especially drawn to geoengineering as a technological response to global warming. I think it’s quite alarming in its implications. That lead me to further think about the geostrategic implications of climate engineering, which is something that’s received almost no attention, but we do know that people in the military and related strategic communities are starting to think about geoengineering and what it would mean for international relations and conflict.

What about the potential for financial gain?

A noble desire to save the world from climate change will attract less noble intentions. That’s just the way of the world. Never let a good crisis go to waste. Already we’re seeing it with Canadian oil sands billionaire Murray Edwards investing in geoengineering technologies.

I spend quite a bit of time talking about Bill Gates in the book. Earlier this year, I was talking about the scientific entrepreneurial lobby group that was emerging during a debate with Peter Singer (another Australian philosopher) and I mentioned Bill Gates. Singer said, “Well what’s wrong with Bill Gates? He’s well motivated. He does a lot of good charity work. If you’re going to have millionaires investing in geoengineering then Bill Gates would be one of the first.”

I made the point that yes, Bill Gates is now in philanthropic mode, and The Bill and Melinda Gates Foundation does praiseworthy work, but it’s not Bill Gates’ motives I’m worried about; it’s his worldview. That Silicon Valley, ‘we’ve-got-an-app-for-that’ kind of understanding. Joe Romm (Editor of Climate Progress) has been very critical of Gates for his dissing of renewable energy technology. Gates described solar energy as cute.

So Gates is drawn to big, new, shiny technological responses that clever people dream up. You know, brainstorming over pizza and coke. That’s where he comes from and that’s how he thinks. It’s one thing to think about computers and software that way, but it’s a completely different matter to think about the earth as a whole as in need of a snazzy new app that will solve the problem. I think that’s an extremely dangerous way to understand it for all sorts of reasons.

Perhaps the most important of which is that the climate change problem is not a technological one. It’s a social and political one. The more people focus on techno-fixes, the more they distract us from the real problems, which are the social and political difficulties of responding to climate change. We have the technology and have had it for many years. So arguing that the blockage is the absence of technology is extremely unhelpful and plays into the hands of the fossil fuel lobby.

In the book you say the slippery slope to a techno-fix promises a substitute for the slippery slope to revolution.

Revolutions take all different forms of course, from the industrial revolution to Tahrir Square to the cultural revolution of the 60s and 70s, and it’s more along the lines of the latter that I was thinking of, and into which new forms of climate activism can feed. There’s often a sort of terror in environmental groups that if they do something radical or outrageous, they’ll alienate mom and dad in the suburbs.

But social movements that have radically changed the way our world works — think of the woman’s movement — have frequently started out being rancorous and difficult and attracting the derision of the conservative press and politicians. And indeed, mystifying and often alienating people living in the suburbs or high-rises. If people have to be shocked and outraged before they come around to seeing that some fundamental transformation is necessary, then so be it. I think that there’s a level of fear and complacency and unwillingness to shift to change on the part of our societies, and some kind of circuit breaker is necessary.

You talk about the acceptance of the “solution” of geoengineering even by people who don’t seem to think climate change is a problem in the first place.

That’s one of the, on the face of it, mystifying aspects of the geoengineering debate. Why conservative think tanks like The American Enterprise Institute, The Cato Institute and even The Heartland Institute, which have for years worked hard to deny climate science and block all measures to reduce carbon emissions, have come out in favor of geoengineering.

What it shows us is that the debate over climate change and the role of the deniers is not about the science. They want to make it about the science because that gives it an air of legitimacy, but it’s really about fundamental cultural and political values. So if geoengineering is the solution then they’re happy to concede that there’s a problem because geoengineering is a big, technological, macho, system-justifying response to climate change. And that’s the kind of response that fits with their political orientation.

How does the “American Way of Life” factor into all of this?

Already we’re seeing what authorities in the U.S. need to do in order to protect people from massive hurricanes and monster wildfires and frequent floods. As the effects of climate change become even more severe we’ll see nations like the U.S. that are in a position to adapt start spending billions of dollars dong so.

And of course, the more the climate deniers persuade politicians that hurricanes and wildfires aren’t due to climate change, the less responsive authorities are likely to be and the more people will die, in effect. Eventually it will be impossible to continue to pretend that mitigation is not the first best option. It might take five years, it might take ten, let’s hope it doesn’t take twenty.

The sort of tragedy of all this is that if the world had become serious ten or so years ago that cost would have been vastly smaller than it’s going to be. But you know that’s in a perfect world where human beings are rational and take reasonable measures to protect themselves from the warnings of scientists. But we now know that the enlightenment conception of human beings as rational creatures who assess the evidence and take measures to protect themselves from harm, that has now collapsed before us. We can no longer maintain that belief.

That feeds into this idea of the anthropocene and the ethical implications of living in a world with climate change.

I am writing a book about the anthropocene because it seems to me that when human beings become so powerful that they transform the fundamental cycles and processes that govern the evolution of the earth itself that we’re entering into an era, or we’ve reached an event, that’s as significant as the industrial revolution, or even the process of civilization itself.

It causes us to rethink pretty much everything. It certainly causes us to rethink what the relationship of human beings is to the planet, but in a harder way, what is a human being. The sort of modern conception of what a human being is is an isolated ego existing inside a body. And most of us think that’s just what we are. But in fact that’s a very recent and culturally specific understanding of what a human being is. And it’s the conception of a human being that’s consistent with an advanced consumer society.

Collectively though, we are the kind of creatures, like certain types of microbes, that can completely transform the nature of the planet on which we live. If this is so, then it causes us to rethink who we are and what the place of this strange, clever creature is on planet earth.

We can no longer think of the Earth as the passive and unresponsive backdrop to the human drama where we play out our parts in a kind of Shakespearean play and not worry about the backdrop. We now find that the backdrop, the stage scenery, has entered into the play and is disrupting the whole proceedings.

Something very profound has happened. Human history, which we think of as only being a few thousand years old and is the history of human actions, has converged with geologic history, which we always thought of as operating in a very distinct domain having nothing to do with us. But now we find that our history affects the history of the earth.

If there is no more human history distinct from earth history, then what does that mean?

Vida de princesa nos relatórios de sustentabilidade (Envolverde)

02/9/2013 – 11h01

por Carla Stoicov e Wilson Bispo, da Tistu

sustentabilidadeempresas Vida de princesa nos relatórios de sustentabilidade

Empresas ainda não entendem o motivo de seus relatórios de sustentabilidade não serem objeto de leitura dos seus stakeholders. Produzido no tradicional modelo top-down de comunicação, ainda não se deram conta que esse produto deve ter seus temas escolhidos não por eles, mas pelos seus públicos, num processo de diálogo que deve se dar ao longo do ano. Mas isso pode estar prestes a mudar e você deveria ser parte disso.

No mês passado participamos de um dia onde foram apresentadas e dialogadas as novidades do G4 Sustainability Reporting Guidelines. Na formação (apesar de achar que o tema está muito cru para chamarmos de curso) estavam empresas, consultores e representantes de entidades/federações.

Os dois aspectos mais marcantes da nova versão – que passam a valer a partir de Janeiro de 2016 (1) – são a obrigatoriedade de ter uma matriz de materialidade e de demonstrar que a empresa tem conhecimento dos impactos dentro e fora dela, colocando na pauta o tema cadeia de fornecimento. Na pesquisa Materialidade Brasil, elaborada pela consultoria Report Sustentabilidade, foi constatado que 85% das empresas publicaram quais são os temas materiais, mas apenas 61% publicou sua matriz de materialidade. Um número menor ainda (45%) publicou metas atreladas aos temas materiais (ou seja, apesar de material, 55% das empresas entendeu que ainda não era o momento de atribuir metas).

Algumas lacunas ainda são imperdoáveis no G4. Nenhum avanço na proposição de metodologia para se fazer um processo de materialidade e em como equilibrar os aspectos trazidos pelos stakeholders internos x externos. A Takao Consultoria elaborou um Manual para Implementação de Engajamento com Stakeholders. O documento propõe matrizes de priorização e perfil de partes interessadas e também exemplifica uma matriz de priorização de temas em relação aos critérios internos e externos. Pode ser um ótimo modelo a ser seguido, mas quando lemos um relatório de sustentabilidade muitas vezes não está explícito como foi feita a seleção e priorização dos públicos a serem consultados, se todos participaram juntos ou não, se os temas foram dados ou abriu-se a opções para temas que emergiram no processo e como se chegou a priorização dos temas.

Outro ponto é que a materialidade deve envolver stakeholders, mas não obriga a participação de determinadas partes interessadas. Dá para ficar apenas com os funcionários ou até mesmo não incluí-los.

Aviary Photo 130224803379524387 Vida de princesa nos relatórios de sustentabilidade

Pesquisa Materialidade Brasil. Foto: Report Sustentabilidade

A nova versão, apesar de falar muito em cadeia de fornecimento, ainda está longe de propor um olhar mais sistêmico, amplo, envolvendo toda a cadeia de valor da organização (que contemple também a distribuição, clientes e consumidores). Ou seja, a empresa tem que ficar atenta de quem ela compra, onde estão estes fornecedores e onde estão localizados os impactos na cadeia de fornecimento. Contudo, ainda está livre para vender para quem quiser! Levaram o conceito de esfera de influência da Norma ISO 26000 apenas para parte da cadeia.

“Esfera de influência: amplitude/extensão de relações políticas, contratuais, econômicas ou outras relações por meio das quais uma organização tem a capacidade de afetar as decisões ou atividades de indivíduos ou organizações. – Norma ISO 26000″

Com isso, ficam de fora as preocupações da empresa com a comercialização de seus produtos ou serviços para, por exemplo, países que têm graves violações dos direitos humanos ou que estejam em guerra civil; organizações envolvidas em corrupção ou lavagem de dinheiro; empresas que desmatam, têm trabalho infantil ou análogo ao escravo em sua operação ou na sua cadeia, etc.

As organizações presentes na formação da qual participamos também questionaram se a GRI tem alguma sinalização sobre como tornar os relatórios mais atrativos, mais lidos. Bem, não entendemos que isso seja uma missão da GRI, mas sim, em primeira instância, das próprias empresas. O relatório será interessante pela qualidade e relevância das informações ali colocadas. Isso nos remete aos motivos de alguém “curtir” no Facebook a página oficial de uma empresa quando há interesse genuíno, e não quando é feito para participar de uma oferta comercial. Nós seguimos várias organizações e o que elas nos oferecem é informação de qualidade, independentemente do seu produto ou serviço.

O blog Testando os Limites da Sustentabilidade (um tipo de watchdog) lê e analisa relatórios de sustentabilidade das empresas e depois disso encaminha perguntas sobre informações incompletas ou imprecisas, apontando lacunas de temas que deveriam ser abordados conforme o negócio da empresa. Muitas respondem ao blog e deveriam ver os questionamentos feitos com bons olhos: afinal alguém está lendo seu relatório!

Contudo, há uma grande lacuna deixada por stakeholders imprescindíveis para a melhoria da qualidade das informações e da transparência do setor privado no Brasil, como organizações da sociedade civil, imprensa, academia, consultorias, organizações think tank, coletivos e formadores de opinião em geral. Céticos quanto ao conteúdo publicado nos relatos — em alguma medida, com razão –, esses públicos deixam de prestar um enorme serviço à sociedade ao não fazer leituras e análises críticas às informações dos relatórios de sustentabilidade, um dos poucos, se não os únicos, instrumentos de consulta de como as corporações contam estar conduzindo os negócios das empresas por aqui.

Acreditamos que existe um grande espaço para exercitar diferentes formas de se fazer a leitura desse tipo de documento. Esses stakeholders têm condições técnicas e informações complementares para “mastigar” o conteúdo dos relatórios e fazer cruzamentos com a real atuação da empresa, com o que a GRI determina, com práticas de outras empresas do mesmo setor, com políticas públicas, com Pactos e Compromissos voluntários, comparar com informações e práticas da matriz na busca por um duplo padrão (2), dentre outras dezenas de olhares possíveis.

Analisar as informações públicas do setor privado — ou evidenciar a falta delas — ajuda na geração de conhecimento crítico que pode ser um impulsionador de novas práticas por parte das empresas. É o caso do estudo Sustentabilidade do Setor Automotivo, produzido pela Tistu para o UniEthos, que vem sendo utilizado por uma montadora na sua estratégia de sustentabilidade.

Por isso, o que realmente importa nos relatórios são os dados relevantes para quem lê, não para quem escreve. Entretanto, as informações ainda vêm embaladas num pacote desnecessário de frases de efeito que dizem pouco, ou quase nada, e não agregam no momento da análise, repetindo histórias ano após ano sem demonstrar ou deixar clara qual foi a real evolução frente ao ano anterior. Daí a importância da análise crítica de formadores de opinião. Enquanto as empresas não avançam neste aspecto, iniciativas que capturem os dados e “limpem” as informações dos excessos, serão úteis para aumentar o conhecimento sobre os aspectos de sustentabilidade que as empresas estão colocando na sua cesta de prioridades.

Em tempo de manifestações onde cartazes levantam bandeiras como saúde (a ser melhorada), corrupção (a ser combatida), transporte (como forma de inclusão) e acesso à cidade (como forma de promoção da igualdade), quem não gostaria de saber quais empresas estão antenadas com essas necessidades e trabalham em convergência com as políticas públicas? Não passa pela nossa cabeça abrir o relatório da Siemens no ano que vem e não ver a questão da corrupção e cartel. Ou ler o relatório da Samsung e não encontrar nada sobre as condições degradantes dos trabalhadores. Mas não estamos falando daqueles textos sobre o quanto valorizam os processos, como os sistemas funcionam etc. Queremos saber justamente o contrário. Quais foram as lições aprendidas, onde estava o furo, quais desafios que entendem que estão longe de superar? As empresas são feitas de pessoas e portanto são cheias de falhas, inconsistências, dilemas. E é isso que falta aparecer nos seus relatos de vida de princesa.

Talvez esta deva ser a tendência dos relatos das empresas. Criar visões por assuntos de interesse pela ótica de quem busca a informação, com construções e atualizações dinâmicas (entenda aqui que elas não serão feitas de forma unilateral, apenas pelas empresas), com muito menos filtros e fotos de banco de imagens.

Mais Narrativas Independentes, Jornalismo e Ação (NINJA) para os relatórios de sustentabilidade têm o potencial de torná-los muito mais interessantes e vivos. Se as empresas não fizerem, alguém vai fazer.

(1) Ou seja, o último ano de relato na versão G3 ou G3.1 será 2014 sendo que 2015 já será relatado na nova versão.

(2) Esta é uma metodologia que a Tistu vem adotando em alguns estudos. Isolar alguns assuntos e procurar por práticas e posicionamento na matriz e na operação do Brasil. Quando há divergência (i.e. a matriz tem políticas, programas ou é estratégico e aqui nem é citado) ocorre o que denominamos de Duplo Padrão.

Carla Stoicov é mestranda em Gestão e Políticas Públicas pela FGV-SP. Sócia da Tistu, atua como consultora em projetos para o Desenvolvimento Sustentável e de Responsabilidade Social Empresarial. Foi coordenadora do Programa Tear do Instituto Ethos e é especialista do UniEthos.

Wilson Bispo é jornalista e desde de 2005 trabalha na cobertura de temas socioambientais e de RSE. Sócio da Tistu, foi produtor do Repórter Eco da TV Cultura de SP, editor do portal e agência Envolverde e consultor na Report Sustentabilidade.

** Publicado originalmente no site Tistu.

The Myth of ‘Environmental Catastrophism’ (Monthly Review)

Between October 2010 and April 2012, over 250,000 people, including 133,000 children under five, died of hunger caused by drought in Somalia. Millions more survived only because they received food aid. Scientists at the UK Met Centre have shown that human-induced climate change made this catastrophe much worse than it would otherwise have been.1

This is only the beginning: the United Nations’ 2013 Human Development Report says that without coordinated global action to avert environmental disasters, especially global warming, the number of people living in extreme poverty could increase by up to 3 billion by 2050.2 Untold numbers of children will die, killed by climate change.

If a runaway train is bearing down on children, simple human solidarity dictates that anyone who sees it should shout a warning, that anyone who can should try to stop it. It is difficult to imagine how anyone could disagree with that elementary moral imperative.

And yet some do. Increasingly, activists who warn that the world faces unprecedented environmental danger are accused of catastrophism—of raising alarms that do more harm than good. That accusation, a standard feature of right-wing attacks on the environmental movement, has recently been advanced by some left-wing critics as well. While they are undoubtedly sincere, their critique of so-called environmental catastrophism does not stand up to scrutiny.

From the Right…

The word “catastrophism” originated in nineteenth-century geology, in the debate between those who believed all geological change had been gradual and those who believed there had been episodes of rapid change. Today, the word is most often used by right-wing climate change deniers for whom it is a synonym for “alarmism.”

  • The Heartland Institute: “Climate Catastrophism Picking Up Again in the U.S. and Across the World.”3
  • A right-wing German blog: “The Climate Catastrophism Cult.”4
  • The Australian journal Quadrant: “The Chilling Costs of Climate Catastrophism.”5

Examples could be multiplied. As environmental historian Franz Mauelshagen writes, “In climate denialist circles, the word ‘climate catastrophe’ has become synonymous with ‘climate lie,’ taking the anthropogenic green house effect for a scam.”6

Those who hold such views like to call themselves “climate change skeptics,” but a more accurate term is “climate science deniers.” While there are uncertainties about the speed of change and its exact effects, there is no question that global warming is driven by greenhouse-gas emissions caused by human activity, and that if business as usual continues, temperatures will reach levels higher than any seen since before human beings evolved. Those who disagree are not skeptical, they are denying the best scientific evidence and analysis available.

The right labels the scientific consensus “catastrophism” to belittle environmentalism, and to stifle consideration of measures to delay or prevent the crisis. The real problem, they imply, is not the onrushing train, but the people who are yelling “get off the track!” Leaving the track would disrupt business as usual, and that is to be avoided at all costs.

…And From the Left

Until very recently, “catastrophism” as a political expression was pretty much the exclusive property of conservatives. When it did occur in left-wing writing, it referred to economic debates, not ecology. But in 2007 two quite different left-wing voices almost simultaneously adopted “catastrophism” as a pejorative term for radical ideas about climate change they disagreed with.

The most prominent was the late Alexander Cockburn, who in 2007 was writing regularly forThe Nation and coediting the newsletter CounterPunch. To the shock of many of his admirers, he declared that “There is still zero empirical evidence that anthropogenic production of CO2 is making any measurable contribution to the world’s present warming trend,” and that “the human carbon footprint is of zero consequence.”7 Concern about climate change was, he wrote, the result of a conspiracy “between the Greenhouser fearmongers and the nuclear industry, now largely owned by oil companies.”8

Like critics on the right, Cockburn charged that the left was using climate change to sneak through reforms it could not otherwise win: “The left has bought into environmental catastrophism because it thinks that if it can persuade the world that there is indeed a catastrophe, then somehow the emergency response will lead to positive developments in terms of social and environmental justice.”9

While Cockburn’s assault on “environmental catastrophism” was shocking, his arguments did not add anything new to the climate debate. They were the same criticisms we had long heard from right-wing deniers, albeit with leftish vocabulary.

That was not the case with Leo Panitch and Colin Leys. These distinguished Marxist scholars are by no means deniers. They began their preface to the 2007 Socialist Register by noting that “environmental problems might be so severe as to potentially threaten the continuation of anything that might be considered tolerable human life,” and insisting that “the speed of development of globalized capitalism, epitomized by the dramatic acceleration of climate change, makes it imperative for socialists to deal seriously with these issues now.”

But then they wrote: “Nonetheless, it is important to try to avoid an anxiety-driven ecological catastrophism, parallel to the kind of crisis-driven economic catastrophism that announces the inevitable demise of capitalism.”10 They went on to argue that capitalism’s “dynamism and innovativeness” might enable it to use “green commerce” to escape environmental traps.

The problem with the Panitch–Leys formulation is that the threat of ecological catastrophe isnot “parallel” to the view that capitalism will destroy itself. The desire to avoid the kind of mechanical determinism that has often characterized Marxist politics, where every crisis was proclaimed to be the final battle, led these thoughtful writers to confuse two very different kinds of catastrophe.

The idea that capitalism will inevitably face an insurmountable economic crisis and collapse is based on a misunderstanding of Marxist economic theory. While economic crises are endemic to capitalism, the system can always continue—only class struggle, only a social revolution, can overthrow capitalism and end the crisis cycle.

Large-scale environmental damage is caused by our destructive economic system, but its effectis the potentially irreversible disruption of essential natural systems. The most dramatic example is global warming: recent research shows that the earth is now warmer than at any time in the past 6,000 years, and temperatures are rising much faster than at any time since the last Ice Age. Arctic ice and the Greenland ice sheet are disappearing faster than predicted, raising the specter of flooding in coastal areas where more than a billion people live. Extreme weather events, such as giant storms, heat waves, and droughts are becoming ever more frequent. So many species are going extinct that many scientists call it a mass extinction event, comparable to the time 66 million years ago when 75 percent of all species, including the dinosaurs, were wiped out.

As the editors of Monthly Review wrote in reply to Socialist Register, if these trends continue, “we will be faced with a different world—one in which life on the planet will be massively degraded on a scale not seen for tens of millions of years.”11 To call this “anxiety-driven ecological catastrophism, parallel to…economic catastrophism” is to equate an abstract error in economic theory with some of the strongest conclusions of modern science.

A New ‘Catastrophism’ Critique

Now a new essay, provocatively titled “The Politics of Failure Have Failed,” offers a different and more sweeping left-wing critique of “environmental catastrophism.” Author Eddie Yuen is associated with the Pacifica radio program Against the Grain, and is on the editorial board of the journal Capitalism Nature Socialism.

His paper is part of a broader effort to define and critique a body of political thought calledCatastrophism, in a book by that title.12 In the book’s introduction, Sasha Lilley offers this definition:

Catastrophism presumes that society is headed for a collapse, whether economic, ecological, social, or spiritual. This collapse is frequently, but not always, regarded as a great cleansing, out of which a new society will be born. Catastrophists tend to believe that an ever-intensified rhetoric of disaster will awaken the masses from their long slumber—if the mechanical failure of the system does not make such struggles superfluous. On the left, catastrophism veers between the expectation that the worse things become, the better they will be for radical fortunes, and the prediction that capitalism will collapse under its own weight. For parts of the right, worsening conditions are welcomed, with the hope they will trigger divine intervention or allow the settling of scores for any modicum of social advance over the last century.

A political category that includes both the right and the left—and that encompasses people whose concerns might be economic, ecological, social, or spiritual—is, to say the least, unreasonably broad. It is difficult to see any analytical value in a definition that lumps together anarchists, fascists, Christian fundamentalists, right-wing conspiracy nuts, pre–1914 socialists, peak-oil theorists, obscure Trotskyist groups, and even Mao Zedong.

The definition of catastrophism becomes even more problematic in Yuen’s essay.

One Of These Things Is Not Like The Others…

Years ago, the children’s television program Sesame Street would display four items—three circles and a square, three horses and a chair, and so on—while someone sang, “One of these things is not like the others, One of these things doesn’t belong.

I thought of that when I read Yuen’s essay.

While the book’s scope is broad, most of it focuses, as Yuen writes, on “instrumental, spurious, and sometimes maniacal versions of catastrophism—including rightwing racial paranoia, religious millenarianism, liberal panics over fascism, leftist fetishization of capitalist collapse, capitalist invocation of the ‘shock doctrine’ and pop culture cliché.”

But as Yuen admits in his first paragraph, environmentalism is a very different matter, because we are in “what is unquestionably a genuine catastrophic moment in human and planetary history…. Of all of the forms of catastrophic discourse on offer, the collapse of ecological systems is unique in that it is definitively verified by a consensus within the scientific community…. It is absolutely urgent to address this by effectively and rapidly changing the direction of human society.”

If the science is clear, if widespread ecological collapse unquestionably faces us unless action is taken, why is this topic included in a book devoted to criticizing false ideas? Does it make sense to use the same term for people who believe in an imaginary train crash and for people who are trying to stop a real crash from happening?

The answer, although he does not say so, is that Yuen is using a different definition than the one Lilley gave in her introduction. Her version used the word for the belief that some form of catastrophe will have positive results—that capitalism will collapse from internal contradictions, that God will punish all sinners, that peak oil or industrial collapse will save the planet. Yuen uses the same word for the idea that environmentalists should alert people to the threat of catastrophic environmental change and try to mobilize them to prevent or minimize it.

Thus, when he refers to “a shrill note of catastrophism” in the work of James Hansen, perhaps the world’s leading climate scientist, he is not challenging the accuracy of Hansen’s analysis, but only the “narrative strategy” of clearly stating the probable results of continuing business as usual.

Yuen insists that “the veracity of apocalyptic claims about ecological collapse are separate from their effects on social, political, and economic life.” Although “the best evidence points to cascading environmental disaster,” in his view it is self-defeating to tell people that. He makes two arguments, which we can label “practical” and “principled.”

His practical argument is that by talking about “apocalyptic scenarios” environmentalists have made people more apathetic, less likely to fight for progressive change. His principledargument is that exposing and campaigning to stop tendencies towards environmental collapse has “damaging and rightward-leaning effects”—it undermines the left, promotes reactionary policies and strengthens the ruling class.

In my opinion, he is wrong on both counts.

The Truth Shall Make You Apathetic?

In Yuen’s view, the most important question facing people who are concerned about environmental destruction is: “what narrative strategies are most likely to generate effective and radical social movements?”

He is vague about what “narrative strategies” might work, but he is very firm about what does not. He argues that environmentalists have focused on explaining the environmental crisis and warning of its consequences in the belief that this will lead people to rise up and demand change, but this is a fallacy. In reality, “once convinced of apocalyptic scenarios, many Americans become more apathetic.”

Given such a sweeping assertion, it is surprising to find that the only evidence Yuen offers is a news release describing one academic paper, based on a U.S. telephone survey conducted in 2008, that purported to show that “more informed respondents both feel less personally responsible for global warming, and also show less concern for global warming.”13

Note first that being “more informed” is not the same as being “convinced of apocalyptic scenarios” or being bombarded with “increasingly urgent appeals about fixed ecological tipping points.” On the face of it, this study does not appear to contribute to our understanding of the effects of “catastrophism.”

What’s more, reading the original paper reveals that the people described as “more informed” were self-reporting. If they said they were informed, that was accepted, and no one asked if they were listening to climate scientists or to conservative talk radio. That makes the paper’s conclusion meaningless.

Later in his essay, Yuen correctly criticizes some environmentalists and scientists who “speak of ‘everyone’ as a unified subject.” But here he accepts as credible a study that purports to show how all Americans respond to information about climate change, regardless of class, gender, race, or political leanings.

The problem with such undifferentiated claims is shown in a 2011 study that examined the impact of Americans’ political opinions on their feelings about climate change. It found that liberals and Democrats who report being well-informed are more worried about climate change, while conservatives and Republicans who report being well-informed are less worried.14 Obviously the two groups mean very different things by “well-informed.”

Even if we ignore that, the study Yuen cites is a one-time snapshot—it does not tells us what radicals really need to know, which is how things are changing. For that, a more useful survey is one that scientists at Yale University and George Mason University have conducted seven times since 2008 to show shifts in U.S. public opinion.15 Based on answers to questions about their opinions, respondents are categorized according to their attitude towards global warming. The surveys show:

  • The number of people identified as “Disengaged” or “Cautious”—those we might call apathetic or uncertain—has varied very little, accounting for between 31 percent and 35 percent of the respondents every time.
  • The categories “Dismissive” or “Doubtful”—those who lean towards denial—increased between 2008 and 2010. Since then, those groups have shrunk back almost to the 2008 level.
  • In parallel, the combined “Concerned” and “Alarmed” groups shrank between 2008 and 2010, but have since largely recovered. In September 2012—before Hurricane Sandy!—there were more than twice as many Americans in these two categories as in Dismissive/Doubtful.

Another study, published in the journal Climatic Change, used seventy-four independent surveys conducted between 2002 and 2011 to create a Climate Change Threat Index (CCTI)—a measure of public concern about climate change—and showed how it changed in response to public events. It found that public concern about climate change reached an all-time high in 2006–2007, when the Al Gore documentary An Inconvenient Truth was seen in theaters by millions of people and won an Academy Award.

The authors conclude: “Our results…show that advocacy efforts produce substantial changes in public perceptions related to climate change. Specifically, the film An Inconvenient Truth and the publicity surrounding its release produced a significant positive jump in the CCTI.”16

This directly contradicts Yuen’s view that more information about climate change causes Americans to become more apathetic. There is no evidence of a long-term increase in apathy or decrease in concern—and when scientific information about climate change reached millions of people, the result was not apathy but a substantial increase in support for action to reduce greenhouse gas emissions.

‘The Two Greatest Myths’

Yuen says environmentalists have deluged Americans with catastrophic warnings, and this strategy has produced apathy, not action. Writing of establishment politicians who make exactly the same claim, noted climate change analyst Joseph Romm says, “The two greatest myths about global warming communications are 1) constant repetition of doomsday messages has been a major, ongoing strategy and 2) that strategy doesn’t work and indeed is actually counterproductive!” Contrary to liberal mythology, the North American public has not been exposed to anything even resembling the first claim. Romm writes,

The broad American public is exposed to virtually no doomsday messages, let alone constant ones, on climate change in popular culture (TV and the movies and even online)…. The major energy companies bombard the airwaves with millions and millions of dollars of repetitious pro-fossil-fuel ads. The environmentalists spend far, far less money…. Environmentalists when they do appear in popular culture, especially TV, are routinely mocked…. It is total BS that somehow the American public has been scared and overwhelmed by repeated doomsday messaging into some sort of climate fatigue.17

The website Daily Climate, which tracks U.S. news stories about climate change, says coverage peaked in 2009, during the Copenhagen talks—but then it “fell off the map,” dropping 30 percent in 2010 and another 20 percent in 2011. In 2012, despite widespread droughts and Hurricane Sandy, news coverage fell another 2 percent. The decline in editorial interest was even more dramatic—in 2012 newspapers published fewer than half as many editorials about climate change as they did in 2009.18

It should be noted that these shifts occurred in the framework of very limited news coverage of climate issues. As a leading media analyst notes, “relative to other issues like health, medicine, business, crime and government, media attention to climate change remains a mere blip.”19 Similarly, a British study describes coverage of climate change in newspapers there as “lamentably thin”—a problem exacerbated by the fact that much of the coverage consists of “worryingly persistent climate denial stories.” The author concludes drily: “The limited coverage is unlikely to have convinced readers that climate change is a serious problem warranting immediate, decisive and potentially costly action.”20

Given Yuen’s concern that Americans do not recognize the seriousness of environmental crises, it is surprising how little he says about the massive fossil-fuel-funded disinformation campaigns that have confused and distorted media reporting. I can find just four sentences on the subject in his 9,000-word text, and not one that suggests denialist campaigns might have helped undermine efforts to build a climate change movement.

On the contrary, he downplays the influence of “the well-funded climate denial lobby,” by claiming that “far more corporate and elite energy has gone toward generating anxiety about global warming,” and that “mainstream climate science is much better funded.” He provides no evidence for either statement.

Of course, the fossil-fuel lobby is not the only force working to undermine public concern about climate change. It is also important to recognize the impact of Obama’s predictable unwillingness to confront the dominant forces in U.S. capitalism, and of the craven failure of mainstream environmentalist groups and NGOs to expose and challenge the Democrats’ anti-environmental policies.

With fossil-fuel denialists on one side, and Obama’s pale-green cheerleaders on the other, activists who want to get out the truth have barely been heard. In that context, it makes little sense to blame environmentalists for sabotaging environmentalism.

The Truth Will Help the Right?

Halfway through his essay, Yuen abruptly changes direction, leaving the practical argument behind and raising his principled concern. He now argues that what he calls catastrophism leads people to support reactionary policies and promotes “the most authoritarian solutions at the state level.” Focusing attention on what he agrees is a “cascading environmental disaster” is dangerous because it “disables the left but benefits the right and capital.” He says, “Increased awareness of environmental crisis will not likely translate into a more ecological lifestyle, let alone an activist orientation against the root causes of environmental degradation. In fact, right-wing and nationalist environmental politics have much more to gain from an embrace of catastrophism.”

Yuen says that many environmentalists, including scientists, “reflexively overlook class divisions,” and so do not realize that “some business and political elites feel that they can avoid the worst consequences of the environmental crisis, and may even be able to benefit from it.” Yuen apparently thinks those elites are right—while the insurance industry is understandably worried about big claims, he says, “the opportunities for other sectors of capitalism are colossal in scope.”

He devotes much of the rest of his essay to describing the efforts of pro-capitalist forces, conservative and liberal, to use concern about potential environmental disasters to promote their own interests, ranging from emissions trading schemes to military expansion to Malthusian attacks on the world’s poorest people. “The solution offered by global elites to the catastrophe is a further program of austerity, belt-tightening, and sacrifice, the brunt of which will be borne by the world’s poor.”

Some of this is overstated. His claim that “Malthusianism is at the core of most environmental discourse,” reflects either a very limited view of environmentalism or an excessively broad definition of Malthusianism. And he seems to endorse David Noble’s bizarre theory that public concern about global warming has been engineered by a corporate conspiracy to promote carbon trading schemes.21 Nevertheless he is correct that the ruling class will do its best to profit from concern about climate change, while simultaneously offloading the costs onto the world’s poorest people.

The question is, who is he arguing with? This book says it aims to “spur debate among radicals,” but none of this is new or controversial for radicals. The insight that the interests of the ruling class are usually opposed to the interests of the rest of us has been central to left-wing thought since before Marx was born. Capitalists always try to turn crises to their advantage no matter who gets hurt, and they always try to offload the costs of their crises onto the poor and oppressed.

What needs to be proved is not that pro-capitalist forces are trying to steer the environmental movement into profitable channels, and not that many sincere environmentalists have backward ideas about the social and economic causes of ecological crises. Radicals who are active in green movements know those things perfectly well. What needs to be proved is Yuen’s view that warning about environmental disasters and campaigning to prevent them has “damaging and rightward-leaning effects” that are so severe that radicals cannot overcome them.

But no proof is offered.

What is particularly disturbing about his argument is that he devotes pages to describing the efforts of reactionaries to misdirect concern about climate change—and none to the efforts of radical environmentalists to counter those forces. Earlier in his essay, he mentioned that “environmental and climate justice perspectives are steadily gaining traction in internal environmental debates,” but those thirteen words are all he has to say on the subject.

He says nothing about the historic 2010 Cochabamba Conference, where 30,000 environmental activists from 140 countries warned that if greenhouse gas emissions are not stopped, “the damages caused to our Mother Earth will be completely irreversible”—a statement Yuen would doubtless label “catastrophist.” Far from succumbing to apathy or reactionary policies, the participants explicitly rejected market solutions, identified capitalism as the cause of the crisis, and outlined a radical program to transform the global economy.

He is equally silent about the campaign against the fraudulent “green economy” plan adopted at last year’s Rio+20 conference. One of the principal organizers of that opposition is La Via Campesina, the world’s largest organization of peasants and farmers, which warns that the world’s governments are “propagating the same capitalist model that caused climate chaos and other deep social and environmental crises.”

His essay contains not a word about Idle No More, or Occupy, or the Indigenous-led fight against Canada’s tar sands, or the anti-fracking and anti-coal movements. By omitting them, Yuen leaves the false impression that the climate movement is helpless to resist reactionary forces.

Contrary to Yuen’s title, the effort to build a movement to save the planet has not failed. Indeed, Catastrophism was published just four months before the largest U.S. climate change demonstration ever!

The question before radicals is not what “narrative strategy” to adopt, but rather, how will we relate to the growing environmental movement? How will we support its goals while strengthening the forces that see the need for more radical solutions?

What Must Be Done?

Yuen opposes attempts to build a movement around rallies, marches, and other mass protests to get out the truth and to demand action against environmental destruction. He says that strategy worked in the 1960s, when Americans were well-off and naïve, but cannot be replicated in today’s “culture of atomized cynicism.”

Like many who know that decade only from history books or as distant memories, Yuen foreshortens the experience: he knows about the mass protests and dissent late in the decade, but ignores the many years of educational work and slow movement building in a deeply reactionary and racist time. It is not predetermined that the campaign against climate change will take as long as those struggles, or take similar forms, but the real experience of the 1960s should at least be a warning against premature declarations of failure.

Yuen is much less explicit about what he thinks would be an effective strategy, but he cites as positive examples the efforts of some to promote “a bottom-up and egalitarian transition” by:

ever-increasing numbers of people who are voluntarily engaging in intentional communities, sustainability projects, permaculture and urban farming, communing and mil­itant resistance to consumerism…we must consider the alterna­tive posed by the highly imaginative Italian left of the twentieth century. The explosively popular Slow Food movement was origi­nally built on the premise that a good life can be had not through compulsive excess but through greater conviviality and a shared commonwealth.

Compare that to this list of essential tasks, prepared recently by Pablo Solón, a leading figure in the global climate justice movement:

To reduce greenhouse gas emissions to a level that avoids catastrophe, we need to:

* Leave more than two-thirds of the fossil fuel reserves under the soil;

* Stop the exploitation of tar sands, shale gas and coal;

* Support small, local, peasant and indigenous community farming while we dismantle big agribusiness that deforests and heats the planet;

* Promote local production and consumption of products, reducing the free trade of goods that send millions of tons of CO2 while they travel around the world;

* Stop extractive industries from further destroying nature and contaminating our atmosphere and our land;

* Increase significantly public transport to reduce the unsustainable “car way of life”;

* Reduce the emissions of warfare by promoting genuine peace and dismantling the military and war industry and infrastructure.22

The projects that Yuen describes are worthwhile, but unless the participants are alsocommitted to building mass environmental campaigns, they will not be helping to achieve the vital objectives that Solón identifies. Posing local communes and slow food as alternatives to building a movement against global climate change is effectively a proposal to abandon the fight against capitalist ecocide in favor of creating greenish enclaves, while the world burns.

Bright-siding versus Movement Building

Whatever its merits in other contexts, it is not helpful or appropriate to use the wordcatastrophism as a synonym for telling the truth about the environmental dangers we face. Using the same language as right-wing climate science deniers gives the impression that the dangers are non-existent or exaggerated. Putting accurate environmental warnings in the same category as apocalyptic Christian fundamentalism and century-old misreadings of Marxist economic theory leads to underestimation of the threats we face and directs efforts away from mobilizing an effective counterforce.

Yuen’s argument against publicizing the scientific consensus on climate change echoes the myth that liberal politicians and journalists use to justify their failure to challenge the crimes of the fossil-fuel industry. People are tired of all that doom and gloom, they say. It is time for positivemessages! Or, to use Yuen’s vocabulary, environmentalists need to end “apocalyptic rhetoric” and find better “narrative strategies.”

This is fundamentally an elitist position: the people cannot handle the truth, so a knowledgeable minority must sugarcoat it, to make the necessary changes palatable.

David Spratt of the Australian organization Climate Code Red calls that approach “bright-siding,” a reference to the bitterly satirical Monty Python song, “Always Look on the Bright Side of Life.”

The problem is, Spratt writes: “If you avoid including an honest assessment of climate science and impacts in your narrative, it’s pretty difficult to give people a grasp about where the climate system is heading and what needs to be done to create the conditions for living in climate safety, rather than increasing and eventually catastrophic harm.”23 Joe Romm makes the same point: “You’d think it would be pretty obvious that the public is not going to be concerned about an issue unless one explains why they should be concerned.”24

Of course, this does not mean that we only need to explain the science. We need to propose concrete goals, as Pablo Solón has done. We need to show how the scientific consensus about climate change relates to local and national concerns such as pipelines, tar sands, fracking, and extreme weather. We need to work with everyone who is willing to confront any aspect of the crisis, from people who still have illusions about capitalism to convinced revolutionaries. Activists in the wealthy countries must be unstinting in their political and practical solidarity with the primary victims of climate change, indigenous peoples, and impoverished masses everywhere.

We need to do all of that and more.

But the first step is to tell the truth—about the danger we face, about its causes, and about the measures that must be taken to turn back the threat. In a time of universal deceit, telling the truth is a revolutionary act.

Notes

  1.  Fraser C. Lott, Nikolaos Christidis, and Peter A. Stott, “Can the 2011 East African Drought Be Attributed to Human-Induced Climate Change?,” Geophysical Research Letters 40, no. 6 ( March 2013): 1177–81.
  2.  UNDP, “’Rise of South’ Transforming Global Power Balance, Says 2013 Human Development Report,” March 14, 2013, http://undp.org.
  3.  Tom Harris, “Climate Catastrophism Picking Up Again in the U.S. and Across the World,”Somewhat Reasonable, October 10, 2012 http://blog.heartland.org.
  4.  Pierre Gosselin, “The Climate Catastrophism Cult,” NoTricksZone, February 12, 2011, http://notrickszone.com.
  5.  Ray Evans, “The Chilling Costs of Climate Catastrophism,” Quadrant Online, June 2008. http://quadrant.org.au.
  6.  Franz Mauelshagen, “Climate Catastrophism: The History of the Future of Climate Change,” in Andrea Janku, Gerrit Schenk, and Franz Mauelshagen, Historical Disasters in Context: Science, Religion, and Politics (New York: Routledge, 2012), 276.
  7.  Alexander Cockburn, “Is Global Warming a Sin?,” CounterPunch, April 28–30, 2007, http://counterpunch.org.
  8.  Alexander Cockburn, “Who are the Merchants of Fear?,” CounterPunch, May 12–14, 2007, http:// counterpunch.org.
  9.  Alexander Cockburn, “I Am An Intellectual Blasphemer,” Spiked Review of Books, January 9, 2008, http://spiked-online.com.
  10.  Leo Panitch and Colin Leys, “Preface,” Socialist Register 2007: Coming to Terms With Nature(London: Merlin Press/Monthly Review Press, 2006), ix–x.
  11. 11.“Notes from the Editors,” Monthly Review 58, no. 10 (March 2007), http://monthlyreview.org.
  12.  Sasha Lilley, David McNally, Eddie Yuen, and James Davis, Catastrophism: The Apocalyptic Politics of Collapse and Rebirth (Oakland: PM Press, 2012).
  13.  Yuen’s footnote cites an article which is identical to a news release issued the previous day by Texas A&M University; see “Increased Knowledge About Global Warming Leads to Apathy, Study Shows,” Science Daily, March 28, 2008, http://eurekalert.org. The original paper, which Yuen does not cite, is: P.M. Kellstedt, S. Zahran, and A. Vedlitz, “Personal Efficacy, the Information Environment, and Attitudes Towards Global Warming and Climate Change in the United State,”Risk Analysis 28, no. 1 (2008): 113–26.
  14.  Aaron M. McCright and Riley E. Dunlap, “The Politicization of Climate Change and Polarization in the American Public’s Views of Global Warming, 2001–2010,” The Sociological Quarterly 52 (2011): 155–94.
  15.  A. Leiserowitz, et. al., Global Warming’s Six Americas, September 2012 (New Haven, CT: Yale Project on Climate Change Communication, 2013), http://environment.yale.edu.
  16.  Robert J. Brulle, Jason Carmichael, and J. Craig Jenkins, “Shifting Public Opinion on Climate Change: An Empirical Assessment of Factors Influencing Concern Over Climate Change in the U.S., 2002–2010,” Climatic Change 114, no. 2 (September 2012): 169–88.
  17.  Joe Romm, “Apocalypse Not: The Oscars, The Media and the Myth of ‘Constant Repetition of Doomsday Messages’ on Climate,” Climate Progress, February 24, 2013, http://thinkprogress.org.
  18.  Douglas Fischer. “2010 in Review: The Year Climate Coverage ‘Fell off the Map,’” Daily Climate, January 3, 2011. http://dailyclimate.org; “Climate Coverage Down Again in 2011,” Daily Climate, January 3, 2012, http://dailyclimate.org; “Climate Coverage, Dominated by Weird Weather, Falls Further in 2012,” Daily Climate, January 2, 2013, http://dailyclimate.org.
  19.  Maxwell T. Boykoff, Who Speaks for the Climate?: Making Sense of Media Reporting on Climate Change (Cambridge: Cambridge University Press, 2011), 24.
  20.  Neil T. Gavin, “Addressing Climate Change: A Media Perspective,” Environmental Politics 18, no. 5 (September 2009): 765–80.
  21.  Two responses to David Noble are: Derrick O’Keefe, “Denying Time and Place in the Global Warming Debate,” Climate & Capitalism, June 7, 2007, http://climateandcapitalism.com; Justin Podur, “Global Warming Suspicions and Confusions,” ZNet, May 11, 2007, http://zcommunications.org.
  22.  Pablo Solón, “A Contribution to the Climate Space 2013: How to Overcome the Climate Crisis?,”Climate Space, March 14, 2013, http://climatespace2013.wordpress.com.
  23.  David Spratt, Always Look on the Bright Side of Life: Bright-siding Climate Advocacy and Its Consequences, April 2012, http://climatecodered.org.
  24.  Joe Romm, “Apocalypse Not.”

Ian Angus is editor of the online journal Climate & Capitalism. He is co-author of Too Many People? Population, Immigration, and the Environmental Crisis(Haymarket, 2011), and editor of The Global Fight for Climate Justice(Fernwood, 2010).
He would like to thank Simon Butler, Martin Empson, John Bellamy Foster, John Riddell, Javier Sethness, and Chris Williams for comments and suggestions.