Arquivo mensal: março 2014

Relatório do IPCC sugere adaptação baseada em ecossistemas (Estado de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Modelo adotado no Brasil e região foi indicado como alternativa a infraestutura cara

Além das recomendações usuais para que os países invistam mais em infraestrutura para aumentar sua resiliência às mudanças climáticas, no novo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), divulgado neste domingo, 30, ganhou espaço uma alternativa mais barata que pode, em alguns locais, conseguir efeitos parecidos: a adaptação baseada em ecossistemas.

O tema aparece em maior ou menor profundidade em cerca de metade dos capítulos e teve destaque especial no capítulo regional de América Central e do Sul, onde técnicas como criação de áreas protegidas, acordos para conservação e manejos comunitários de áreas naturais estão sendo testadas.

Mas o que isso tem a ver com adaptação? De acordo com o ecólogo Fabio Scarano, da Conservação Internacional, e um dos autores do capítulo, a ideia é fortalecer serviços ecossistêmicos que são fundamentais. Um ambiente bem preservado tem a capacidade de prover um clima estável, o fornecimento de água, a presença de polinizadores. “Como se fosse uma infraestrutura da própria natureza”, diz.

Como premissa, está a conservação da natureza aliada ao incentivo do seu uso sustentável – a fim também de evitar a pobreza, que é um dos principais motores da vulnerabilidade de populações.

“Normalmente quando se fala em adaptação se pensa na construção de grandes estruturas, como um dique, por exemplo, para evitar uma inundação. O que em geral é muito caro, mas em uma adaptação baseada em ecossistemas, conservar a natureza e usá-la bem é uma forma de diminuir a vulnerabilidade das pessoas às mudanças climáticas”, afirma.

Ele cita como exemplo uma região costeira em que o mangue tenha sido degradado. “Esse ecossistema funciona como uma barreira. Em um cenário de ressacas mais fortes, elevação do nível do mar, a costa vai ficar mais vulnerável, será necessário construir diques. Mas se mantém o mangue em pé e se oferece um auxílio para que as pessoas possam ter uma economia básica desse mangue, com técnicas mais sustentáveis, e elas recebam para mantê-lo assim, vai ser mais barato do que depois ter de fazer um dique.”

Segundo o pesquisador, para ser mais resiliente é importante acabar com a pobreza e preservar a natureza. “Se for possível ter os dois, a gente consegue o tão falado desenvolvimento sustentável”, opina.

(Giovana Girardi / Estado de S.Paulo)
http://www.estadao.com.br/noticias/vida,relatorio-do-ipcc-sugere-adaptacao-baseada-em-ecossistemas,1147134,0.htm

Outras matérias sobre o assunto:

O Globo
Painel da ONU apresenta medidas contra aquecimento global
http://oglobo.globo.com/ciencia/painel-da-onu-apresenta-medidas-contra-aquecimento-global-12038245#ixzz2xXy60bbZ

Valor Econômico
Mudança do clima afeta a todos e está acontecendo agora, alerta IPCC
http://www.valor.com.br/internacional/3500174/mudanca-do-clima-afeta-todos-e-esta-acontecendo-agora-alerta-ipcc#ixzz2xYAtWVsg

Chuvas no Sul e no Sudeste podem voltar ao normal só em 2016 (Agência Brasil)

JC e-mail 4923, de 31 de março de 2014

Para o Brasil, o fenômeno indica a possibilidade de as chuvas no centro-sul do país só voltaram ao normal no verão de 2016

A origem da crise energética provocada pela estiagem no Sul e no Sudeste no início do ano pode estar do outro lado do mundo. Segundo meteorologistas ouvidos pela Agência Brasil, o país está sendo afetado por um ciclo natural de resfriamento do Oceano Pacífico, que se reflete em alterações climáticas em grande parte do planeta. Para o Brasil, o fenômeno indica a possibilidade de as chuvas no centro-sul do país só voltaram ao normal no verão de 2016.

Chamado de oscilação interdecadal do Pacífico ou oscilação decadal do Pacífico (PDO, na sigla em inglês), o processo caracteriza-se pela sucessão entre fases quentes e frias na área tropical do Oceano Pacífico. Os ciclos duram de 20 a 30 anos e são mais amplos que os fenômenos El Niño e La Niña, que se alternam de dois a sete anos. Em 1999, o oceano entrou numa fase fria, que deve durar até 2025 e se reflete em El Niños brandos e La Niñas mais intensos.

Atualmente, o Pacífico está no auge do ciclo de resfriamento, o que, segundo os especialistas, historicamente provoca quatro anos seguidos de verões com chuvas abaixo do normal na região Centro-Sul do Brasil. “Desde 2012, tem chovido abaixo da média no Sul, no Sudeste e em parte do Centro-Oeste durante o verão. A princípio, o que está sendo desenhado é as chuvas só voltarem à média em 2016”, diz o meteorologista Alexandre Nascimento, especialista em análises climáticas da Climatempo.

A partir do segundo semestre, os modelos climáticos apontam a chegada de um novo El Niño, com chuvas no Sul e seca no Nordeste. No entanto, por causa do resfriamento do Oceano Pacífico, o El Niño deverá ser mais fraco que o normal e insuficiente para recompor os reservatórios. “O próximo verão deverá ter mais chuva que o anterior, mas as chuvas tendem a continuar irregulares no Sul e no Sudeste”, adverte Nascimento.

O El Niño é o aquecimento do Oceano Pacífico na região equatorial. Pesquisadora do Instituto Nacional de Pesquisas Espaciais (Inpe), Mary Kayano estudou a relação entre esse fenômeno e a oscilação decadal do Pacífico e constatou um padrão. “Em fases frias da PDO, os El Niños são mais brandos. Tanto que o último El Niño forte ocorreu em 1997, quando o Oceano Pacífico estava numa fase quente”, diz. Ela, no entanto, evita fazer prognósticos sobre o próximo verão. Segundo a pesquisadora, o Inpe emite previsões somente para os próximos três meses.

O comportamento histórico, no entanto, indica que o resfriamento do Pacífico está afetando o Brasil. Segundo o diretor-geral da MetSul Meteorologia, Eugenio Hackbart, o Brasil enfrentou uma sequência de verões com estiagem entre o fim dos anos 1950 e o início da década de 1960, quando o Pacífico atravessava um pico de temperaturas baixas. “Os padrões de circulação atmosférica hoje estão semelhantes aos daquela época”, compara.

Além das chuvas irregulares durante o verão, o resfriamento do Oceano Pacífico traz efeitos distintos conforme as regiões do país, com invernos mais rigorosos no Sul e no Sudeste. “Ano passado, chegou a nevar perto de Florianópolis”, lembra Hackbart. O fenômeno provoca ainda cheias acima da média no Amazonas e no Pará. No entanto, esclarece o diretor da MetSul, não está relacionado à cheia do Rio Madeira, decorrente de chuvas atípicas na Bolívia.

Apesar das chuvas acima da média na maior parte do país em março, Nascimento, da Climatempo, considera que os reservatórios não devem voltar a subir com rapidez por causa do tipo de chuva que tem atingido a região e da chegada da estação seca ao Centro-Sul nos próximos meses. “A verdade é que os reservatórios só enchem com chuvas generalizadas, que duram vários dias e são constantes. Até agora, temos registrado pancadas, que podem ser fortes, mas são eventos isolados”, explica.

Mesmo com a possibilidade de mais um verão com chuvas abaixo da média, os meteorologistas recomendam cuidado com os prognósticos. “A maioria dos estudos sobre os ciclos no Oceano Pacífico é recente. A gente precisa de séries históricas mais longas para compreender a extensão do fenômeno”, diz a pesquisadora do Inpe. Hackbart levanta dúvidas sobre a intensidade do próximo El Niño. “Alguns modelos e especialistas dizem que o próximo El Niño tem chances de ser forte. Nesse caso, as chuvas podem ser mais intensas e ajudar os reservatórios”, pondera.

Aquecimento global contribuiu pouco para estiagem no Centro-Sul (Agência Brasil)

JC e-mail 4923, de 31 de março de 2014

A combinação entre o resfriamento do Oceano Pacífico, que tem provocado chuvas abaixo da média nos últimos anos no Centro-Sul do país, e o aquecimento anormal da porção sul do Atlântico provocou a estiagem

Apontado como o vilão das mudanças climáticas, o aquecimento global tem o papel questionado na estiagem que atingiu o Sul e o Sudeste no início do ano. Para os meteorologistas ouvidos pela Agência Brasil, as emissões de gás carbônico, no máximo, pioraram o calor no Sul e no Sudeste, mas não foram a causa do verão mais seco no Centro-Sul desde o início das medições, em 1931.

A combinação entre o resfriamento do Oceano Pacífico, que tem provocado chuvas abaixo da média nos últimos anos no Centro-Sul do país, e o aquecimento anormal da porção sul do Atlântico provocou a estiagem. As águas aquecidas próximas à costa brasileira fortaleceram um sistema de alta pressão que impediu a entrada de frentes frias e aumentou o calor em janeiro e fevereiro. No entanto, a relação entre a alteração no Atlântico e o aquecimento global ainda não é clara.

“A estiagem foi mais grave que o previsto justamente por causa do sistema de alta pressão do Atlântico que bloqueou as frentes frias, mas não há comprovação de que o Atlântico ficou mais quente por causa do aquecimento global”, explica o diretor-geral da MetSul Meteorologia, Eugenio Hackbart.

Para o especialista em tendências climáticas da Climatempo, Alexandre Nascimento, o aquecimento global está mais relacionado a eventos isolados, como enchentes e furacões, do que a fenômenos de vários anos de duração, como o ciclo de temperaturas baixas no Oceano Pacífico. Ele também questiona se o calor foi consequência apenas das emissões de gás carbônico. “A seca foi tão quente por causa do aquecimento global ou por causa do desmatamento e do crescimento das cidades? As associações não são tão simples”, opina.

Esqueleto-robô da Copa usará técnica já criticada por criador (Folha de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Cientista Miguel Nicolelis muda método para fazer criança paraplégica dar chute inicial na competição

Na abertura da Copa do Mundo do Brasil, uma criança com lesão medular usando um exoesqueleto dará o pontapé inicial da competição. A demonstração pública será o primeiro resultado do projeto “Andar de Novo”, liderado pelo neurocientista brasileiro Miguel Nicolelis. Mas uma recente mudança na maneira como serão captados os sinais cerebrais que controlarão o exoesqueleto traz dúvidas sobre os avanços do projeto no campo da neurociência.

Em sua carreira, Nicolelis sempre fez uma defesa intransigente do implante de eletrodos dentro do cérebro para captar a atividade simultânea de neurônios individuais. Era crítico de métodos não invasivos, como a eletroencefalografia (EEG) –técnica desenvolvida no começo do século passado que usa eletrodos colocados no couro cabeludo para obter tais registros.

Até pelo menos maio do ano passado, Nicolelis ainda dava declarações públicas sobre o desenvolvimento de eletrodos para serem implantados. Mas a partir de outubro de 2013, passou a dizer que usaria sinais obtidos por EEG. Críticas a essa técnica estão em seu livro, em artigos e já rendeu até embates públicos.

Em artigo publicado em 2008 na revista “Scientific American Brasil” e assinado com John Chapin, Nicolelis diz: “Os sinais de EEG, no entanto, não podem ser usados diretamente em próteses de membros, pois mostram a atividade elétrica média de populações amplas de neurônios. É difícil extrair desses sinais as pequeníssimas variações necessárias para codificar movimentos precisos dos braços ou das mãos.”

Em um debate da Associação Americana para o Avanço da Ciência de 2013, o brasileiro dirigiu provocações a Todd Coleman, da Universidade da Califórnia em San Diego, que pesquisa a EEG para controlar próteses. Na ocasião, Nicolelis disse que “haverá aplicações de implantes invasivos porque eles são muito melhores do que dispositivos de superfície”.

Segundo Márcio Dutra Moraes, neurocientista da UFMG, a mudança de metodologia é uma modificação “conceitual em como abordar a questão”. Ele aponta que isso ocorreu não porque a EEG é melhor, mas porque a proposta original era “estupidamente mais complexa” e o uso da EEG simplifica muito as coisas, ainda que não traga nenhum avanço substancial. Segundo Moraes, a mudança “certamente se deu pela impossibilidade de resolver de forma satisfatória e ética o projeto inicial dentro do limite de tempo imposto pela Copa”.

Segundo um cientista com experiência internacional que não quis se identificar, o projeto atual, como será apresentado na Copa, não justificaria os R$ 33 milhões investidos pelo governo.

Edward Tehovnik, pesquisador do Instituto do Cérebro da UFRN, chegou a trabalhar com Nicolelis, mas rompeu com o cientista, que o demitiu. Ele questiona quanto da demonstração de junho será controlada pelo exoesqueleto e quanto será controlada pelo cérebro da criança.

“Minha análise, baseada nos dados publicados, sugere que menos de 1% do sinal virá do cérebro da criança. Os outros 99% virão do robô”. E ele pergunta: “Será mesmo a criança paralisada que vai chutar a bola?”.

Sergio Neuenschwander, professor titular da UFRN, diz que a opção pelo EEG é uma mudança muito profunda no projeto original. Ele diz que é possível usar sinais de EEG para dar comandos ao robô, mas isso é diferente de obter o que seria o código neural de andar, sentar, chutar etc.

“O fato de ele ter optado por uma mudança de técnica mostra o tamanho do desafio pela frente.”

(Fernando Tadeu Moraes/Folha de S.Paulo)
http://www1.folha.uol.com.br/fsp/cienciasaude/158644-esqueleto-robo-da-copa-usara-tecnica-ja-criticada-por-criador.shtml

Concea aprova proposta sobre a substituição progressiva aos testes com animais (Concea)

JC e-mail 4923, de 31 de março de 2014

Câmara Temporária da entidade analisou petição da organização não governamental Humane Society International

Em reunião ordinária realizada no dia 20 de março, o plenário do Conselho Nacional de Controle de Experimentação Animal (Concea) aprovou proposta da Câmara Temporária Métodos Alternativos Substitutivos que sugere a substituição progressiva e segura dos testes com animais por métodos alternativos validados.

A Câmara Temporária recomendou o reconhecimento dos métodos alternativos validados por Centros de Validação, ou por estudos colaborativos internacionais, e aceitos por órgãos oficiais que tenham como objetivo a redução ou a substituição do uso de animais. A proposta foi aprovada pela plenária da 23ª Reunião Ordinária do Concea.

O trabalho da Câmara Temporária teve como foco inicial analisar petição da organização não governamental Humane Society International (HSI) para o banimento de ensaios em animais para cosméticos. Entretanto, por entender que a questão é mais ampla, recomendou que a substituição não se limitasse aos experimentos relacionados a produtos cosméticos e alcançasse toda a cadeia de compostos de produtos químicos.

Para os métodos alternativos validados reconhecidos pelo Concea, fica proibida a utilização de animais, após cinco anos de aprovação do referido método. Este período é necessário para que a infraestrutura laboratorial e os recursos humanos estejam adequados e capacitados para a realização dos ensaios substitutivos. Os métodos alternativos devem ser executados corretamente para não colocar em risco a saúde humana, a dos próprios animais e o meio ambiente.

O Concea deliberou, ainda, pela criação de Câmara Temporária que estabelecerá um cronograma de implementação dos métodos já validados.

O processo de reconhecimento dos métodos alternativos será estabelecido pelo Concea, por meio de Resolução Normativa.

(Conselho Nacional de Controle de Experimentação Animal – Concea)

Global warming dials up our risks, UN report says (AP)

By SETH BORENSTEIN, 30 March 2014

FILE – In this Aug. 20, 2013 file photo, Syrian refugees cross into Iraq at the Peshkhabour border point in Dahuk, 260 miles (430 kilometers) northwest of Baghdad, Iraq. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Hadi Mizban, File)
FILE – In this Dec. 17, 2011 file photo, an Egyptian protester throws a stone toward soldiers, unseen, as a building burns during clashes near Tahrir Square, in Cairo, Egypt. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Ahmad Hammad, File).
FILE – In this Nov. 10, 2013 file photo, a survivor walks by a large ship after it was washed ashore by strong waves caused by powerful Typhoon Haiyan in Tacloban city, Leyte province, central Philippines. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Aaron Favila, File).
FILE – This Nov. 9, 2013 file photo provided by NASA shows Typhoon Haiyan taken by astronaut Karen L. Nyberg aboard the International Space Station. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/NASA, Karen L. Nyberg, File).
FILE – This May 6, 2008 file photo, shows an aerial view of devastation caused by Cyclone Nargis, seen at an unknown location in Myanmar. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/File).
FILE – This Oct. 31, 2012 file photo, shows an aerial view of the damage to an amusement park left in the wake of Superstorm Sandy, in Seaside Heights, N.J. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Mike Groll, File)
FILE – In this Oct. 22, 2005 file photo, a motorcyclist rides past a mountain of trash, sheet rock and domestic furniture, removed from homes damaged by Hurricane Katrina, at one of three dump areas setup for that purpose, in New Orleans, LA. In the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, a United Nations scientific panel reports said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor. (AP Photo/Nati Harnik, File)
FILE – In this Aug. 7, 2010 file photo, a firefighter tries to stop a forest fire near the village of Verkhnyaya Vereya in Nizhny Novgorod region, some 410 km (255 miles) east of Moscow. Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, says a massive new report from a Nobel Prize-winning group of scientists released early Monday, March 31, 2014. (AP Photo/Alexander Zemlianichenko Jr., File)
FILE - This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight ``key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
FILE – This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight “key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)

YOKOHAMA, Japan (AP) — If the world doesn’t cut pollution of heat-trapping gases, the already noticeable harms of global warming could spiral “out of control,” the head of a United Nations scientific panel warned Monday.

And he’s not alone. The Obama White House says it is taking this new report as a call for action, with Secretary of State John Kerry saying “the costs of inaction are catastrophic.”

Rajendra Pachauri, chairman of the Intergovernmental Panel on Climate Change that issued the 32-volume, 2,610-page report here early Monday, told The Associated Press: “it is a call for action.” Without reductions in emissions, he said, impacts from warming “could get out of control.”

One of the study’s authors, Maarten van Aalst, a top official at the International Federation of the Red Cross and Red Crescent Societies, said, “If we don’t reduce greenhouse gases soon, risks will get out of hand. And the risks have already risen.”

Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, according to the report from the Nobel Prize-winning group of scientists. The dangers are going to worsen as the climate changes even more, the report’s authors said.

“We’re now in an era where climate change isn’t some kind of future hypothetical,” said the overall lead author of the report, Chris Field of the Carnegie Institution for Science in California. “We live in an area where impacts from climate change are already widespread and consequential.”

Nobody is immune, Pachauri and other scientists said.

“We’re all sitting ducks,” Princeton University professor Michael Oppenheimer, one of the main authors of the report, said in an interview.

After several days of late-night wrangling, more than 100 governments unanimously approved the scientist-written 49-page summary — which is aimed at world political leaders. The summary mentions the word “risk” an average of about 5 1/2 times per page.

“Changes are occurring rapidly and they are sort of building up that risk,” Field said.

These risks are both big and small, according to the report. They are now and in the future. They hit farmers and big cities. Some places will have too much water, some not enough, including drinking water. Other risks mentioned in the report involve the price and availability of food, and to a lesser and more qualified extent some diseases, financial costs and even world peace.

“Things are worse than we had predicted” in 2007, when the group of scientists last issued this type of report, said report co-author Saleemul Huq, director of the International Centre for Climate Change and Development at the Independent University in Bangladesh. “We are going to see more and more impacts, faster and sooner than we had anticipated.”

The problems have gotten so bad that the panel had to add a new and dangerous level of risks. In 2007, the biggest risk level in one key summary graphic was “high” and colored blazing red. The latest report adds a new level, “very high,” and colors it deep purple.

You might as well call it a “horrible” risk level, said van Aalst: “The horrible is something quite likely, and we won’t be able to do anything about it.”

The report predicts that the highest level of risk would first hit plants and animals, both on land and the acidifying oceans.

Climate change will worsen problems that society already has, such as poverty, sickness, violence and refugees, according to the report. And on the other end, it will act as a brake slowing down the benefits of a modernizing society, such as regular economic growth and more efficient crop production, it says.

“In recent decades, changes in climate have caused impacts on natural and human systems on all continents and across the oceans,” the report says.

And if society doesn’t change, the future looks even worse, it says: “Increasing magnitudes of warming increase the likelihood of severe, pervasive, and irreversible impacts.”

While the problems from global warming will hit everyone in some way, the magnitude of the harm won’t be equal, coming down harder on people who can least afford it, the report says. It will increase the gaps between the rich and poor, healthy and sick, young and old, and men and women, van Aalst said.

But the report’s authors say this is not a modern day version of the Four Horsemen of the Apocalypse. Much of what they warn of are more nuanced troubles that grow by degrees and worsen other societal ills. The report also concedes that there are uncertainties in understanding and predicting future climate risks.

The report, the fifth on warming’s impacts, includes risks to the ecosystems of the Earth, including a thawing Arctic, but it is far more oriented to what it means to people than past versions.

The report also notes that one major area of risk is that with increased warming, incredibly dramatic but ultra-rare single major climate events, sometimes called tipping points, become more possible with huge consequences for the globe. These are events like the melting of the Greenland ice sheet, which would take more than 1,000 years.

“I can’t think of a better word for what it means to society than the word ‘risk,'” said Virginia Burkett of the U.S. Geological Survey, one of the study’s main authors. She calls global warming “maybe one of the greatest known risks we face.”

Global warming is triggered by heat-trapping gases, such as carbon dioxide, that stay in the atmosphere for a century. Much of the gases still in the air and trapping heat came from the United States and other industrial nations. China is now by far the No. 1 carbon dioxide polluter, followed by the United States and India.

Unlike in past reports, where the scientists tried to limit examples of extremes to disasters that computer simulations can attribute partly to man-made warming, this version broadens what it looks at because it includes the larger issues of risk and vulnerability, van Aalst said.

Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, he said.

And in the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, Oppenheimer and van Aalst said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor.

Report co-author Maggie Opondo of the University of Nairobi said that especially in places like Africa, climate change and extreme events mean “people are going to become more vulnerable to sinking deeper into poverty.” And other study authors talked about the fairness issue with climate change.

“Rich people benefit from using all these fossil fuels,” University of Sussex economist Richard Tol said. “Poorer people lose out.”

Huq said he had hope because richer nations and people are being hit more, and “when it hits the rich, then it’s a problem” and people start acting on it.

Part of the report talks about what can be done: reducing carbon pollution and adapting to and preparing for changing climates with smarter development.

The report echoes an earlier U.N. climate science panel that said if greenhouse gases continue to rise, the world is looking at another about 6 or 7 degrees Fahrenheit (3.5 or 4 degrees Celsius) of warming by 2100 instead of the international goal of not allowing temperatures to rise more than 2 degrees Fahrenheit (1.2 degrees Celsius). The difference between those two outcomes, Princeton’s Oppenheimer said, “is the difference between driving on an icy road at 30 mph versus 90 mph. It’s risky at 30, but deadly at 90.”

Tol, who is in the minority of experts here, had his name removed from the summary because he found it “too alarmist,” harping too much on risk.

But the panel vice chairman, Jean-Pascal van Ypersele, said that’s not quite right: “We are pointing for reasons for alarm … It’s because the facts and the science and the data show that there are reasons to be alarmed. It’s not because we’re alarmist.”

The report is based on more than 12,000 peer reviewed scientific studies. Michel Jarraud, secretary general of the World Meteorological Organization, a co-sponsor of the climate panel, said this report was “the most solid evidence you can get in any scientific discipline.”

Michael Mann, a climate scientist at Pennsylvania State University who wasn’t part of this report, said he found the report “very conservative” because it is based on only peer reviewed studies and has to be approved unanimously.

There is still time to adapt to some of the coming changes and reduce heat-trapping emissions, so it’s not all bad, said study co-author Patricia Romero-Lankao of the National Center for Atmospheric Research in Colorado.

“We have a closing window of opportunity,” she said. “We do have choices. We need to act now.”

___

Online:

The Intergovernmental Panel on Climate Change: http://www.ipcc.ch

___

 

Seth Borenstein can be followed at http://twitter.com/borenbears

Mexico: 21 native languages on verge of extinction (Eurasia Review)

MARCH 30, 2014

By Eurasia Review

Mexico has 143 native languages ​​, 21 of which are in critical danger of extinction, such as the Ayapaneco from Tabasco, which is only spoken by two senior adults, followed by Kiliwa of Baja California with only 36 speakers.

Although there are many languages, recent research shows that about 60 are at risk of disappearing, and the extinction process is accelerated because they are spoken by a small group of seniors, which is known as displacement of the language.

When the phase of risk of losing the language is reached, researchers from the Centre of Research and Higher Studies in Social Anthropology (CIESAS) determine the degree of danger for the language to disappear, categorizing it in slow or fast displacement or extinction process.

The Revitalization, Strengthening and Development Program of the National Indigenous Languages ​​ 2008-2012 (PINALI) classifies 143 languages ​​according to vulnerability posing for extinction; 52 are vulnerable, 38 endangered, 32 severely endangered and 21 critically endangered with less than 200 speakers like Oluteco from the east coast, Ixil and Kaqchikel from the south of Mexico, plus Teko qato’k / Motocintleco, Cucapá, Pápago and Ixcateco.

There are also a total of 364 linguistic variations which are taken into account when the languages ​​are not mutually intelligible although they belong to the same group. As the case of the Zapoteco, which due to its 62 variants, was renamed to Zapotecanas languages, explained the researcher at CIESAS, Lourdes de León Pasquel.

In the first phase, according to the National Institute of Indigenous Languages ​​(INALI), there is a loss of speakers from the new generation. The criteria for measuring this situation is when children no longer want to learn to speak the language of their parents and grandparents.

“When the transmission of an indigenous language is in danger of extinction, researchers work with the last speakers to document their knowledge. Documentation is made on grammar, dictionaries and ritual language to record the highest number of lexicon, a treasure to revitalize the language and give it to the new generations,” said the researcher.

Once CIESAS anthropologists gather the information, the revitalization phase begins, which aims to make the new generation interested in a mother language that is on the verge of. However, the process has the disadvantage of working through books and workshops, but fails to reproduce the natural condition of the language, because relearning rates are very low.

For example, Mayan languages have been affected by the migration of speakers of the highlands of Chiapas, the Tsetsal has 371,730 speakers, Tsotsil 329, 937 and Ch’ol 185,299.

These languages ​​have the highest rate of ethnolinguistic retention in the country. To measure the degree of retention displacement that a language has, an equation is performed with the percentage of seniors who still speak it and the children that are learning it.

According to the investigation of Lourdes de León, in the Highlands of Chiapas, there is a devaluation of indigenous languages ​​in current education, reading is rarely practiced in homes as a result of the lifestyle that has been modified by the need of working parents.

The specialist at CIESAS explained that a stable bilingualism in Mexico has to be the aim, it is obvious that the Spanish is needed for other activities such as school and work, but keeping the native language allows a great possibility of expressiveness and even increases learning abilities, speaking more languages ​​has a cognitive effect.

The problem increases when the person has a higher academic preparation, because they ignore their mother language, caused by school and work, where students are taught by teachers who speak Spanish or another language different than theirs, said León Pasquel.

(Agencia ID)

Um oceano nos ares (Fapesp)

Radares e sobrevoos detalham os mecanismos de formação de chuva e o efeito da poluição urbana sobre o clima da Amazônia

CARLOS FIORAVANTI | Edição 217 – Março de 2014

O mundo das águas: nuvens escuras cobrem o rio Negro e Manaus no dia 18 de fevereiro de 2014, antecipando mais uma chuva amazônica

De Manaus

Aqui em Manaus e por esta vasta região Norte chove muito o ano todo, mas as chuvas são diferentes. No início do ano – fevereiro e março – chove quase todo dia, com poucos relâmpagos, e o aguaceiro lava a floresta e as cidades durante horas seguidas. Já no final do ano – de setembro a novembro – as tempestades são mais intensas, com muitos relâmpagos, acordando medos atávicos, e as chuvas são localizadas e mais breves. Para confirmar e detalhar os mecanismos de formação da chuva – diferente em cada região do país e mesmo dentro de uma mesma região – e o efeito da poluição de Manaus sobre o clima da Amazônia, um grupo de 100 pesquisadores do Brasil, dos Estados Unidos e da Alemanha começou a escrutinar o céu da região de Manaus com radares e aviões, por meio do programa Green OceanAmazon (GOAmazon). Lançado oficialmente no dia 18 de fevereiro em Manaus, o GOAmazon conta com orçamento de R$ 24 milhões e apoio financeiro da FAPESP, Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam) e Departamento de Energia e Fundação Nacional de Ciência (NSF) dos Estados Unidos.

A expressão green ocean nasceu em 1999, na primeira grande campanha do programa Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia (LBA). Sobrevoando a floresta de Ji-Paraná, em Rondônia, os pesquisadores – muitos deles integrantes deste novo programa – notaram que as nuvens não se comportavam como o esperado. Nessa região da Amazônia já próxima à Bolívia, imaginava-se que as nuvens tivessem até 20 quilômetros (km) de altura e apresentassem alta concentração de material particulado e de gotas pequenas de chuva, características das chamadas nuvens continentais. Em vez disso, elas tinham características das nuvens oceânicas, com pouco material particulado, de formação mais rápida e topos relativamente baixos, como em áreas oceânicas – era um oceano, não azul, mas verde, por estar sobre a floresta. Antonio Manzi, pesquisador do Instituto Nacional de Pesquisas da Amazônia (Inpa), que participou daquela e de outras expedições do LBA e agora integra o GOAmazon, lembra-se de que foi também em 1999 que verificaram que as chamadas nuvens quentes, que não formam cristais de gelo, eram as predominantes na região – um fato inesperado em áreas continentais.

 

016-021_CAPA_Chuva_217-extraO volume de chuva que cai sobre a bacia amazônica equivale a um oceano. Segundo Manzi, são em média 27 trilhões de toneladas de água por ano. Em termos mais concretos, a chuva, se se acumulasse em vez de escoar no solo, formaria uma lâmina d’água com uma espessura de 2,3 metros ao longo dos 6,1 milhões de quilômetros quadrados da bacia amazônica, que se espalha pelo Brasil e por vários países vizinhos. Luiz Augusto Machado, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe), calculou o volume médio da água de chuva em todo o país: são 14 trilhões de toneladas por ano. Caso se acumulasse, essa água da chuva formaria uma camada de 1,7 metro de altura cobrindo todo o país. Machado é também o coordenador do Projeto Chuva, que integra o GOAmazon e fará agora em Manaus a última etapa de um levantamento sobre os tipos e distribuição de nuvens de chuva no Brasil. 

Ainda não está claro como esse oceano aéreo se forma. “As nuvens podem ou não gerar chuva”, diz Gilberto Fisch, do Instituto de Aeronáutica e Espaço (IAE), de São José dos Campos, e pesquisador do Projeto Chuva. “Costuma-se dizer que, quando há vapor-d’água, a chuva se forma e cai, mas não é bem assim.” A maioria das gotículas que formam as nuvens, com dezenas de micrômetros de diâmetro, se dispersa na forma de vapor. Só uma minoria consegue ganhar volume e se transformar em gotas com diâmetro de 1 a 5 milímetros e cair, por ação da gravidade. Entender como as nuvens se formam e crescem e em quais a chuva efetivamente se forma é uma das metas da equipe do GOAmazon.

Em um dos locais de coleta de informações, no município de Manacapuru, 80 km a oeste de Manaus, 120 equipamentos estão funcionando dia e noite – alguns expostos, outros no interior de 15 contêineres – para levantar informações sobre o clima na região, com o reforço dos balões meteorológicos, soltados a cada seis horas. Sobre um dos contêineres está um radar com alcance de 100 km que examina o formato e a constituição de nuvens formadoras de chuva e, desde 2010, fez o mesmo serviço em outras cidades brasileiras. As informações apuradas sobre as nuvens serão confrontadas com as do satélite GPM, que deve ser lançado em 27 de fevereiro do Japão e permanecer em uma órbita de 400 km de altura, enviando informações sobre as nuvens de chuva em quase todo o planeta. “O GPM vai passar duas vezes por dia sobre Manaus, complementando nossas informações”, diz Machado.

Um avião de pesquisa vindo dos Estados Unidos chegou a Manaus no dia 16 de fevereiro com a previsão de começar a voar nos dias seguintes para examinar diretamente os tipos de cristais de gelo do interior das nuvens e os teores de gás carbônico (CO2) e material particulado. O avião norte-americano e outro da Alemanha devem sobrevoar a cidade e a floresta em setembro para medir as eventuais alterações do clima na estação seca.

Os experimentos, previstos para terminarem em dezembro de 2015, devem resultar em previsões meteorológicas de curto prazo (duas horas) e modelos computacionais de circulação atmosférica mais apurados. Em algumas regiões do país o monitoramento do volume de chuvas, dependente de satélites meteorológicos, ainda é muito impreciso, adiando as medidas de alerta que poderiam salvar vidas antes de as chuvas fortes chegarem.

Varrendo o céu: o radar de nuvem (esquerda) e o de chuva, instalados em Manacapuru, a 80 km de Manaus

Uma metrópole na floresta
Com forte base industrial,  uma frota de 700 mil veículos e quase 2 milhões de habitantes, Manaus, capital do estado do Amazonas, é a maior metrópole tropical do mundo cercada por centenas de quilômetros de floresta. Como a pluma de poluentes produzida por essa megacidade no centro da Amazônia altera o ciclo de vida dos aerossóis e das nuvens em áreas de mata preservada e como esses elementos interagem na atmosfera e provocam mais ou menos chuvas na região?

Essas são as questões centrais que o experimento internacional GOAmazon tentará responder nos próximos anos. Um conjunto detalhado de medidas sobre aerossóis, gases traço (gás carbônico, metano e outros) e nuvens será realizado em seis diferentes sítios. Três se encontram a leste, antes de o vento passar por Manaus, e, portanto, sua atmosfera ainda não foi contaminada pela pluma de poluição da capital. Um quarto posto de medição será na própria metrópole e os dois últimos se situam em Iranduba e Manacapuru, a oeste, onde a atmosfera já carrega a influência dos poluentes emitidos em Manaus.

“Não há outra cidade com uma situação similar à da capital do Amazonas”, afirma Paulo Artaxo, coordenador de projeto temático ligado ao GOAmazon. “Sabemos que a poluição altera a precipitação, mas em que tipo de nuvem e em que circunstância?” Os estudos de Scott Martin, pesquisador da Universidade Harvard e integrante do GOAmazon, indicaram que o efeito dos aerossóis sobre o clima da Amazônia varia de acordo com a época do ano. Já se viu também que as nuvens que passam sobre a cidade recebem poluição e apresentam uma refletividade maior que as sem poluição. As nuvens da floresta têm uma carga de material particulado equivalente à da era pré-industrial.

Maria Assunção da Silva Dias, pesquisadora do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) que coordenou a campanha do LBA em 1999, vai modelar a influência da brisa fluvial originada pelos rios Negro, Solimões e Amazonas sobre o vento que carrega a pluma de poluentes da capital amazonense. A brisa sopra do rio para a terra durante o dia. À noite, ela inverte o sentido.  “Em rios com margens largas, como o Negro, a brisa pode ser um fator capaz de alterar a direção e a intensidade dos ventos, modificando o regime de chuvas em áreas próximas”, diz Maria Assunção, que em 2004 realizou um estudo semelhante sobre a brisa do rio Tapajós, em Santarém, no Pará.

Neve no nordeste
Dispostos a entender melhor a formação de chuva pelo país e a evitar tragédias climáticas, a equipe do Inpe coletou nos últimos quatro anos dados em cinco pontos de amostragem: Alcântara, no Maranhão; Fortaleza, no Ceará; Belém, no Pará; São José dos Campos, em São Paulo; e Santa Maria, no Rio Grande do Sul. Um radar e outros equipamentos agora instalados em Manaus medem o tamanho das gotas nas nuvens e os tipos de cristais que as formam. As formas das gotas, a propósito, são bem diferentes: podem ser horizontais, elípticas ou oblongas, mas todas longe do formato abaulado com que normalmente se representam as gotas de chuva.

Preparando balão meteorológico para soltura

“Esse é o primeiro recenseamento da distribuição de gotas de chuvas e cristais de gelo no território nacional”, diz Machado. O que se notou, em linhas gerais, é que diferentes tipos de nuvens (mais altas ou mais baixas), com diferentes tipos de cristais de gelo (em forma de estrela, coluna ou cone), se formam e se desfazem continuamente em todas as regiões do país. Também se viu que há particularidades regionais, que indicam processos distintos de formação de chuvas e fenômenos surpreendentes. As formas e os humores da chuva pelo país ao longo do ano são diversificados a ponto de lembrarem o poema Caso pluvioso, no qual o poeta Carlos Drummond de Andrade descobre que Maria é que chovia (ele não conta quem era Maria) e a chama de chuvadeira, chuvadonha, chuvinhenta, chuvil e pluvimedonha. E em seguida: “Choveu tanto Maria em minha casa / que a correnteza forte criou asa / e um rio se formou, ou mar, não sei, / sei apenas que nele me afundei”.

A realidade também exibiu um pouco de poesia. “Detectamos neve nas nuvens mais altas sobre a cidade de Fortaleza”, diz Machado. Para decepção dos moradores locais, porém, a neve derrete e cai como chuva comum. No Nordeste predominam as nuvens quentes, assim chamadas porque o topo está abaixo do limite de temperatura de 0oCelsius (ºC) e, por essa razão, nelas não se formam cristais de gelo, como nas regiões mais altas dos outros tipos de nuvens. Por não abrigarem gelo, essas nuvens passam despercebidas pelos satélites meteorológicos e pelos equipamentos de micro-ondas usados para prever a formação de chuvas, resultando em medições imprecisas. As medições de nuvens quentes feitas por radar em Alcântara indicaram que os valores de volume de água, comparados com as medições feitas por satélite, estavam subestimados em mais de 50%, como descrito por Carlos Morales, pesquisador da USP que integra o Projeto Chuva.

O limite – ou isoterma – de 0ºC separa cristais de gelo (acima) e água líquida (abaixo): é uma espécie de porta invisível da chuva, onde o gelo derrete e forma água. Não é lá muito rigorosa, porque no Sudeste, por causa das fortes correntes ascendentes, a água permanece líquida a temperaturas de até 20 graus negativos, acima da camada de derretimento do gelo. “A combinação entre água e gelo em altitudes mais elevadas é a principal razão da maior incidência das descargas elétricas na região Sudeste”, diz Machado.

Manaus sob chuva

Por meio do radar, pode-se examinar a proporção de água e de gelo no interior das nuvens, desse modo obtendo informações que escapam dos satélites usados na previsão do tempo. “Os satélites não detectam as gotas grandes de água e de baixa concentração que vêm do Atlântico e formam as nuvens das regiões Nordeste e Sudeste”, Machado exemplifica. No Nordeste as nuvens, que se concentram na zona costeira, são alimentadas pelas massas de ar vindas de regiões próximas ao equador, que se movem do oceano para o continente. Já no Sul e no Sudeste as chuvas se devem principalmente às massas de ar frio (frentes frias) que vêm da Argentina. Os especialistas dizem que os satélites também não detectam fenômenos que não escapariam ao radar, como a transformação de um vento quente que veio do oceano, esfriou rapidamente ao encontrar as regiões mais frias do alto das serras no Sul do Brasil e desabou como uma chuva impiedosa sobre Blumenau e toda a região leste de Santa Catarina em 2008.

O radar de dupla polarização, em conjunto com outros instrumentos, envia ondas horizontais e verticais que, por reflexão, indicam o formato dos cristais de gelo e das gotas de chuva, desse modo elucidando a composição das nuvens e os mecanismos de formação e intensificação das descargas elétricas (raios) durante as tempestades. Os pesquisadores verificaram que as nuvens com muitos raios são mais altas e abrigam uma diversidade maior de cristais de gelo e mais granizo (pedras de gelo) do que aquelas que produzem menos raios. Além disso, de acordo com esse levantamento, as cargas elétricas negativas permanecem na mesma altura, logo acima do limite de 0oC, e as positivas podem ficar mais altas, acompanhando o topo das nuvens e o aumento da intensidade da descarga elétrica (ver detalhes no infográfico).

“Quem não quer saber onde vai chover antes de sair de casa?”, indaga Machado. Os especialistas acreditam que os dados coletados, combinados com a modelagem computacional já utilizada para a previsão do clima, podem criar uma base sólida de conhecimento teórico e aplicado sobre a chuva continental. Em uma das ramificações do Projeto Chuva – o SOS, Sistema de Observação de Tempo Severo –, o grupo do Inpe trabalhou com equipes da Defesa Civil e de universidades em cada uma das cidades em que se instalaram com os equipamentos para prever a chegada de chuvas com duas horas de antecedência e uma resolução espacial que define possíveis pontos de alagamentos nos bairros, complementando as previsões fornecidas por supercomputadores como o Tupã, instalado no Inpe. Com base nessas experiências, Machado acredita que o radar, acoplado a um sistema de informação geográfica (SIG) e às tecnologias já em uso de previsão de chuva em alta resolução, da ordem de centenas de metros, viabiliza a previsão imediata de tempestades e desastres climáticos, para que o morador de um bairro possa saber, antes de sair de casa, se está chovendo no bairro vizinho, para onde está indo. “Para isso”, ele diz, “precisamos conhecer o tamanho das gotas de chuva e dos fenômenos que se passam no interior das nuvens, como já estamos fazendo”. Eles continuam trabalhando, enquanto agora, como na canção de Tom Jobim, chegam as águas de março, fechando o verão.

Com colaboração de Marcos Pivetta

Projetos
1. Processos de nuvens associados aos principais sistemas precipitantes no Brasil: uma contribuição a modelagem da escala de nuvens e ao GPM (medida global de precipitação) (nº 2009/15235-8); Modalidade Projeto Temático; Pesquisador responsável Luiz Augusto Toledo Machado – Inpe; Investimento R$ 2.188.914,06 (FAPESP).
2. GoAmazon: interação da pluma urbana de Manaus com emissões biogênicas da floresta amazônica (nº 2013/05014-0); Modalidade Projeto temático; Pesquisador responsável Paulo Eduardo Artaxo Netto – IF-USP; Investimento R$ 3.236.501,79 (FAPESP).

Northern and southern hemisphere climates follow the beat of different drummers (Science Daily)

Date: March 30, 2014

Source: University of Bern

Summary: Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across the Earth with implications for regional predictions.

Field work in the Indian Ocean. The corals off the Broome coast, Western Australia, store information about past climate. Credit: Copyright Eric Matson, Australian Institute of Marine Science

Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across Earth with implications for regional predictions.

These findings are demonstrated in a new international study coordinated by Raphael Neukom from the Oeschger Centre of the University of Bern and the Swiss Federal Research Institute WSL and are published today in the journal Nature Climate Change.

The Southern Hemisphere is a challenging place for climate scientists. Its vast oceans, Antarctic ice, and deserts make it particularly difficult to collect information about present climate and, even more so, about past climate. However, multi-centennial reconstructions of past climate from so-called proxy archives such as tree-rings, lake sediments, corals, and ice-cores are required to understand the mechanisms of the climate system. Until now, these long-term estimates were almost entirely based on data from the Northern Hemisphere.

Over the past few years, an international research team has made a coordinated effort to develop and analyse new records that provide clues about climate variation across the Southern Hemisphere. Climate scientists from Australia, Antarctic-experts, as well as data specialists and climate modellers from South and North America and Europe participated in the project. They compiled climate data from over 300 different locations and applied a range of methods to estimate Southern Hemisphere temperatures over the past 1000 years. In 99.7 percent of the results, the warmest decade of the millennium occurs after 1970.

Surprisingly, only twice over the entire last millennium have both hemispheres simultaneously shown extreme temperatures. One of these occasions was a global cold period in the 17th century; the other one was the current warming phase, with uninterrupted global warm extremes since the 1970s. “The ‘Medieval Warm Period’, as identified in some European chronicles, was a regional phenomenon,” says Raphael Neukom. “At the same time, temperatures in the Southern Hemisphere were only average.” The researchers ascribe these large differences to so-called “internal variability.” This term describes the chaotic interplay of the ocean and atmosphere within the climate system that leads to temperatures changing in one or the other direction. Regional differences in these fluctuations appear to be larger than previously thought.

The scientists discovered that most climate models are unable to satisfactorily simulate the considerable differences between the hemispheres. The models appear to underestimate the influence of internal variability, in comparison with external forcings like solar irradiation, volcanic eruptions or human greenhouse gas emissions. “Regional differences in the climatic evolution of the next decades could therefore be larger than the current models predict,” says Neukom.

Journal Reference:

  1. Raphael Neukom, Joëlle Gergis, David J. Karoly, Heinz Wanner, Mark Curran, Julie Elbert, Fidel González-Rouco, Braddock K. Linsley, Andrew D. Moy, Ignacio Mundo, Christoph C. Raible, Eric J. Steig, Tas van Ommen, Tessa Vance, Ricardo Villalba, Jens Zinke, David Frank. Inter-hemispheric temperature variability over the past millenniumNature Climate Change, 2014; DOI:10.1038/NCLIMATE2174

Brasil sedia conferência sobre comunicação pública da ciência (Fapesp)

Questões relacionadas à prática e à pesquisa em divulgação científica integram a programação do evento que ocorrerá em Salvador; inscrições com desconto vão até 7 de abril (PSCT)

31/03/2014

Agência FAPESP –A Rede Internacional de Comunicação Pública da Ciência e da Tecnologia (PCST, na sigla em inglês) realiza, pela primeira vez na América Latina, entre 5 e 8 de maio, sua conferência internacional que tem, entre os objetivos principais, promover debates sobre o engajamento público em temas relacionados a ciência e tecnologia.

Formada por indivíduos de diversas partes do mundo que produzem e estudam na área de comunicação pública de ciência e tecnologia, a Rede PCST patrocina conferências, discussões virtuais e outras atividades que promovam novas ideias e perspectivas.

A edição deste ano terá como tema central “Divulgação da Ciência para a inclusão social e o engajamento político”. A ideia é mostrar que, mesmo com investimento em ciência e tecnologia, a maior parte do mundo ainda enfrenta a exclusão social e o desenvolvimento desigual, separando cada vez mais os países ricos dos pobres. O papel da difusão científica é criar possibilidades de ação dos cidadãos que permitam reduzir essa diferença.

Na plenária “Comunicação da ciência e mídia social”, os participantes poderão conferir as palestras de Dominique Brossard, da Universidade de Wisconsin, dos Estados Unidos, e membro do comitê científico da Rede PCST, e de Mohammed Yahia, editor da Nature Middle East, do Egito.

Além da Rede Internacional do PCST, o evento é promovido pelo Museu da Vida, da Fundação Oswaldo Cruz (Fiocruz), e pelo Laboratório de Estudos Avançados em Jornalismo (Labjor), da Universidade Estadual de Campinas (Unicamp).

As inscrições com desconto na taxa podem ser realizadas até 7 de abril. As atividades ocorrerão no Hotel Pestana Bahia, que fica na Rua Fonte do Boi, 216, em Salvador.

Mais informações http://www.pcst-2014.org/index.php/pt-BR/

Brazil police push into slums in Rio (Washington Post)

By Associated PressPublished: March 30

RIO DE JANEIRO — About 1,000 Brazilian police officers have begun invading a massive complex of slums near Rio de Janeiro’s international airport, the latest impoverished area to be targeted for the government’s “pacification” program.

The security effort began in 2008 and is meant to help secure Rio before this year’s World Cup and the 2016 Olympics.

Armored personnel carriers on loan from the Navy were used during the push into the Mare complex of shantytowns before dawn Sunday. Army soldiers are expected to start patrolling the area in the coming days.
Mare has been dominated by drug gangs for decades. In recent months, they have attacked police outposts in other slums, a direct challenge to security ahead of Brazil’s big events.

To date, there have been 37 police “pacification” outposts created in Rio.

80 percent of U.S. adults face near-poverty, unemployment, survey finds (CBS)

People look through boxes of food during a food distribution by the Food Bank of the Southern Tier Mobile Food Pantry on June 20, 2012 in Oswego, New York. The mobile food pantry program was introduced in 2007 in the Southern Tier of New York and covers nearly 4,000 predominately rural miles. The converted beverage truck delivers fresh produce, dairy products and other grocery items to individuals and families in need. The pantry typically distributes for a period of two hours and provides 100 to 160 families with food. According to the 2010 Census, 15.72% the population serviced by the mobile pantry live at or below the federal poverty level. According to statistics presented at a recent U.S. Senate committee hearing, almost one in seven Americans are living below the poverty line with a significant number of them being children.  SPENCER PLATT/GETTY IMAGES

Four out of 5 U.S. adults struggle with joblessness, near-poverty or reliance on welfare for at least parts of their lives, a sign of deteriorating economic security and an elusive American dream.

Survey data exclusive to The Associated Press points to an increasingly globalized U.S. economy, the widening gap between rich and poor, and the loss of good-paying manufacturing jobs as reasons for the trend.

The findings come as President Barack Obama tries to renew his administration’s emphasis on the economy, saying in recent speeches that his highest priority is to “rebuild ladders of opportunity” and reverse income inequality.

As nonwhites approach a numerical majority in the U.S., one question is how public programs to lift the disadvantaged should be best focused — on the affirmative action that historically has tried to eliminate the racial barriers seen as the major impediment to economic equality, or simply on improving socioeconomic status for all, regardless of race.

Hardship is particularly growing among whites, based on several measures. Pessimism among that racial group about their families’ economic futures has climbed to the highest point since at least 1987. In the most recent AP-GfK poll, 63 percent of whites called the economy “poor.”

“I think it’s going to get worse,” said Irene Salyers, 52, of Buchanan County, Va., a declining coal region in Appalachia. Married and divorced three times, Salyers now helps run a fruit and vegetable stand with her boyfriend but it doesn’t generate much income. They live mostly off government disability checks.

“If you do try to go apply for a job, they’re not hiring people, and they’re not paying that much to even go to work,” she said. Children, she said, have “nothing better to do than to get on drugs.”

While racial and ethnic minorities are more likely to live in poverty, race disparities in the poverty rate have narrowed substantially since the 1970s, census data show. Economic insecurity among whites also is more pervasive than is shown in the government’s poverty data, engulfing more than 76 percent of white adults by the time they turn 60, according to a new economic gauge being published next year by the Oxford University Press.

The gauge defines “economic insecurity” as a year or more of periodic joblessness, reliance on government aid such as food stamps or income below 150 percent of the poverty line. Measured across all races, the risk of economic insecurity rises to 79 percent.

Marriage rates are in decline across all races, and the number of white mother-headed households living in poverty has risen to the level of black ones.

“It’s time that America comes to understand that many of the nation’s biggest disparities, from education and life expectancy to poverty, are increasingly due to economic class position,” said William Julius Wilson, a Harvard professor who specializes in race and poverty. He noted that despite continuing economic difficulties, minorities have more optimism about the future after Obama’s election, while struggling whites do not.

“There is the real possibility that white alienation will increase if steps are not taken to highlight and address inequality on a broad front,” Wilson said.

___

Nationwide, the count of America’s poor remains stuck at a record number: 46.2 million, or 15 percent of the population, due in part to lingering high unemployment following the recession. While poverty rates for blacks and Hispanics are nearly three times higher, by absolute numbers the predominant face of the poor is white.

More than 19 million whites fall below the poverty line of $23,021 for a family of four, accounting for more than 41 percent of the nation’s destitute, nearly double the number of poor blacks.

Sometimes termed “the invisible poor” by demographers, lower-income whites generally are dispersed in suburbs as well as small rural towns, where more than 60 percent of the poor are white. Concentrated in Appalachia in the East, they are numerous in the industrial Midwest and spread across America’s heartland, from Missouri, Arkansas and Oklahoma up through the Great Plains.

Buchanan County, in southwest Virginia, is among the nation’s most destitute based on median income, with poverty hovering at 24 percent. The county is mostly white, as are 99 percent of its poor.

More than 90 percent of Buchanan County’s inhabitants are working-class whites who lack a college degree. Higher education long has been seen there as nonessential to land a job because well-paying mining and related jobs were once in plentiful supply. These days many residents get by on odd jobs and government checks.

Salyers’ daughter, Renee Adams, 28, who grew up in the region, has two children. A jobless single mother, she relies on her live-in boyfriend’s disability checks to get by. Salyers says it was tough raising her own children as it is for her daughter now, and doesn’t even try to speculate what awaits her grandchildren, ages 4 and 5.

Smoking a cigarette in front of the produce stand, Adams later expresses a wish that employers will look past her conviction a few years ago for distributing prescription painkillers, so she can get a job and have money to “buy the kids everything they need.”

“It’s pretty hard,” she said. “Once the bills are paid, we might have $10 to our name.”

poverty, urban decline, generic, america, connecticut

A car drives by a closed factory on May 20, 2013 in Waterbury, Connecticut. Waterbury, once a thriving industrial city with one of the largest brass manufacturing bases in the world, has suffered economically in recent decades as manufacturing jobs have left the area. According to recent census data, 20.6 percent of the city’s residents are living below the poverty level. SPENCER PLATT/GETTY IMAGES

Census figures provide an official measure of poverty, but they’re only a temporary snapshot that doesn’t capture the makeup of those who cycle in and out of poverty at different points in their lives. They may be suburbanites, for example, or the working poor or the laid off.

In 2011 that snapshot showed 12.6 percent of adults in their prime working-age years of 25-60 lived in poverty. But measured in terms of a person’s lifetime risk, a much higher number — 4 in 10 adults — falls into poverty for at least a year of their lives.

The risks of poverty also have been increasing in recent decades, particularly among people ages 35-55, coinciding with widening income inequality. For instance, people ages 35-45 had a 17 percent risk of encountering poverty during the 1969-1989 time period; that risk increased to 23 percent during the 1989-2009 period. For those ages 45-55, the risk of poverty jumped from 11.8 percent to 17.7 percent.

Higher recent rates of unemployment mean the lifetime risk of experiencing economic insecurity now runs even higher: 79 percent, or 4 in 5 adults, by the time they turn 60.

By race, nonwhites still have a higher risk of being economically insecure, at 90 percent. But compared with the official poverty rate, some of the biggest jumps under the newer measure are among whites, with more than 76 percent enduring periods of joblessness, life on welfare or near-poverty.

By 2030, based on the current trend of widening income inequality, close to 85 percent of all working-age adults in the U.S. will experience bouts of economic insecurity.

“Poverty is no longer an issue of ‘them’, it’s an issue of ‘us’,” says Mark Rank, a professor at Washington University in St. Louis who calculated the numbers. “Only when poverty is thought of as a mainstream event, rather than a fringe experience that just affects blacks and Hispanics, can we really begin to build broader support for programs that lift people in need.”

The numbers come from Rank’s analysis being published by the Oxford University Press. They are supplemented with interviews and figures provided to the AP by Tom Hirschl, a professor at Cornell University; John Iceland, a sociology professor at Penn State University; the University of New Hampshire’s Carsey Institute; the Census Bureau; and the Population Reference Bureau.

Among the findings:

–For the first time since 1975, the number of white single-mother households living in poverty with children surpassed or equaled black ones in the past decade, spurred by job losses and faster rates of out-of-wedlock births among whites. White single-mother families in poverty stood at nearly 1.5 million in 2011, comparable to the number for blacks. Hispanic single-mother families in poverty trailed at 1.2 million.

–Since 2000, the poverty rate among working-class whites has grown faster than among working-class nonwhites, rising 3 percentage points to 11 percent as the recession took a bigger toll among lower-wage workers. Still, poverty among working-class nonwhites remains higher, at 23 percent.

–The share of children living in high-poverty neighborhoods — those with poverty rates of 30 percent or more — has increased to 1 in 10, putting them at higher risk of teenage pregnancy or dropping out of school. Non-Hispanic whites accounted for 17 percent of the child population in such neighborhoods, compared with 13 percent in 2000, even though the overall proportion of white children in the U.S. has been declining.

The share of black children in high-poverty neighborhoods dropped from 43 percent to 37 percent, while the share of Latino children went from 38 percent to 39 percent.

–Race disparities in health and education have narrowed generally since the 1960s. While residential segregation remains high, a typical black person now lives in a nonmajority black neighborhood for the first time. Previous studies have shown that wealth is a greater predictor of standardized test scores than race; the test-score gap between rich and low-income students is now nearly double the gap between blacks and whites.

___

Going back to the 1980s, never have whites been so pessimistic about their futures, according to the General Social Survey, a biannual survey conducted by NORC at the University of Chicago. Just 45 percent say their family will have a good chance of improving their economic position based on the way things are in America.

The divide is especially evident among those whites who self-identify as working class. Forty-nine percent say they think their children will do better than them, compared with 67 percent of nonwhites who consider themselves working class, even though the economic plight of minorities tends to be worse.

Although they are a shrinking group, working-class whites — defined as those lacking a college degree — remain the biggest demographic bloc of the working-age population. In 2012, Election Day exit polls conducted for the AP and the television networks showed working-class whites made up 36 percent of the electorate, even with a notable drop in white voter turnout.

Last November, Obama won the votes of just 36 percent of those noncollege whites, the worst performance of any Democratic nominee among that group since Republican Ronald Reagan’s 1984 landslide victory over Walter Mondale.

Some Democratic analysts have urged renewed efforts to bring working-class whites into the political fold, calling them a potential “decisive swing voter group” if minority and youth turnout level off in future elections. “In 2016 GOP messaging will be far more focused on expressing concern for ‘the middle class’ and ‘average Americans,'” Andrew Levison and Ruy Teixeira wrote recently in The New Republic.

“They don’t trust big government, but it doesn’t mean they want no government,” says Republican pollster Ed Goeas, who agrees that working-class whites will remain an important electoral group. His research found that many of them would support anti-poverty programs if focused broadly on job training and infrastructure investment. This past week, Obama pledged anew to help manufacturers bring jobs back to America and to create jobs in the energy sectors of wind, solar and natural gas.

“They feel that politicians are giving attention to other people and not them,” Goeas said.

A Return to a World Marx Would Have Known (New York Times)

Doug Henwood is editor of Left Business Observer, host of a weekly radio show originating on KPFA, Berkeley, and is author of several books, including “Wall Street: How It Works and For Whom” and “After the New Economy.”

UPDATED MARCH 30, 2014, 7:02 PM

I don’t see how you can understand our current unhappy economic state without some sort of Marx-inspired analysis.

Here we are, almost five years into an officially designated recovery from the worst downturn in 80 years, and average household incomes are more than 8 percent below where they were when the Great Recession began, and employment still 650,000 short of its pre-recession high.

For years, excessive consumer borrowing muted the effects of stagnant wages. But low demand is stifling the economy, with no end in sight.

Though elites are prospering, for millions of Americans, it’s as if the recession never ended.

How can this all be explained? The best way to start is by going back to the 1970s. Corporate profitability — which, as every Marxist schoolchild knows, is the motor of the system — had fallen sharply off its mid-1960s highs. Stock and bond markets were performing miserably. Inflation seemed to be rising without limit. After three decades of seemingly endless prosperity, workers had developed a terrible attitude problem, slacking off and, quaintly, even going out on strike. It’s no accident that Johnny Paycheck scored a No. 1 country hit with “Take This Job and Shove It” in 1977 — utterly impossible to imagine today.

This is where Marx begins to come in. At the root of these problems was a breakdown in class relations: workers no longer feared the boss. A crackdown was in order.

And it came, hard. In October 1979, the Federal Reserve began driving interest rates toward 20 percent, to kill inflation and restrict borrowing, creating the deepest recession since the 1930s. (It was a record we only broke in 2008/2009). A little over a year later, Ronald Reagan came into office, fired the striking air-traffic controllers, setting the stage for decades of union busting to follow. Five years after Johnny Paycheck’s hit, workers were desperate to hold and/or get jobs. No more attitude problem.

The “cure” worked for about 30 years. Corporate profits skyrocketed and financial markets thrived. The underlying mechanism, as Marx would explain it, is simple: workers produce more in value than they are paid, and the difference is the root of profit. If worker productivity rises while pay remains stagnant or declines, profits increase. This is precisely what has happened over the last 30 years. According to the Bureau of Labor Statistics, productivity rose 93 percent between 1980 and 2013, while pay rose 38 percent (all inflation-adjusted).

The 1 percent got ever-richer and more powerful. But there was a problem: a system dependent on high levels of mass consumption has a hard time coping with the stagnation or decline in mass incomes.The development of a mass consumer market after Marx died, with the eager participation of a growing middle class, caused a lot of people to say his analysis was obsolete. But now, with the hollowing out of the middle class and the erosion of mass purchasing power, the whole 20th century model of mass consumption is starting to look obsolete.

Borrowing sustained the mass consumption model for a few decades. Non-rich households borrowed to buy cars, buy food, pay medical bills, buy ever-more-expensive houses, and so on. Conveniently, rich households had plenty of spare cash to lend them.

That model broke apart in 2008 and has not — and cannot — be revived. Without the juice provided by spirited borrowing, demand remains constricted and growth rates, low. (See also: Europe.)

Raising the incomes of the bottom 90 percent of the population through higher wages and public spending initiatives — stifled since Reagan starting putting the squeeze on them — could change that. But the stockholding class has resisted that, and they have a lot of political power.

And an extraordinarily lopsided economy is the result. We didn’t expect that the 21st century would bring about a return of the 19th century’s vast disparities, but it’s looking like that’s just what’s happened.

Climate Change causing Shrinkage in Appalachia‘s Salamanders (Austrian Tribune)

Submitted by Annika Linser on Wed, 03/26/2014 – 08:18

Climate change is not the only bane of human beings but is troubling salamanders too. A new report, published in Global Change Biology, revealed that climate change is causing salamanders in Appalachia to shrink as the amphibians are forced to burn more energy to ensure their survival.

The report said salamanders caught in the Appalachian Mountains since 1980 have become on average 8% smaller than museum specimens caught before then.

Due to increase in temperature, salamanders have to expend more energy and it is not a hidden fact that expending more energy makes every species smaller. The rate at which the salamander has shrunk is the largest and the fastest ever recorded in any animal, said University of Maryland professor Karen Lips.

First warnings over the same were reported by David Bickford of the National University of Singapore in a paper published in Nature Climate Change in 2011. He wrote, “The observed and expected patterns of decreased body size are widespread across different taxa, and are likely to be reported from an increasingly wide array of taxa over the coming century”.

He named at least 30 mammals, birds, frogs, and plants that suffered shrinkage because of climate change, whereas another 9 species showed some growth because of the phenomenon.

Lips said that is it not made certain yet that why and how it is happening, but their data clearly shows that it is correlated with climate change. Whatever the reason is, the timing is certainly not good as salamanders and other amphibians are already in distress, with some species reaching extinction and others experiencing huge decline in numbers.

Lips and her colleagues found six salamander species shrunk significantly and only one got slightly larger between 1957 and 2012. On an average, each generation of salamander was 1% smaller than its parent’s generation.

OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano (Rádio ONU)

Saúde
27/3/2014 – 11h25

por Leda Letra, da Rádio ONU

traffic cars pollution 300x257 OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano

Dados apresentados esta terça-feira, 25, confirmam que má qualidade do ar é líder ambiental em riscos para a saúde; doenças do coração, derrames e obstrução crônica do pulmão são as principais consequências da poluição.

A Organização Mundial da Saúde calcula que uma a cada oito mortes no mundo é causada pela exposição ao ar poluído. A nova estatística da agência da ONU foi apresentada esta terça-feira em Genebra.

Em 2012, cerca de 7 milhões de pessoas morreram devido à poluição do ar, duas vezes mais do que as estimativas anteriores. Segundo a OMS, esta é a principal causa ambiental de riscos à saúde.

Detalhes

A pesquisa revela uma forte ligação entre a poluição do ar e doenças respiratórias, do coração, derrames e câncer. A nova estimativa é baseada em um melhor conhecimento sobre a exposição humana ao ar e tecnologias mais avançadas para medir esses dados, incluindo o uso de satélites.

De acordo com a OMS, os cientistas conseguiram fazer uma análise detalhada dos riscos à saúde a partir de uma distribuição demográfica mais ampla, incluindo áreas rurais e urbanas.

Carvão

A agência calcula que a poluição do ar em ambientes fechados foi relacionada a mais de 4,3 milhões de mortes. Os casos estavam ligados ao uso de fogões de biomassa, carvão e madeira para cozinhar.

No caso da poluição em áreas abertas, o levantamento da OMS fala em 3,7 milhões de mortes em áreas rurais e urbanas.

Como a maioria das pessoas está exposta ao ar poluído em locais internos e abertos, as taxas de mortalidade não podem ser somadas e por isso, a OMS chegou à média de 7 milhões de mortes em 2012.

Coração e Pulmão

Os países do sudeste asiático e do Pacífico tiveram os maiores números de mortes relacionadas à poluição do ar, com quase 6 milhões de casos.

Em todo o mundo, 40% das pessoas que morreram pela poluição do ar em ambientes abertos sofreram doenças do coração; outros 40% tiveram derrame. Entre as outras causas de mortes, estão doença pulmonar obstrutiva crônica, câncer de pulmão e infecção respiratória aguda em crianças.

Transportes

Já os pacientes que morreram como consequência da poluição do ar em ambientes fechados tiveram principalmente derrame (34%), doenças do coração (26%), e do pulmão (22%).

Segundo a diretora do Departamento de Saúde Pública da OMS, Maria Neira, os riscos do ar poluído são bem maiores do que o previsto, em especial nos casos de doenças do coração e derrames. Para Neira, a evidência mostra a necessidade de ação combinada para a limpeza do ar que respiramos.

A OMS lembra que a poluição excessiva do ar geralmente está ligada a políticas insustentáveis nos setores de transportes, energia, gestão de resíduos e indústrias.

* Publicado originalmente no site Rádio ONU e retirado do site CarbonoBrasil.

Réguas do clima no campo (Fapesp)

Estações meteorológicas de São Paulo com séries históricas mais longas surgiram em Campinas e Piracicaba

NELDSON MARCOLIN | Edição 217 – Março de 2014

Livros de registros da estação da Esalq de 1917

A coleta sistemática de dados climáticos no Brasil começou a ser feita na primeira metade do século XIX no Imperial Observatório do Rio de Janeiro, atual Observatório Nacional. Em São Paulo, o Instituto Agronômico de Campinas (IAC) instalou sua primeira estação meteorológica em 1890, no interior paulista, com um objetivo mais específico do que conhecer o comportamento do tempo: realizar pesquisas sobre a influência do clima nas culturas agrícolas. “Os técnicos observadores anotavam cinco vezes por dia, em folhas de um metro de largura, informações sobre temperatura, umidade do ar, radiação solar e nebulosidade”, diz Orivaldo Brunini, coordenador do Centro Integrado de Informações Agrometeorológicas do IAC, órgão ligado à Secretaria Estadual de Agricultura e Abastecimento.

A estação mecânica pioneira começou a funcionar três anos depois da fundação do IAC. Três técnicos se revezavam na leitura dos dados durante todos os dias, sem exceção. “Os equipamentos, os mais modernos da época, vieram da Alemanha”, diz Brunini. Os dados eram analisados posteriormente pelos engenheiros agrônomos, mas as informações demoravam a chegar aos agricultores. Com o tempo, outras cidades do interior ganharam suas estações. Em 1956, o instituto começou a fazer anuários meteorológicos agronômicos e, em seguida, boletins mensais. Hoje há 150 estações que funcionam com sensores automáticos, que não dependem de observadores e fornecem informações em tempo real via internet. O IAC recebe 120 mil consultas por mês – 4 mil por dia. Os dados são usados para orientar os agricultores e também a Defesa Civil contra enchentes ou incêndios.

“O material histórico acumulado fornece séries que ajudam na análise de mudanças climáticas e é parte da história da região por guardar o registro de grandes estiagens ou geadas, por exemplo”, diz Brunini. Segundo ele,
há registro de apenas duas interrupções do serviço. Elas ocorreram durante a Revolução de 1932, quando as tropas paulistas estacionaram na fazenda do IAC, em julho, onde ficava a estação, e quando as forças federais estiveram no mesmo local, em outubro.

Estação da Esalq nos anos 1930

Em 1917 iniciaram-se as observações que originaram a segunda série mais antiga de São Paulo na estação instalada na então Escola Agrícola Prática de Piracicaba, hoje Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP). “As leituras eram realizadas quatro vezes por dia e uma delas seguia por telégrafo para a Diretoria de Meteorologia e Astronomia do Observatório Nacional, hoje Instituto Nacional de Meteorologia, o Inmet, para compor as informações meteorológicas diárias e de previsão de tempo de todo o país”, conta Luiz Roberto Angelocci, professor sênior do Departamento de Engenharia de Biossistemas da Esalq. A partir da década de 1960, os estudos se tornaram mais específicos para análise das relações clima-agricultura e, desde o final de 1996, foi instalada a coleta automatizada de dados, sem desativação da coleta convencional. Os dados estão disponíveis na internet.

Angelocci trabalha na análise das séries históricas geradas nos 97 anos de registro. “O que se pretende é uma reanálise completa da série, além de uma melhor exploração dos dados”, diz ele. Séries longas são fundamentais para o entendimento do clima e das causas de sua variabilidade. São importantes, também, para mostrar o que pode ser meramente uma anomalia climática ou uma tendência. “Aliás, certas anomalias não são tão raras como parecem. A situação atual de período seco no estado de São Paulo, por exemplo, ocorreu de forma análoga em outros anos”, conta Angelocci. Ele observou que em cinco anos da série, o primeiro deles em 1935, a chuva ficou abaixo de 40% da média de toda a série para o mês de janeiro. “Não dá para ser categórico e afirmar que a seca atual é resultado ou não de mudanças climáticas recentes quando sabemos que nos últimos 97 anos ocorreram períodos semelhantes ao atual”, conclui o pesquisador.

Stengers on emergence (BioSocieties)

BioSocieties (2014) 9, 99–104. doi:10.1057/biosoc.2013.43

Isabelle Stengers. Cosmopolitics. Minneapolis, London: University of Minnesota Press, 299 pp., US$25, £18.50, ISBN: 9780816656868; 9780816656875

Reviewed by Graham Harman

American University, Cairo, Egypt. E-mail: gharman@aucegypt.edu

Cosmopolitics, the major work of Belgian philosopher Isabelle Stengers, has been available in English since 2011 in a lucid two-volume translation by Robert Bononno. In the Anglophone world Stengers is already known as a formidable interpreter of Alfred North Whitehead, a thinker she has done so much to disseminate in the French-speaking world (Stengers, 2011). But in the present work we encounter Stengers’ own philosophical voice even more directly. Originally published in the 1990’s in seven slim French volumes, Cosmopolitics should be regarded as one of the most unique works of continental philosophy in the past several decades.

For many years, continental philosophy was attacked for its focus on purely literary and social science texts, far from the stunningly successful labors of the natural sciences. Cosmopolitics is one of several prominent recent works that have begun to reverse this trend. Karen Barad’s Meeting the Universe Halfway also comes to mind (Barad, 2007), as does Manuel DeLanda’s Intensive Science and Virtual Philosophy(DeLanda, 2002), along with several books on neuroplasticity by Cathérine Malabou (2008) All of these works have had considerable influence, and they may look in retrospect like a collective turning point. Yet Cosmopolitics differs from the others in at least two respects. First, Stengers gives us a long historical narrative filled with a roster of heroes barely familiar to her philosophy readership: Lagrange, Carnot, Hamilton, Duhem, Poincaré, and de Donder among them. Second, Stengers writes as someone personally invested in this history, since she worked as a close associate of Ilya Prigogine, the celebrated Russian-born Belgian chemist. Despite receiving a Nobel Prize in 1977, Prigogine ended his career as a somewhat marginalized figure, accused of ‘delusions of grandeur’ for reasons described in haunting fashion by Stengers herself.1

What will become of Stengers’ detailed history of dynamics among her philosophically minded readers? Gilles Deleuze launched an unexpected fashion for the Stoics and Duns Scotus, to name just two of his ‘minor’ favorites. Alain Badiou has spurred a generation of young readers to learn set theory and idolize the madman-genius Cantor. Will Stengers’ Cosmopolitics provoke a comparable wave of enthusiasm for the history of dynamics? Or will it remain an intriguing dark horse of a book, left by the wayside as different paths are followed? As Stengers demonstrates in her approach to the history of physics, there is no way to predict which human works will become events that produce a tangible line of heirs. Just as Prigogine’s scientific breakthrough in 1972 could have rewritten the history of physics,2 Stengers’ lengthy treatise could lead to a new style of continental philosophy: steeped in Deleuze and Whitehead, while closely tracking the shift from Lagrangians to Hamiltonians to Niels Bohr’s model of the atom. While this may sound unlikely in view of the meager past relations between science and continental philosophy, who would have expected Cantor to become a favorite of young French philosophers? It is at least conceivable that Stengers has opened a door that other talented thinkers will enter, and this gives Cosmopolitics the refreshing air of a possible future, no matter what eventually becomes of the book.

What must now be asked is whether the elegance and historical thoroughness of Cosmopolitics go hand-in-hand with a compelling philosophical position. In her remarkably calm and even-tempered book, Stengers nonetheless shows considerable impatience with philosophers of the old style, who brandish their arrogant certainties about how the world really is. She argues instead for what she calls an “ecology of practices.” Yet this ecological program turns out to be an ontology in its own right, as open to counter-argument as any other. To zero in on Stengers’ ontology, I will focus on her concept of emergence. This is both a central philosophical theme of Cosmpolitics and a topic where she differentiates her views equally from the ‘reductionists’ and the ‘holists,’ who are presented as sharing the same basic flaw. Though it may seem difficult to extract isolated themes from such a densely interwoven work, the brief format of the present review requires that we make the attempt. Ignoring for now her critique of the notion of physical ‘states,’ and her important passing salute to Gilbert Simondon’s dismissal of fully formed individuals, we can find the core of Stengers’ concept of emergence in Chapters 13 and 14 of Cosmopolitics II. These chapters are entitled ‘The Question of Emergence’ and “The Practices of Emergence,”3 and together total just under thirty pages.

Before considering Stengers’ own views, we should place the question of emergence in philosophical context. How does something new emerge irreversibly from the old? This was a central concern of Henri Bergson a century ago, and Francophone thought since the 1960’s has often been nearly obsessed with the question of the new.4 Beyond this theme of the new arising from the old, emergence can also be framed as the question of how the large emerges from the small or the more composite from the more simple. If this never happens, if mid-sized entities are always mere aggregates of tinier authentic things, then we are left with a reductionist or even eliminativist approach to the world in which a privileged ultimate layer is treated as the sole authentic reality. Thinking would thereby become a permanent exercise isundermining: debunking illusory macroscopic beings in favor of underlying subcomponents or perhaps even a barely articulate, gelatinous mass (See Harman, 2011). Particle physics would become the chosen discipline of the gods; all others would have to accept a subordinate local status, ruled by the ultimate primacy of physics.5

Yet we must also beware of a kind of reduction that moves upwards rather than downwards – namely, the kind that I have called overmining. Instead of dissolving a thing into its constituents, we might dissolve it upward into appearances, effects, manifestations, or events, while mocking the ‘naïve realism’ that posits discrete individuals hiding behind their tangible manifestations. Or we might play the double game of doing both at once, duomining the world by appealing sometimes to ultimate particles or indeterminate flux as the bedrock of reality, and other times to an uppermost layer of the visible, the evental, or the determinate that float without a bedrock.6 What is lost through this two-faced process is the middle kingdom: the robust reality of specific things that are more than the inner relations of their parts, but less than their outer relations with their environment. Object-oriented philosophy insists on the rights of the middle kingdom, with objects protected from reduction in two directions rather than just one. From an object-oriented standpoint, how does Stengers look when it comes to the question of emergence? Is she an underminer, an overminer, a duominer, or an ally? Or does she somehow escape all of these categories, which through her act of escape would be exposed as artificial or at least non-exhaustive? Whatever the answer, this will not be an exercise in name-calling or empty labelling. Each of the terms just mentioned (undermining, overmining, duomining, object-oriented) has a precise meaning and definite philosophical consequences.

Stengers is aware that the problem of emergence has ancient metaphysical roots: “Aristotle’s disciples were already arguing about composite bodies endowed with new qualities that arose from the elements that composed them. How could these new qualitative properties be explained?” (p. 208) The standard reductive approach is exemplified by today’s most zealous materialists, who “signal a future in which, from psychology to the social sciences and therapeutic practices, all forms of knowledge concerning human behavior will be understood in terms of neuronal interactions.” (p. 209) Such materialists, of course, do not even treat neurons as the fundamental basis of the world, since they too can be explained through the workings of even tinier constituents. Neurons for them are simply a convenient, provisional, local supply base for reductive explanations of the human realm. Undermining is treated as the very business of thought, the sole legitimate method for assaulting all that is supposedly mysterious.

All resistance to such undermining must hold that something new emerges at levels higher than the physically ultimate. This approach need not come from outside the sciences. Stengers notes that the anti-mechanistic chemists of the eighteenth century “claimed there was a difference between composition, which was their problem, and the simple aggregation of physicists” (p. 209). The quarrel between reduction and anti-reduction thus became a disciplinary dispute between physicists and chemists. Here the chemists are joined by Leibniz, one of Aristotle’s greatest heirs, who “pointed out the foolishness of those who dreamed of explaining sensation, perception, and consciousness in terms of inert matter,” and in doing so “he seems to have been taking part in a quarrel that continues today with the unfortunately celebrated mind-body problem.” (p. 208) Of course, there are several different intellectual camps that might view the celebration of the mind-body problem as ‘unfortunate.’ One of these camps is that of the hardcore materialists mentioned in the previous paragraph. For them there is no mind-body problem simply because body is destined to win; mind will eventually cave in to advancing physical explanations of the brain. For a hardcore idealist such as Berkeley, by contrast, there can be no mind-body problem because mind has already won; to be is to be perceived, and there is no autonomous ‘body’ outside the configurations it displays for some human or divine mind. Against these two options, seekers in the realm of the mind-body problem at least mark a place of uncertainty, a temporary bastion against quick reductions in either direction. Given that Stengers views this bastion as ‘unfortunate’ (as I do, but for very different reasons) we will need to see how she hopes to outflank all three positions simultaneously.

A point of especial interest in Stengers’ story is the changing status of clocks, one of the most useful and earliest-perfected machines of the modern era. “The clock is a weapon against Aristotelian thought, for which matter is unintelligible as such but requires a form, with which are associated both the existence of individual beings, each of which is endowed with its own end, and the possibility of knowing them.” (p. 210) However, “in the case of the clock, matter and finality can be understood separately: consisting of inert parts, and as such subject to the laws of mechanics, it owes its clocklike existence to the genius of the maker, who has subjected those parts to their own ends, who has incorporated them into a coherent mechanism defined by a finality – telling time.” (p. 210) The question of emergence is thereby conflated with the question of purpose or final causation: “The question of finality designates the stronghold that must be defended or conquered.” (p. 210) This appeal to finality proves to be a bad move for the anti-mechanists, since Darwinian natural selection allows Richard Dawkins to replace the purposeful timekeeper with the “blind watchmaker” whose living creatures have no internal finality, but simply survive or fail to survive in the environment they happen to confront. (p. 210) By the same token, it allows Jacques Monod to dismiss final causes and say that living creatures are merely “teleonomic,” meaning that we can describe them on the basis of their aim of self-reproduction, but without metaphysical commitment to an actual finality inherent in these beings themselves. (p. 210)

And here we encounter Stengers’ impatience with both the reductionist and vitalist sides of the dispute. Locked in mutual polemic, each adopts self-defeating strategies that open up vulnerable paths to their mortal enemy. “What I want to emphasize here is that understanding the challenge to which the living being exposes the biologist is barred to the vitalist biologist just as it is to the believer in neo-Darwinism. In both cases, the polemical position is expressed by the production of an identity that is substituted for practical requirements and obligations the way a solution is substituted for a problem.” (p. 211) In other words, the neo-Darwinist defends inert mechanical matter and the vitalist defends non-mechanistic purposes, but these are both ‘identities’ that ought to give way to ‘practical requirements and obligations.’ This is the pragmatist gist of Stengers’ call for an “ecology of practices”: disputes over the nature of reality are pointless polemics that ought to be re-inscribed in the practical soil that enables the two opposite positions in the first place. We are led not to an ambiguous real world in which everything is both mechanistic and purposive, but to an ultimate human practical context in which things are neither mechanistic nor purposive, apart from the ‘requirements and obligations’ following from how the problem is posed at any given time.

Stengers cites the cases of Pasteur demonstrating the autonomy of the microorganism, Körner displaying the hexagonal structure of benzene, and Nirenberg using an artificial DNA molecule to synthesize a protein. (p. 213) Stengers’ ontological conclusions about these events might be called ‘deflationary,’ since they neither add real autonomous microorganisms, benzene molecules, and proteins to the world, nor do they shatter these things reductively into tinier components. As she puts it, “events of this kind mark the creation of new laboratory beings and the new laboratories that correspond to them. But they do not pose the problem of emergence and do not allow any reduction to occur. They mark the success of an operation of delegation.” (p. 213) The understated tone of the passage cannot mask its radical philosophical claim. For it is not just that Pasteur, Körner, and Nirnberg happened not to brush against the philosophical question of reduction and emergence. Instead, for Stengers, reduction and emergence are not legitimate philosophical problems at all. They are pseudo-problems that ought to be replaced by the true problem of how successful and unsuccessful ‘delegations’ are made. Instead of disputing over the criteria for what would or would not count as an ‘emergent’ being immune to mechanistic reduction, “it is much more interesting to point out how the operations of experimental delegation that have treated bacteria as targets or actors have been possible.” (p. 213) Is Stengers’ theory of delegation simply ‘much more interesting’ than ontological disputes over emergence, or are there more convincing grounds for dissolving those disputes into her own pragmatic theory? I for one do not share her lack of ‘interest’ in emergence, nor can I accept the concluding lesson of her Section 13: “all the confrontations that serve as ecology in the modern sciences converge around the question of emergence. Therefore, it is from this field of battle that we must escape… a practical, constructivist sense must be given to the issues covered by [the term ‘emergence’].” (p. 218; emphasis added)

We can now move to Stengers’ attempted coup de grâce in Section 14. “It is not often,” she reports, “that I have the opportunity to speak well of the work of philosophers of science.” (p. 219) Yet she now sees opportunity for praise when referring to the three-tiered model of emergence proclaimed by J.K. Feibleman. Though he starts with “a conventional definition of emergence, which associates the relation between a whole and its parts to the relation between ends and means,” (p. 219) he seems to add an extra layer to the problem. In Feibleman’s own words: “For an organization at any given level, its mechanism lies at the level below, and its purpose at the level above. This law states that for the analysis of any organization three levels are required: its own, the one below, and the one above.”7 For Stengers, the value of this model lies in its implication that “the purpose of an organization is not found in itself but is always seen from the point of view of something else.” (p. 219) This gives ammunition to her claim that the identities of whole and part must be determined in terms of “the practices that allowed those identities to be defined.” (p. 220) In the case of water, for instance, we can actually speak of two waters: “one of its identities corresponds to the chemist’s purpose in understanding it as a molecule that will interact with other molecules; the other corresponds to the purpose of understanding it as a solvent that is a liquid.” (p. 220; emphasis added) The purposes of the understanding are always what is central, hence my added italics in the passage. But even more surprising is Stengers’ brazen rewriting of “emergence” so that it dwells within the understanding itself. As she puts it, ‘ “water” had to emerge twice: as a molecule composed of ‘parts’ and as a liquid with specific properties, composed of molecules.’ (p. 220) The scare-quotes around ‘water’ and ‘parts’ in this passage should not distract us from what is happening to the non-scare-quoted “emergence.” For Stengers, the term “emergence” no longer pertains to levels of reality where something new happens independently of our understanding; instead, it is produced by that very understanding.

It certainly looks as though Stengers is simply replacing the part/whole dualism of classical disputes over emergence with a new and unimproved twofold in which a non-articulate or semi-articulate world is confronted by human scientists whose practical purposes serve to cut the world into neatly defined sections for the first time.8 Here, Stengers might answer that she does not advocate a two-leveled theory of emergence, but something more like Feibleman’s three-leveled model. Let’s consider how such a model might operate in the framework ofComsopolitics.

Stengers briefly develops her own three-level approach with the example of chemical elements. “Ever since Mendeleev,” she recounts, “the element has been a part of the chemical definition of molecules and reactions, but it presents no problem for emergence.” (p. 220) From there, Stengers goes on to describe an asymmetry between elements/molecules on the one hand and atoms on the other; I will treat ‘elements/molecules’ as a pair only because Stengers does not distinguish between them in this passage. As concerns elements/ molecules: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) We will discuss this again shortly. But the case of the atom is apparently quite different: “On the other hand, the atom claims to explain the molecule the way the part explains the whole. It owes its scientific existence to practices of a very different kind, which do not address it as a chemical actor; therefore it can, unlike the element, claim a separable identity.” (p. 220) Along with elements/molecules and atoms, we also find the anticipated third level: “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220)

Though Stengers does not do all the work for us of mapping her threefold schema onto Feibleman’s triad, it is not difficult to see how she proposes to do so. Stengers’ Feiblemanian analysis runs as follows:

  1. We must consider the element/molecule on its own level. According to Stengers, this level is reminiscent of Aristotelian matter, having no properties in its own right but serving as a kind of amorphous receptacle that gains its qualities only from the levels below and above it. We should note in passing that this first level is both dubious and surprisingly innovative. It is dubious because it is by no means clear that the properties of a chemical element can be reduced either to the properties of its atoms or the uses one makes of the element. Indeed, this is one of the chief recurrent arguments of partisans of real emergence. Yet Stengers simply declares their argument irrelevant by her fiat of comparing chemical elements to ‘Aristotelian matter’ lacking intrinsic properties of their own. Yet in another sense her model is also quite innovative, since normally the defenders of matter-without-qualities place it at the very bottom of the cosmos, rather than at an intermediate level as Stengers does.
  2. Following Feibleman’s threefold method (which Stengers endorses), we must now consider the element/molecule at the level below it. In the present example, atoms are the level just below molecules. “Unlike the element,” Stengers already told us, atoms ‘[can] claim a separable identity.’ Obviously Stengers does not take this to be a permanent special feature of atoms, which (as the scientist Stengers knows even better than the chemical layman) can be analyzed downward into quarks and electrons just as easily as molecules can be analyzed into atoms. What she evidently means is that, given our momentary interest in the element/molecule as a chemical agent, and given the sub-chemical status of atoms, we can treat atoms for the moment as explanatory agents or ‘black boxes’ lacking internal articulations of their own. Certainly, we could always change our question and focus on the composition of atoms instead. But the ‘practices’ relevant to our current question allows us to treat the atom (for now) as an explainer that does not need to be explained in turn.
  3. Finally, we must consider the element/molecule at the level above it. For Stengers (there is no evidence that Feibleman would see it this way) this third level is the most important, since it is not just one among equals, but governs the very production of the difference between the other two. For as we saw, “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220) There may be three layers, but practice is the layer that rules them all.

In short, Stengers does not argue for a three-leveled theory at all, but for precisely the sort of twofold theory of which we were complaining a few pages ago. First, given that Stengers shows no traces of frank Berkeleyan idealism, she seems to concede that there is a world out there that resists our conceptions and allows for some negotiations to succeed and others to fail. That’s the first level: a world that is not just an image in our minds. And second, there is the dominant layer of praxis and negotiation that allows for the very articulation between parts and wholes in the first place. And what of the additional level that Feibleman requires – the consideration of the element/molecule (or anything else) ‘on its own level’? We recall Stengers’ rather noncommittal description of this level: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) The upshot is that nothing has any qualities in its own right (here we are speaking of elements/molecules, but the same would hold for atoms, horses, balloons, persons, nations – for anything at all). A thing gains its properties either from the explanations provided by its own parts, or the ‘purposes’ that articulate it in one way rather than another.

In a word, from the standpoint of object-oriented philosophy, Stengers is a classic duominer who reduces entities simultaneously both to lower-level atoms and higher-level scientific purposes, while reserving for entities themselves nothing but the amorphous status of inarticulate Arisotelian matter, fit only to be shaped by our ‘ecology of practices.’ Reality becomes a hot potato, passed either downward to tiny pieces or upward to all-encompassing practices, but is never stationed wherever we happen to be searching for it. This is the philosophical pitfall of duomining, and I hope that the unfamiliarity of the term does not overshadow the seriousness with which I use it. For all her claims to surpass all the stale old dualistic polemics, Stengers simply shows us the most classic reflex of Western philosophy: a simultaneous reduction of the world in two separate directions rather than one, with each reduction providing an alibi for the other.


Notes

1 For Stengers’ treatment of Prigogine see Cosmopolitics II, Chapter V, Life and Artifice, pp. 105–204. For a more detailed earlier collaboration between the two, (see Prigogine and Stengers, 1984).

2 Stengers makes this claim about Prigogine in Cosmopolitics II, p. 151.

3 Stengers, Cosmopolitics II, pp. 207–233.

4 For an intriguing account of this phenomenon, see the treatment of Badiou and structuralism in Bryant (2011), p. 243 ff.

5 I have criticized this tendency in the work of James Ladyman and Ross, among others. See Harman (2010).

6 I borrow the term ‘duomining’ from the credit card industry, where it refers to the simultaneous use of data and text mining. See Harman (2013).

7 Stengers is quoting here from page 61 of Feibleman (1954).

8 The ‘human scientists’ part is slightly unfair, of course, since Stengers like Latour tries to reinterpret words such as ‘negotiate’ in non-anthropocentric terms (see her remarks on the body’s twofold treatment of water in Cosmopolitics II, p. 221). But the same ontological problems occur even if we allow non-humans to join humans in using their own purposes to carve a largely inarticulate world into pieces. See my remarks about how a global ‘relationism’ is only marginally better than a human-centered ‘correlationism’ in Harman (2009).


References

  1. Barad, K. (2007) Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham, NC: Duke University Press.
  2. Bryant, L.R. (2011) The Democracy of Objects. Ann Arbor, MI: Open Humanities Press.
  3. DeLanda, M. (2002) Intensive Science and Virtual Philosophy. London: Continuum.
  4. Feibleman, J.K. (1954) Theory of integrative levels. British Journal for the Philosophy of Science 17: 59–66. | Article |
  5. Harman, G. (2009) Prince of Networks: Bruno Latour and Metaphysics. Melbourne: re.press.
  6. Harman, G. (2010) I am also of the opinion that materialism must be destroyed. Environment and Planning D: Society and Space 28(5): 772–790. | Article |
  7. Harman, G. (2011) On the undermining of objects: Grant, Bruno, and radical philosophy. In: L.R. Bryant, N. Srnicek and G. Harman (eds.)The Speculative Turn: Continental Materialism and Realism. Melbourne: re.press.
  8. Harman, G. (2013) Undermining, overmining, and duomining: A critique. In: J. Sutela (ed.) ADD Metaphysics. Aalto Finland: Aalto University Design Research Laboratory, pp. 40–51.
  9. Malabou, C. (2008) What Should We Do With Our Brain? Trans. S. Rand. New York: Fordham Univ. Press.
  10. Prigogine, I. and Stengers, I. (1984) Order Out of Chaos. New York: Bantam.
  11. Stengers, I. (2011) Thinking with Whitehead: A Free and Wild Creation of Concepts. Trans. M. Chase. Cambridge, MA: Harvard Univ. Press.

About the Author

Graham Harman is Distinguished University Professor at the American University in Cairo. He is the author of numerous books, most recently Bells and Whistles: More Speculative Realism (2013).

Horizonte árido (OESP)

‘Questão de natureza política, a água deve ter agenda própria com leis, infraestrutura e campanhas para consumo consciente’, diz engenheiro

22 de março de 2014 | 16h 00

Juliana Sayuri

Secou. Desta vez, faltaram as águas de março fechando o verão. O Cantareira, principal reservatório a hidratar a Grande São Paulo, marcou 14,5% de volume armazenado na sexta-feira, cravando novo recorde negativo desde 1974. São Pedro não colaborou desde dezembro, o cidadão abusou, o político tergiversou e, no fim, São Paulo poderá amargar dias mais secos neste outono.

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia - Anupam Nath/AP

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia. Anupam Nath/AP

“Política é a arte de firmar compromissos. Nesse campos ambientais, isso é muito difícil – Kyoto está aí pra não desmentir ninguém”, afirma Benedito Braga, engenheiro civil, Ph.D. por Stanford e professor da Escola Politécnica da Universidade de São Paulo. “No limite, é competência da cidade. Está na Constituição: prover água é prerrogativa constitucional das prefeituras. Seria do governo do Estado se estivéssemos discutindo obras. Mas agora, para resgatar o Cantareira, nem adianta correr atrás de obras, que ficariam prontas em talvez três anos – e até lá já teríamos morrido de sede”, critica. Que fazer? “Racionar. É a única saída. Não me refiro ao rodízio, que fique claro: racionar é consumir menos que o usual.”

Ex-diretor da Agência Nacional de Águas, Braga preside desde 2012 o World Water Council, um think tank que reúne Nações Unidas, scholars, técnicos, políticos, executivos e ativistas. “Precisamos compreender que água é uma questão de ordem política. Para mudar e melhorar essa situação, é preciso discutir alternativas, ideias inovadoras, soluções inteligentes”, diz. Que essa fonte não seque.

A questão da água está sendo muito discutida nos últimos dias, com a situação do Cantareira. Água é uma pauta política?

Fiz uma palestra nessa semana e, num dos últimos slides, mostrei três caracteres chineses. O primeiro simboliza “rio”. O segundo, “dique”. E o terceiro, que seria a soma dos dois? Logo se imagina que seria “reservatório” ou algo assim, mas não. É “ordem política”. Nossos governantes já notaram isso. No Nordeste, todo político considera a questão da água. No Sudeste, até estes tempos, só discutíamos as inundações. Agora, diante desse quadro do Cantareira… Os políticos precisam compreender que a água deve estar na pauta, com orçamento e tudo mais, pois isso pode lhes custar as eleições. Política é a arte de firmar compromissos, formar consensos, resolver problemas. É muito difícil formar consensos nesses campos – Kyoto está aí pra não desmentir ninguém. A água permeia diferentes setores, como agricultura e energia, mas precisa de uma agenda própria – senão, cada setor faz o que bem entende, desperdiça recursos hídricos cá e lá, falta água… E aí? É uma questão de natureza política. O cidadão pode ajudar? Certamente. Elegendo políticos que tenham uma plataforma coerente. E, francamente, o único sinal que políticos realmente entendem é o voto. Se o cidadão compreender que a água é um tema tão importante quanto a saúde e a educação, o político também deverá compreender.

Cantareira é um bom sistema?

Sim. Foi idealizado por Eduardo Yassuda, professor brilhante da Poli. No início da década de 1970, ele disse: “São Paulo não pode resolver o problema da água com soluções pequeninas. Precisa de soluções de gente grande”. Aí começou a procurar mananciais, Guarapiranga, Tietê, Taiaçupeba, Paraitinga, Ponte Nova. E viu que precisaríamos trazer água do outro lado da serra. Construíram esse sistema, que tem 800 milhões de metros cúbicos de armazenamento, uma vazão que, à época, supria toda a água de São Paulo. Foi uma boa ideia. Mas agora a situação é grave. Não interessa a quem culpar – a variabilidade do clima, o político, a Lua e o planeta Saturno. É tudo junto. Há uma falha na oferta – São Pedro não foi generoso neste verão. E uma falha na demanda – as pessoas não notaram a gravidade da situação e continuaram consumindo como sempre. E a infraestrutura não acompanhou o crescimento da demanda. Agora estão considerando usar o tal volume morto. O que é isso? Se você construir uma obstrução para armazenar água, esse volume contém sedimentos em suspensão. Reservamos um espaço no fundo do reservatório para depositar esse sedimento – e o sistema continua funcionando. O que a Sabesp tem? Tomadas de água, em diferentes alturas. Quando o nível do reservatório está alto, as duas tomadas funcionam. Vem a seca, uma das tomadas não funciona mais. No limite do volume morto, não há mais nada. O nível baixa e baixa, até que uma hora só há sedimentos e não dá para tirar mais nada. É uma alternativa viável do ponto de vista técnico. Mas não é a solução. A solução é parar de usar tanta água.

Racionar.

Racionar, mas não como a maioria imagina. Racionar é consumir menos que o usual. Há duas formas para isso. Primeiro, um rodízio, fechando e abrindo registros em diferentes setores das cidades. Segundo, um racionamento com medidas não estruturais, com bônus para quem economizar, multas para quem extrapolar. Isso deve ser feito por uma lei municipal.

Isso não é responsabilidade do governo do Estado?

Não. A competência legal é do município, nas esferas do Executivo e do Legislativo. Está na Constituição: prover água potável e saneamento é uma prerrogativa constitucional das prefeituras. Se estivéssemos discutindo obras, seria o governo do Estado. Neste momento, nem adianta correr atrás de obras. Eles estimam 18 meses, mas na verdade só ficariam prontas em dois, talvez três anos – e até lá já teríamos morrido de sede. O Estado dá concessão à Sabesp. Mas São Carlos, no interior, não usa Sabesp – e sim o Serviço Autônomo de Água e Esgoto São Carlos (SAAE); Limeira, também no interior, não usa Sabesp, mas a Foz do Brasil/Odebrecht. Diante de qualquer problema, a responsabilidade primeiro é da companhia, mas, no fim, é do prefeito. Que poderia passar uma lei municipal dizendo o seguinte: estamos vivendo uma situação muito grave e, por isso, cada domicílio terá um limite de consumo de 20 metros cúbicos por mês, com tarifa de R$ 10. Se ultrapassar, a tarifa passa a R$ 100. É uma forma de regular o uso, pois o cidadão que estava acostumado a pagar R$ 90 e vê a conta saltar para R$ 500 certamente freará o consumo. No mês seguinte, pode apostar que todas as torneiras vão estar fechadas, o cara não vai mais lavar calçada e não vai demorar no banho. Esse é o racionamento que deveria ser feito, obviamente acompanhado por uma campanha de conscientização para dizer: “Meu amigo, você não será pego de surpresa. Preste atenção, economize água”. É melhor que o rodízio.

Por quê?

Imagine uma tubulação, com juntas para outras tubulações. Quando os tubos estão cheios, ainda há perda de água na linha – eram 35%, agora são 25%. Quer dizer que há vazamentos no sistema. Quando o sistema está pressurizado, a água corre. Quando despressuriza, a água para e entra no solo, misturando-se e voltando às tubulações uma água de qualidade desconhecida. Por isso, o rodízio não é bom. Ainda dá tempo de racionar, mas nossos governantes precisam agir. Na seca, acontecerá o racionamento por rodízio, pois não haverá mais tempo hábil para o outro tipo. A Austrália também passou por uma situação grave. Ali foram dez anos de seca, só agora voltou a chover forte. Os australianos fizeram várias usinas de dessalinização e cortaram a água antes usada para irrigação. No nosso caso, o que poderia ser feito? O governo – alçada estadual no caso dos rios Jaguari e Jacareí, com o Departamento de Águas e Energia Elétrica (DAEE); e federal no rio Piracicaba, com a Agência Nacional de Águas – deveria visitar os lugares de irrigação e dizer: “Meu caro, o que você cultiva aí? Tomate? Pago sua safra, mas você não vai tirar nem um litro a mais de água do rio”. Assim, a água deixa de ser destinada a um uso “menos nobre”, e fica disponível para o consumo dos cidadãos.

Há um modelo de gestão hídrica no mundo?

Não há um país nota 10 em todos os quesitos. Em termos de uso de água no ambiente urbano, diria Cingapura, que reaproveita quase a totalidade de seus esgotos para consumo doméstico. Cingapura dependia da Malásia e, num esforço para se tornar mais autônoma, investiu num programa de reúso de água fantástico, mas muito caro, da ordem de bilhões de dólares. A Namíbia também tem um sistema de reúso de água potável há 40 anos. Talvez, no futuro, tenhamos que fazer isso em São Paulo: reaproveitar e beber o que era nosso esgoto. Em termos de gestão no ambiente agrícola, Espanha e Israel se destacam. Em termos de gestão de recursos hídricos, a França é um bom exemplo. É só lembrar o Sena, muito sujo há 50 anos, limpo agora. Muito dinheiro já foi investido para despoluir o Tietê – mas sinceramente, nem eu nem meus netos nem meus bisnetos veremos esse rio 100% limpo.

Do ponto de vista cultural, o que precisaria mudar para valorizar esse recurso?

A situação que vivemos agora é exemplar. Pense: quando o brasileiro começou a se preocupar em economizar energia? Em 2001, no tal apagão elétrico. Na ocasião, usamos um método de racionamento melhor, com multa. Na época, eu morava em Brasília. Gastava 1.200 quilowatts/hora por mês, passei para 400. E continuei vivendo da mesma forma, só com mais precauções: lembrar de apagar a luz, tirar a tomada, tomar banhos mais breves. Foi uma situação extrema, mas hoje aprendi: sei meus gastos de energia todo mês. Quem sabe agora o paulistano aprenderá o consumo consciente de água?

Qual é a maior agressão à água?

Poluição, sem dúvida. As metas do milênio estabelecidas pelas Nações Unidas em 2000, para serem cumpridas até 2015, previam reduzir à metade o número de pessoas sem acesso à água potável e ao saneamento improved, quer dizer, “melhorado”. Essa expressão foi escolhida propositalmente, pois à época não tínhamos elementos para avaliar os custos para oferecer saneamento para todos. Além da coleta e da disposição de resíduos, precisamos discutir o tratamento do esgoto. Aí realmente a água é agredida. Por exemplo, não podemos viver num ambiente urbano, como nesta região paulistana com um dos metros quadrados mais caros do Brasil, onde o sujeito abre a janela e se depara com o cheiro fétido do Pinheiros. É inadmissível.

Um dia a água valerá mais que o petróleo?

Já vale em certos lugares, como na Arábia Saudita. Ali eles dessalinizam a água do mar – e gastam uma nota, queimando petróleo para poder cultivar trigo no meio do deserto. Há substituto para o petróleo (fontes como a energia hidroelétrica e a nuclear), mas absolutamente nada substitui a água. É um valor capital. A água é muito generosa, pois nos ajuda a crescer: é elemento essencial para sermos cidadãos mais igualitários, pois aumenta nosso desenvolvimento, nossa produção de energia e de grãos. É fundamental para as necessidades essenciais humanas, para o desenvolvimento econômico, para a sustentabilidade ambiental e, certamente, para melhorar a qualidade de vida dos cidadãos.

O sr. se considera otimista ou pessimista?

Um otimista inveterado. Um dia, haverá água para todos, desde que sejamos suficientemente inteligentes para gerenciá-la. Há água na região metropolitana de São Paulo, mas contaminada e poluída. Logo, precisamos de gestão e tecnologia adequadas. Muitos ambientalistas criticam os engenheiros, vistos como “destruidores” da natureza. É a falsa ideia de que a tecnologia é má. Graças à tecnologia, nossa expectativa de vida saltou de 50 para 70, 80 anos. Quem, como Malthus, previu cataclismos, até agora deu com os burros n’água. Há, sim, diversas questões a resolver. E, para resolvê-las, acredito na tecnologia e, principalmente, no ser humano.

Roteiro Meteorológico no Museu Catavento (Fapesp)

19/03/2014

Agência FAPESP – A fim de marcar o Dia Mundial da Meteorologia, o museu Catavento Cultural e Educacional programou, para o dia 23 de março, um “Roteiro Meteorológico”, por meio do qual o visitante poderá saber um pouco mais sobre temas como efeito estufa, poluição atmosférica, (falta de) chuva e incidência de raios.

O roteiro inclui uma visita à estação medidora da Companhia Ambiental do Estado de São Paulo (Cetesb), situada no Parque Dom Pedro II, com entrada pelo pátio interno do Catavento. A seção Engenho conta com instalações como a “Fábrica de Raios” e o “Tornado de Água”, nos quais se explicam como se formam raios, tornados, tufões e furacões.

Ao final, os visitantes poderão conferir a exposição Momento Único, com fotos de raios feitas no Brasil.

A visitação ocorrerá em três horários (11h; 13h30 e 15h), na Praça São Vito, Parque Dom Pedro II, em São Paulo.

Mais informações sobre o museu: www.cataventocultural.org.br/home.

Desenvolvimento portuário gera progresso e vítimas no Brasil (IPS)

Inter Press Service – Reportagens
21/3/2014 – 11h00

por Mario Osava, da IPS

Brasil chica 629x472 Desenvolvimento portuário gera progresso e vítimas no Brasil

Parte do porto Ponta da Madeira, no nordeste do Brasil, de onde saem os navios carregados com o ferro de Carajás, incluídos os meganavios Valemax. Foto: Mario Osava/IPS

São Luís, Brasil, 21/3/2014 – “Somos vítimas do progresso”, lamenta Osmar Santos Coelho, conhecido como Santico. Sua comunidade pesqueira desapareceu, desalojada para a construção de um porto na baía de São Marcos, na parte ocidental da capital do Estado do Maranhão, São Luís, no Nordeste do país. O terminal marítimo de Ponta da Madeira, em operação desde 1986, fortificou a influência de sua proprietária, a mineradora Vale, na cidade de São Luís.

Por esse terminal são exportados atualmente mais de 110 milhões de toneladas anuais de minério de ferro, consolidando um corredor logístico decisivo para o desenvolvimento econômico local. Ali chegam os trens da companhia. A função primordial do porto é transportar a produção de Carajás, gigantesca província mineral da Amazônia oriental que converteu a Vale em líder mundial em ferro. Dali também sai boa parte da soja colhida no centro-norte do Brasil. Ao lado, uma unidade da Vale transforma em pelotas parte do minério.

Essas atividades geram milhares de empregos, especialmente em sua área de influência direta, Itaqui-Bacanga, um conjunto de 58 bairros no sudoeste da capital maranhense. Os jovens sonham com a transnacional Vale pela boa remuneração e por sua política de recursos humanos, herdada de sua longa vida como empresa pública (1942-1997), que assegura estabilidade aos seus trabalhadores. Um empregado “só é demitido se fizer muitas bobagens”, disse um executivo.

Além disso, a empresa multiplicou a oferta de empregos temporários na ampliação do porto e duplicação da ferrovia, para dobrar as exportações minerais a partir de 2018. Por esses e outros projetos locais, a economia do conjunto de bairros vizinhos está em auge, disse George Pereira, secretário da Associação Comunitária Itaqui-Bacanga (Acib). Entre outras iniciativas, estão sendo instaladas aqui três fábricas – de cimento, celulose e fertilizantes –, junto com uma central termoelétrica movida a carvão.

A 55 quilômetros ao sul, a Petrobras construirá, no município de Bacabeira, a Refinaria Premium I, que, quando for inaugurada em 2018, será a maior do Brasil. A obra será licitada em abril e em seu apogeu empregará 25 mil trabalhadores, segundo a companhia.

O auge de empregos ativa o consumo, o comércio e os serviços, “mas não é o desenvolvimento que queremos, com mais dinheiro no bolso, mas sem água para beber, por causa dos rios contaminados”, ressaltou Pereira. Faltam saneamento, água potável, transporte, professores e médicos, enquanto sobram violência, drogas e prostituição nos bairros, cuja população aumentou rapidamente, acrescentou, lembrando que já são cerca de 200 mil habitantes, e que serão mais com dois novos bairros em construção.

Diante dessa realidade, a Vale “faz boas ações, mas isoladas, sem programas transformadores de desenvolvimento territorial”, criticou Pereira. As prioridades são educação e saneamento, afirmou.

Ironicamente, a associação que critica e pressiona a Vale é sua criação. Surgiu por um investimento social da empresa, exigida pelo Banco Nacional de Desenvolvimento Econômico e Social (BNDES) como condição para financiar as unidades de pelotas. A Acib, dirigida por representantes dos cinco setores que compõem Itaqui-Bacanga, foi criada há dez anos para mobilizar a população em favor de um projeto de limpeza urbana. Seu funcionamento e sua sede, um prédio de dois andares, são financiados com contribuições da Vale, explicou Pereira.

Entre as numerosas ações sociais da companhia, algumas se destacam por seus efeitos, como a ampliação do Centro de Educação Profissional de Itaqui-Bacanga, uma escola do Serviço Nacional de Aprendizagem Industrial (Senai). Este ano o centro dá educação técnica a dez mil alunos, o dobro de 2013, e cinco vezes mais do que em 2010, graças a 14 novas salas de aula e cinco laboratórios.

Uma associação semelhante entre Vale e Senai sustenta outros três centros ao longo do corredor entre Carajás e São Luís, disse à IPS a gerente de recursos humanos da mineradora, Janaína Pinheiro. Em 2013, o Senai capacitou 65 mil alunos no Maranhão, contra dez mil há uma década, disse à IPS seu diretor estadual, Marco Moura.

Em São Luís, a industrialização se concentra em torno dos portos da baía de São Marcos. Vizinho de Ponta da Madeira, opera, desde a década de 1970, Itaqui, um porto estatal para todo tipo de carga, que este ano acrescentará seu Terminal de Grãos para exportação de soja e milho produzidos nas novas fronteiras agrícolas do centro e do norte.

Alguns novos portos brasileiros nasceram com vocação de polos industriais. Assim ocorre com Suape e Pecém, respectivamente em Pernambuco e Ceará, planejados como complexos portuário-industriais e que impulsionam a economia local desde a última década. Em ambos há refinarias da Petrobras, além de uma unidade petroquímica e oito estaleiros, isto em Suape, e uma siderúrgica e centrais elétricas, em Pecém. Além disso, muitas empresas estão se instalando nas imensas zonas industriais atrás dos portos.

Brasil chica 2 Desenvolvimento portuário gera progresso e vítimas no Brasil

Osmar Santos Coelho, o Santico, diante da cabana onde guarda suas redes e outros equipamentos de pesca, em uma estreita praia que escapou da invasão do terminal portuário da mineradora Vale, em São Luis, Estado do Maranhão, na região Nordeste do Brasil. Foto: Mario Osava/IPS

Em São Luís, os portos surgiram alheios a essa onda de industrialização, por ficarem na região brasileira mais atrasada em relação a outros polos do Nordeste. A grande profundidade de suas águas, apta para navios de grande calado, sua localização voltada para o Atlântico norte e a conexão com a ferrovia Carajás foram vantagens para instalar o terminal.

Mas, por trás há vítimas, recordou Santico à IPS. Por exemplo, “entre 80 e cem” pescadores artesanais de Boqueirão, que foram expulsos de sua praia e reassentados em diferentes bairros. Alguns anos depois, muitos deles voltaram a pescar em São Marcos, apesar da proibição, e usam como base uma ponta de praia não ocupada pelo porto, explicou.

“Não tínhamos outro ofício e passávamos fome”, afirmou Santico. Terminaram por construir nesse lugar oito precárias cabanas de paus e folha de palmeira, umas poucas para residência e outras apenas para as tralhas de pesca. Santico, de 73 anos, tem sua casa em um bairro próximo e uma cabana na praia, para suas esporádicas pescas noturnas.

“Os peixes quase acabaram, restaram uns poucos camarões”, depois da construção de novos molhes, contou Santico. Por isso negociaram com a Vale, três anos atrás, conseguiram uma canasta de alimentos para 52 pescadores, de entre US$ 308 e US$ 725 dólares. “Com isso sobrevivemos”, reconheceu.

Milhares de outras famílias também foram desalojadas para a construção de atracadouros e instalações portuárias. Itaqui, na verdade, era o nome de um bairro desaparecido. E agora mais bairros estão ameaçados pela zona industrial, em construção à margem da estrada. Vila Maranhão teme sua extinção, cercada pela ferrovia e pelo novo polo, e a poucos quilômetros de uma central elétrica a carvão, uma grande indústria de alumínio e depósitos minerais.

“Ainda não há nada oficial, mas é questão de tempo nos tirarem daqui”, afirmou Lamartine de Moura, diretor da Acib, de 71 anos, 23 deles em Vila Maranhão. “Se eles não nos tirarem de nossas casas, a contaminação o fará”, disse à IPS. Um estudo universitário identificou metais pesados no riacho local, e o pó mineral do ar suja as casas e dissemina enfermidades respiratórias, explicou.

Navios muito grandes para a China

Os 23 metros de profundidade de Ponta da Madeira permitem fundear os Valemax, os maiores navios mineraleiros do mundo, com capacidade para 400 mil toneladas, em operação desde 2011. A China, principal cliente do ferro da Vale, seria o principal destino dessas megaembarcações, mas as proibiu em seus portos por excesso de tamanho. Isso apesar de um estaleiro chinês estar construindo 12 desses navios para o líder mundial em extração de ferro. A Coreia fábrica outros sete.

A meta da Vale é ter 35 Valemax, 16 alugados. Sua grande escala barateia custos e ajuda a competir com a Austrália, outra potência em mineração e mais perto do grande mercado asiático. Além disso, esses navios gigantes reduzem em 35% a emissão de gases-estufa para cada tonelada de minério transportado, destaca a segunda transnacional da mineração do mundo.

Para enfrentar a proibição chinesa, a Vale usa estações de transferência nas Filipinas e logo contará com um centro de distribuição na Malásia, de transbordo para navios menores. Dois portos brasileiros e seis estrangeiros recebem os Valemax atualmente. Envolverde/IPS

(IPS)

Manifestações neozapatistas (Fapesp)

Estudo examina as formas de interação entre os net-ativistas, as redes digitais e a territorialidade

JULIANA SAYURI | Edição 217 – Março de 2014

A máscara Anonymus  foi um dos símbolos  das manifestações do exterior usados pelos  que não queriam  mostrar o rosto

A máscara Anonymus foi um dos símbolos das manifestações do exterior usados pelos que não queriam mostrar o rosto

Muitos textos foram escritos sobre as passeatas de junho de 2013 no Brasil, especialmente em relação ao teor político, à legitimidade e à importância histórica dessas manifestações. Enquanto alguns intelectuais foram surpreendidos por sua dimensão, outros viram nas ruas uma expressão altamente simbólica das articulações do “net-ativismo”. Esta é, a propósito, a expressão-chave de um estudo sob o tema apoiado pela FAPESP,Net-ativismo: ações colaborativas em redes digitais, liderado pelo sociólogo italiano Massimo Di Felice, coordenador do Centro de Pesquisa Atopos da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP).

O trabalho, impulsionado pelo caráter internacional do net-ativismo, teve a colaboração de três sociólogos europeus: Michel Maffesoli, fundador e diretor do Centro de Estudos sobre o Atual e o Cotidiano da Universidade Sorbonne, em Paris; José Bragança de Miranda, do Centro de Estudos de Comunicação e Linguagem da Universidade Nova de Lisboa, e Alberto Abruzzese, do Núcleo Italiano de Midialogia da Universidade Livre de Língua e Comunicação, em Milão. Os três, aliás, e mais Pierre Levy, participaram de 6 a 8 de novembro passado do congresso internacional sobre “Net-ativismo, redes digitais e novas práticas de democracia”, na ECA-USP, cujos textos principais deverão estar reunidos em livro no final deste semestre.

Enquanto debatiam a montagem de  um observatório internacional sobre o net-ativismo, Di Felice e colegas encontraram numerosas analogias, especialmente de forma, entre os novos modelos de participação nas redes digitais, entre 2011 e 2013. “Embora  fossem surpreendentemente parecidas as  reivindicações”, observa ele, os pesquisadores optaram por analisar as características das formas de interação entre os ativistas, as redes digitais e a territorialidade. Ou seja, em vez das motivações e dos argumentos políticos, “o que norteou a pesquisa foi a descrição das interacões nessas manifestacões e a amplitude de sua localização”, acrescenta.

Protesto no Congresso Nacional  em junho de 2013 contra gastos na Copa, corrupção e por melhorias no transporte, na saúde e educação

Protesto no Congresso Nacional em junho de 2013 contra gastos na Copa, corrupção e por melhorias no transporte, na saúde e educação

Antes, portanto, da efervescência política e cultural estimulada por diversas mobilizações nas redes e nas ruas, dentro e fora do eixo Rio-São Paulo, o sociólogo já tinha dado seus primeiros passos na investigação do potencial do ativismo articulado nas redes. “O início do estudo foi inspirado por meus percursos, que me levaram a investigar na década passada as formas de conflito na América Latina”, conta Di Felice. A princípio, o pesquisador se dedicou ao movimento zapatista, no México de 1994, que inaugurou o primeiro modelo de protesto global com cartas espalhadas na internet. “Em qualquer canto do mundo, todos os movimentos atuais encontram o zapa-tismo como movimento inspirador. Foi um marco. O rosto coberto dos black blocs e dos Anonymous vem dos zapatistas, assim como a recusa da luta pelo poder, a aversão às tradicionais bandeiras ideológicas e aos partidos políticos de qualquer tendência e a possibilidade de criar uma comunicação própria, como alternativa às mídias oficiais. Esses elementos já se encontravam todos no zapatismo”, diz.

A pesquisa de Di Felice identificou três momentos distintos para o ativismo digi-tal. Primeiro, na década de 1990, o desen-volvimento de movimentos internacionais temáticos, com a difusão de ativismos em redes centralizadas, e de movimentos teóricos da estética na Austrália e na Índia, que pretendiam criar estratégias de ações com os chamados tactical media. Sua atuação se dava nas artes e na política com a busca de  táticas inovadoras de intervenções, com rápida ramificação internacional. Um exemplo é o surgimento dos protestos digitais do movimento Cyberpunk.

No segundo momento, ainda na década de 1990 e começo dos anos 2000, Di Felice assistiu aos desdobramentos da fase indígena e cibernética que encontrou expressão na luta zapatista e inspirou o Fórum Social Mundial. Assim vieram as primeiras práticas de protesto midiático internacional, em cidades como Seattle (em 1999), Praga (em 2000) e Davos (em 2001), marcando a experimentação das primeiras formas de conflitualidade, levando, com a internet, a ação social para dimensões planetárias.

Protestos em Seattle, em novembro de 1999

Protestos em Seattle, em novembro de 1999

Por fim, o terceiro momento ocorreu a partir de 2000 e alcança o presente. Nele, o pesquisador destaca um novo ativismo, que, em muitos casos, provocou processos radicais de transformação – como no caso da Primavera Árabe, com a derrocada de regimes no Egito de Hosni Mubarak, na Líbia de Muamar Kadafi e na Tunísia de Zine el-Abdine Ben Ali – e o surgimento de novas movimentos, como o 5 Estrelas-M5S, na Itália (2009), o #YoSoy132, no México (2012), os indignados do M15, na Espanha (2011), e o M12M de Portugal (2011). Sem esquecer o Occupy Wall Street, nos Estados Unidos (2011), e as jornadas de junho, no Brasil (2013).

Mas o que mudou para propiciar o boom de movimentos tão amplos e diversos? Para Di Felice, a chave está na passagem da web 1.0 para a web 2.0. Antes, a internet era uma rede de computadores conectados por modems e linhas telefônicas, permitindo apenas a troca de textos e de imagens. Eram os tempos das primeiras noções de cibercultura. Na década de 1990, o ciberativismo era considerado uma modalidade de ação política direta de base, marcada pela difusão de informações na rede a fim de boicotar o consumo e realizar ocupações e protestos relacionados aos direitos humanos, civis e ecológicos.

Agora, com o avanço tecnológico e o advento das redes sociais digitais, a internet se tornou uma plataforma plural e conflitiva, com mobilidade e agilidade, facilitando o intercâmbio e o compartilhamento não só de textos e de imagens, mas de outros formatos multimídia. É possível dialogar, criar redes temáticas, trocar conteúdos e buscar soluções de forma colaborativa em tempo real. De acordo com Di Felice, o net-ativismo corresponde a uma forma intensiva de interação na rede, entre indivíduos, territórios e tecnologias digitais. Ao contrário de outros tempos, marcados pela oposição à globalização, esse novo ativismo sinaliza uma identidade cidadã global, possível e presente nas redes digitais, com pautas reivindicatórias direcionadas à democracia, à equidade e à sustentabilidade. “A internet é uma construção coletiva. É uma rede inteligente”, define Di Felice, em entrevista realizada por Skype, conectando Roma-São Paulo.

Na mesma linha, Henrique Antoun, autor de A internet e a rua (Sulina, 2013) e coordenador do Cibercult, laboratório da Escola de Comunicação da Universidade Federal do Rio de Janeiro (UFRJ), analisa: “As redes digitais permitem que as populações experimentem as relações socioglobais e locais de modo lúdico e possam propor novas formas de trabalho, projetos autônomos e novos modos de coletividade e governança. Com o ciberativismo, a massa estúpida se fez uma multidão inteligente, fazendo o pensamento guiar as ações coletivas e submetendo a centralidade da estratégia ao descentramento das táticas”.

Movimento Occupy Wall Street, em setembro de 2011

Movimento Occupy Wall Street, em setembro de 2011

Nesse contexto, o estudo liderado por Di Felice, além de construir uma tipologia da ação net-ativista que caracteriza a qualidade da ação em frontal, imersiva, dialógica e reticular, indicou três características para a definição de net-ativismo. A primeira se refere à singular ecologia das ações que acontecem ao mesmo tempo nas ruas e nas redes digitais. “É uma nova ecologia, muito complexa, agregando dispositivos de conectividade, cidades, corpos e informacões digitais (Big data), por meio de diferentes tipos de atores e de interações. Não há mais distinção entre o mundo ‘real’ e o mundo ‘virtual’”, diz o pesquisador. “Isso inaugura uma nova forma de cidadania que supera a esfera pública, antes possibilitada pela mídia da opinião ‘publicada’, ou seja, pela opinião difundida na esfera pública midiática. Agora todo cidadão pode produzir e compartilhar informações.” Basta pensar nas últimas manifestações embaladas pela hashtag #vemprarua. O manifestante está presente fisicamente na rua e, ao mesmo tempo, pode registrar e postar fotos no Facebook comentando o protesto em tempo real e expandindo assim a localidade de sua atuação. Pode gravar e postar vídeos no YouTube, mostrando realidades diferentes das propagadas pela mídia tradicional. E pode também postar no Twitter, narrando impressões pessoais sobre o que acontece na rua e na rede.

Se não há mais contraposição aparente entre o universo “real” e o “virtual”, o que dizer da diferença entre a esfera pública e o espaço privado? “Atualmente não habitamos só o território, mas também redes inteligentes”, explica. “Esse processo que começou com a eletricidade amplia-se quantitativamente com as redes digitais e os dispositivos de conexão móveis. A conexão ubíqua aos fluxos informativos mediante dispositivos me permitem alterar a minha situação social e a minha experiência da localidade. Onde estamos e onde agimos é hoje cada vez mais o resultado de relações em redes ecológicas complexas”, comenta Di Felice.

A segunda característica do net-ativismo seria a valorização do anonimato (influenciada pelo movimento zapatista) e a recusa de uma identidade política ideológica, sintetizada num líder (recusa reverberada nos protestos no Brasil, por exemplo). Não há um centro difusor de ordens e ideias, mas uma relação horizontal entre os net-ativistas. A terceira característica seria a recusa da institucionalização, expressa na aversão a partidos políticos de quaisquer orientações, o que diferencia essencialmente os movimentos sociais nas redes digitais e os movimentos sociais modernos. “O ativismo digital possibilita a superação da velha ideia de militante, dos ativos nos grêmios universitários e nos partidos políticos. Isso se superou, pois todos nós podemos atuar nas redes digitais. Na rede estão presentes as atividades culturais, os estudos, as relações sociais. Assim, temos uma nova forma de democracia, em que o cidadão é chamado a ser cidadão  ativo todos os dias – e não só na participação com um voto a cada quatro anos”, diz Di Felice.

Mas o net-ativismo está estritamente ligado ao #vemprarua? Isto é, para se realizar, é preciso estar de corpo e alma presente nas manifestações? Talvez não. “O net-ativismo não pode ser pensado apenas na dimensão do protesto ou do conflito. Há redes de cidadãos pensando soluções para diversos impasses de nosso tempo”, observa Di Felice. “A passeata é apenas a expressão visível das redes. Na verdade, o aspecto mais importante do ativismo em rede é o acesso às informações e os debates para a solução direta dos problemas através da criação de redes de inovação.” Na visão do pesquisador, “aí temos um importante papel das universidades. Elas têm a obrigação de estar nas redes e participar desse processo histórico que marca a passagem da sociedade do espetáculo para a sociedade das redes”, conclui.

Projeto
Net-ativismo: ações colaborativas e novas formas de participação em redes digitais (nº 2010/50999-6); Modalidade Auxílio à Pesquisa – Regular; Pesquisadorresponsável Massimo Di Felice; Investimento R$ 30.267,23 (FAPESP).

Artigo científico
DI FELICE, M. Ser redes: o formismo digital dos movimentos net-ativistasRevista Matrizes – USP. v. 7, n. 2, p. 49-71. 2013.

Dá para beber essa água? (Agência Pública)

Ambiente
21/3/2014 – 12h23

por Anne Vigna, para a Agência Pública

Agrotóxicos, metais pesados e substâncias que imitam hormônios podem estar na água que chega à torneira da sua casa ou na mineral, vendida em garrafões, restaurantes e supermercados. Saiba por que nenhuma das duas é totalmente segura

Pesquisar sobre a água não é fácil. Não existem leis ou regras que definam um critério uniforme para a divulgação de dados. Esperei mais de 15 dias, por exemplo, para receber as análises de qualidade para o município de São Paulo, segundo as normas da Portaria 2.914/2011, do Ministério da Saúde. Os mesmos resultados para o Rio de Janeiroestão disponíveis para consulta de qualquer pessoa no site da Companhia Estadual de Águas e Esgotos (Cedae), responsável pelo tratamento de água na cidade. Não se sabe por que uma das concessionárias fornece a informação publicamente, enquanto a outra não diz nada sobre o assunto.

Depois de muita espera e de uma dezena de e-mails trocados, recebi quase todas as análises da capital paulista feitas pela Companhia de Saneamento Básico do Estado de São Paulo (Sabesp), encarregada da água e do saneamento na metrópole. No primeiro envio, porém, faltavam vários dos parâmetros considerados pela portaria do Ministério da Saúde. Por quê? Não há como saber. Depois de insistir mais, recebi todos os dados (aquiaquiaqui e aqui).

Como primeiro resultado dessa investigação sobre a qualidade da água, posso dizer que, em São Paulo e no Rio de Janeiro, dá para beber a água da torneira sem correr o risco de ser vítima de uma contaminação microbiológica. Ninguém vai passar mal, nem ter diarreia. É preciso, no entanto, verificar se a caixa d’água do imóvel está limpa. Tanto em um prédio como em uma casa, ela precisa ser lavada a cada seis meses. Nos condomínios, o síndico é o responsável por cuidar da execução do serviço. Nas residências, o proprietário tem que fazer o trabalho ou contratar uma empresa para isso. Se a limpeza estiver em dia, tudo bem.

A água usada para abastecimento público passa por um processo de tratamento e desinfecção mecânico e químico, que elimina toda a poluição microbiológica (coliformes totais – grupos de bactérias associadas à decomposição da matéria orgânica – e Escherichia coli). “A água da torneira é controlada várias vezes por dia, para se ter certeza de que está sempre dentro dos padrões de qualidade”, afirma Jorge Briard, diretor de produção de água da Cedae, no Rio. Mas o fato de se poder beber a água da torneira não quer dizer que o líquido não esteja poluído – e que não possa causar problemas de saúde no longo prazo.

Regras “adaptadas à realidade brasileira”

Na água do abastecimento público existem vários tipos de poluentes tóxicos. Estudos científicos associam o consumo de muitos deles ao aumento da incidência de câncer na população, enquanto outros têm efeitos ainda pouco conhecidos na saúde. Estão presentes na água que bebemos substâncias químicas como antimônio, arsênio, bário, cádmio, chumbo, cianeto, mercúrio, nitratos, triclorobenzeno, diclorometano; agrotóxicos como atrazina, DDT, trifluralina, endrin e simazina; e desinfetantes como cloro, alumínio ou amônia.

A portaria do Ministério da Saúde controla os níveis de 15 produtos químicos inorgânicos (metais pesados), de 15 produtos químicos orgânicos (solventes), de sete produtos químicos que provêm da desinfecção domiciliar e de 27 tipos de agrotóxicos presentes na água. Na primeira norma de potabilidade da água do Brasil, a Portaria 56/1977, havia apenas 12 tipos de agrotóxicos, 10 produtos químicos inorgânicos (metais pesados) e nenhum produto químico orgânico (solventes), nem produtos químicos secundários da desinfecção domiciliar.

sabesp 033 600x400 Dá para beber essa água?

Tanques usados nas quatro fases do processo de tratamento de água da Estação do Guaraú, em São Paulo: coagulação, floculação, decantação e filtração. Foto: Anne Vigna

A mudança reflete a crescente poluição da indústria, que utiliza metais pesados e solventes; do setor agrícola, que usa agrotóxicos e fertilizantes; e de todos nós, que limpamos a casa com cada vez mais produtos químicos. A assessoria de comunicação do Ministério da Saúde afirma que as substâncias que hoje estão na Portaria 2.914/2011 foram escolhidas a partir “dos avanços do conhecimento técnico-científico, das experiências internacionais e das recomendações da Organização Mundial da Saúde (OMS, 2004), adaptadas à realidade brasileira”.

O último trecho da resposta do ministério, “adaptadas à realidade brasileira”, permite entender a diferença entre os agrotóxicos e contaminantes inorgânicos escolhidos pela Organização Mundial da Saúde (OMS) e os listados na portaria brasileira. A OMS inclui um número muito maior de produtos químicos . Em um dossiê especial sobre agrotóxicos publicado em 2012, a Associação Brasileira de Saúde Coletiva (Abrasco) questiona essa discrepância: “Por que monitorar menos de 10% dos ingredientes ativos oficialmente registrados no país?” O ingrediente ativo, ou princípio ativo, é uma substância que tem algum tipo de efeito em organismos vivos.

Um exemplo é a bentazona. Considerada pela OMS como um poluente da água, a substância não aparece na portaria do Ministério da Saúde. Na bula de agrotóxicos que a contêm, como o Basagran, a bentazona é descrita como “um agroquímico da classe toxicológica I – extremamente tóxico e nocivo por ingestão”. Como herbicida, é muito usada nas culturas de soja, arroz, feijão, milho e trigo. E o que isso tem a ver com a água? Os próprios fabricantes dão a entender que, se for mal utilizada, a bentazona pode causar efeitos danosos sobre o ambiente aquático. “[O produto] é perigoso para o meio ambiente por ser altamente móvel, apresentando alto potencial de deslocamento no solo e podendo atingir principalmente as águas subterrâneas. Possui ainda a característica de ser altamente persistente no meio ambiente, ou seja, de difícil degradação”, diz o texto.

Outro exemplo: um estudo de 2009 sobre a contaminação de mananciais hídricos, liderado pelo pesquisador Diecson Ruy Orsolin da Silva, da Universidade Federal de Pelotas, monitorou a ocorrência de agrotóxicos em águas superficiais de sete regiões do sul do Brasil, associadas ao cultivo de arroz na safra 2007/2008. De todos os produtos detectados – clomazona, quincloraque, penoxsulam, imazetapir, imazapique, carbofurano, 3-hidróxido-carbofurano, fipronil e tebuconazol – somente o carbofurano é controlado pela portaria. Isso mostra que muitos dos agrotóxicos utilizados, e que estão presentes nos meios aquáticos no país, não são fiscalizados pelas empresas de tratamento de água. Elas não são obrigadas pelo Ministério da Saúde a fazer o controle.

Em São Paulo e no Rio, os níveis dos produtos químicos listados na portaria estão dentro dos limites permitidos. Na verdade, os valores de São Paulo são muitos melhores do que os do Rio. Isso é uma boa notícia? Sim e não. “Os processos de transformação química quebram as moléculas tóxicas, fazendo com que desapareçam. Essa manipulação da água cria outros compostos ou resíduos desconhecidos. Ninguém procura por eles e evidentemente não estão na portaria. Hoje ninguém sabe quais são os efeitos dessas moléculas”, diz Fabrice Nicolino, jornalista francês especializado em meio ambiente. Mesmo concentrações muito baixas de algumas substâncias podem ser perigosas.

A polêmica do alumínio

Como se tiram os poluentes da água? Tudo começa com um processo chamado coagulação. Nessa fase, são adicionados sulfato de alumínio e cloreto férrico, para agregar as partículas de sujeira presentes. O uso do sulfato de alumínio é muito polêmico no mundo todo. Ainda que não tenha sido provada uma relação direta entre esse produto químico e a doença de Alzheimer, vários cientistas europeus defendem que ele é responsável pelo aumento da incidência do problema nas últimas duas décadas.

Um estudo feito durante oito anos pelo Instituto Nacional Francês de Saúde e Pesquisa Médica (Inserm), em Bordeaux, no sul da França, concluiu que uma forte concentração de alumínio na água, bebida a vida toda, pode ser um fator de risco para o desenvolvimento de Alzheimer. Realizada por um dos centros de maior prestígio da França, a pesquisa causou – e continua a causar – muito barulho, tanto na imprensa quanto no mundo científico.

Também teve forte impacto um artigo científico dos pesquisadores Chris Exley, da Universidade Keele, e Margaret Esiri, da Universidade de Oxford – ambas no Reino Unido – publicado no Journal of Neurology, Neurosurgery and Psychiatry em 2006. Quando foi realizada a autópsia de Carole Cross, que morreu, aos 59 anos, de Alzheimer, observaram-se altas concentrações de alumínio no seu cérebro. Os autores relacionaram o achado a um acidente que atingiu a cidade de Camelford, na Inglaterra, onde Carole vivia em 1988. Na época, 20 toneladas de sulfato de alumínio foram depositadas por engano nas tubulações de água potável. Os pesquisadores não relacionam diretamente a presença do metal com a doença. Sabe-se, contudo, que o alumínio está ligado a alguns tipos de demência, e que Carole não tinha antecedentes familiares com doenças semelhantes.

Princípio da precaução

Faz um bom tempo que as empresas responsáveis pelo tratamento da água conhecem os perigos do alumínio. Em Paris, a substância deixou de ser usada nesse processo há mais de 20 anos. Adota-se o cloreto férrico. A prefeitura da capital francesa resolveu fazer a mudança pelo que é conhecido como princípio da precaução: se existem antecedentes ou experiências que sugiram um risco, não se espera que a ciência comprove isso. É melhor prevenir do que lidar com o problema depois.

Quando perguntei à Sabesp e à Cedae se achavam possível parar de usar o alumínio, a resposta foi clara. “Mas por quê? O produto funciona muito bem”, disse André Luis Gois Rodrigues, responsável pela qualidade da água na Sabesp. As duas empresas admitiram conhecer a polêmica. “Nada foi comprovado. O uso do alumínio é permitido pelo Ministério da Saúde e também pela OMS. Se um dia for demonstrado que há risco, com certeza deixaremos de usar”, explicou Jorge Briard, da Cedae. Além de ser barato, o sulfato de alumínio permite obter uma cor transparente, um pouquinho azul, bem bonitinha, semelhante à de um rio limpo. Por isso, é bem prático. Ninguém vai se queixar da cor da água.

sabesp 049 600x400 Dá para beber essa água?

Adicionam-se sulfato de alumínio, cloreto férrico ou outro coagulante à água. Nessa fase, a coagulação, as partículas de sujeira agregam-se. Foto: Anne Vigna

Vale lembrar que a água não é a única fonte de absorção do alumínio no corpo. Atualmente a substância encontra-se em altas concentrações na comida (nos legumes e especialmente nos aditivos alimentares, como conservantes, corantes e estabilizadores), nos cosméticos ou nos utensílios de cozinha. De acordo com a OMS, um adulto ingere cerca de 5 miligramas de alumínio por dia apenas da comida. Para a organização, os aditivos são a principal fonte de alumínio no corpo. Em comparação, a água traz um volume muito menor: em média 0,1 miligrama por litro, o que pode somar 0,3 miligrama se você bebe 3 litros por dia. Segundo a entidade, o alumínio na água representa só 4% do que um adulto absorve.

Essa relação também é válida para os agrotóxicos. É bem provável que, comendo legumes não-orgânicos, uma pessoa absorva uma quantidade muito maior desses produtos do que ao beber água. Fazer essa comparação é muito complicado, porque o jeito de contabilizar os agrotóxicos é diferente na comida e na água. Sabemos, porém, que os agrotóxicos são diretamente aplicados nas plantações, e as medições mostram que estão em proporção maior nos alimentos do que na água.

Por conta da grande utilização de medicamentos na criação de animais hoje, os cientistas reconhecem que a dose diária de absorção de antibióticos e hormônios de crescimento é mais importante pela comida do que pela água. O professor Wilson Jardim, da Unicamp, explica, no entanto, que isso não muda o fato de que, mesmo em doses pequenas, os contaminantes presentes na água possam ter um efeito negativo na saúde.

A saída é a garrafinha?

Seria então melhor para a saúde beber água engarrafada, que chega a custar 800 vezes mais do que a água da torneira? A resposta, de novo, não é simples. Em tese, a água envasada tem melhor qualidade por ser subterrânea, o que oferece uma proteção natural contra contaminação. Mas encontrar informações sobre a qualidade da água mineral também é muito complicado no Brasil. A Associação Brasileira de Indústria de Água Mineral (Abinam), que representa as envasadoras da água, negou os pedidos de entrevista para esta reportagem. A comunicação também não é muito aberta do lado das autoridades.

Na verdade, não há como ter acesso à documentação sobre a qualidade da água engarrafada. Para obter a lavraria e a renovação da concessão, uma empresa de água mineral recebe, a cada três anos, a visita dos funcionários do Laboratório de Análises Minerais (Lamin) da Companhia de Pesquisa de Recursos Minerais (CPRM), um órgão federal. Os resultados das análises são comunicados à empresa e ao Departamento Nacional de Produção Mineral (DNPM), responsável pela água mineral no país, mas não ficam disponíveis para o público. Por quê? Não recebi resposta do DNPM.

Essas análises teriam que ser feitas seguindo a resolução RDC 274/2005, da Agência Nacional de Vigilância Sanitária (Anvisa). A norma inclui agrotóxicos e é bem parecida com a portaria que regula a água da torneira. Além de os dados não estarem disponíveis publicamente, outro problema é a forma de fiscalização das fontes. O Lamin do Rio faz análises no país todo, enquanto o de São Paulo concentra-se no estado de São Paulo, onde fica a maior concentração de concessões de água mineral do país. Até o início de 2013, o Lamin do Rio não tinha os equipamentos necessários para fazer as análises dos agrotóxicos, e só no fim de 2014 o Lamin de São Paulo deverá fazer esse trabalho. Ou seja, a resolução levou oito anos para começar a ter todos os seus itens verificados.

Isso não acontece com a água da torneira, que é muito mais controlada. Primeiro, porque ela precisa chegar a toda a população. Segundo, porque a água bruta, a partir da qual se produz a água potável, vem em geral da superfície e está mais sujeita a todo tipo de contaminação. Isso requer atenção constante e análises mais frequentes. A água mineral vem de lençóis subterrâneos, onde fica confinada. É menos poluída do que a que vem dos rios e não recebe nenhum tratamento químico. Depois de um ano fazendo as análises de agrotóxicos, o Lamin do Rio disse que não encontrou esses produtos nas águas minerais de todo o país, com exceção de São Paulo (onde ainda não fazem essa análise e onde está a maior parte das fontes). Mas não tive acesso aos documentos que comprovariam isso.

Ao procurar informações adicionais, descobri que, em São Paulo, a Companhia de Tecnologia de Saneamento Ambiental (Cetesb) iniciou, em 2011, o monitoramento de lençóis subterrâneos do estado em relação à presença de contaminantes e à atividade estrogênica – ou seja, à capacidade de algumas substâncias agirem no sistema reprodutivo humano, antecipando, por exemplo, a puberdade nas meninas ou produzindo esterilidade nos homens. “Não foi detectada atividade estrogênica na maioria dos 33 pontos de amostragem, selecionados em função de sua maior vulnerabilidade. Apenas três locais apresentaram atividade estrogênica baixa. Isso significa que não há potencial de preocupação para a saúde humana se a água for consumida”, explica Gilson Alves Quinaglia, gerente do setor de análises toxicológicas da Cetesb.

sabesp 014 600x400 Dá para beber essa água?

Tanques com cloro e outros produtos químicos usados para tornar a água potável. Foto: Anne Vigna

Agrotóxicos e medicamentos

As empresas de água mineral usam na publicidade o argumento de que a água subterrânea está confinada e, consequentemente, fica protegida da poluição moderna. Seria bom se fosse assim, mas existem estudos que comprovam que a poluição pode chegar a todos os lugares – até mesmo ao subsolo.

No ano passado, uma pesquisa encomendada a laboratórios independentes pelas ONGs 60 Milhões de Consumidores e Fundação Danielle Mitterrand-France Libertés, na França, encontrou tanto agrotóxicos como medicamentos na água engarrafada. “Foi uma surpresa, porque mostra que até a água mineral está poluída. Achamos um agrotóxico, a atrazina, usado no cultivo do milho, que está proibido no país há mais de dez anos. Essa substância tem a propriedade de ser muito persistente no meio ambiente. O que significa que, em dez anos, chega ao subsolo”, explica Thomas Laurenceau, da 60 Milhões de Consumidores.

Outra grande surpresa foi detectar o tamoxifeno, um hormônio usado no tratamento de câncer de mama, nas amostras analisadas. “Os níveis encontrados são muito baixos, mas a presença mostra até que ponto nosso meio ambiente está poluído”, acrescenta Emmanuel Poilane, presidente da France Libertés.

A contaminação não é causada pelas envasadoras de água, e sim pela deterioração geral do meio ambiente. “As empresas de água mineral sempre estão tentando proteger as fontes. Não depredam o meio ambiente. Não é conveniente para elas”, afirma Doralice Assirati, do DNPM. Na Europa e nos Estados Unidos, algumas delas foram obrigadas a fechar explorações, por conta da poluição detectada.

Uma das contaminações possíveis no Brasil seria pelas fossas sépticas, que, às vezes, são malfeitas. No estado de São Paulo, muitas envasadoras de água ficam em áreas urbanas, porque a proximidade do consumidor ajuda o negócio a ser mais lucrativo. Mas, na verdade, o maior problema das águas envasadas não vem do líquido, mas do contêiner de plástico. Se as garrafas e os garrafões fossem de vidro, poderíamos confiar mais na qualidade. Só que os problemas causados pelo uso do plástico já são bastante conhecidos e estudados.

PET, PP, PE, PVC, PC

O mundo dos plásticos é complicado. Aproximadamente 75% da água envasada no Brasil está em garrafões. “Eles podem ser confeccionados em todo e qualquer plástico – PVC, policarbonato (PC), polipropileno (PP) e polietileno (PE) –, desde que obedeçam aos regulamentos da Anvisa para embalagens em contato com alimentos”, afirma Carla Castilho, assessora técnica do Instituto Nacional do Plástico. Isso na teoria. Na prática, a indústria fabrica 90% dos garrafões em polipropileno e o restante, em politereftalato de etileno (PET) e policarbonato, segundo o Instituto Nacional do Plástico. O polipropileno tem custo baixo para o produtor. Isso é uma boa notícia, porque é o plástico menos propenso a ter Bisfenol A (BPA), uma substância química perigosa usada na produção.

A Anvisa autoriza o uso de BPA em materiais plásticos destinados ao contato com alimentos e estabelece, como limite seguro de migração, 0,6 miligrama por quilo de alimento e 0,6 miligrama por litro de bebida. A agência limita-se a estabelecer a quantidade de BPA que pode migrar de um produto para o alimento, não a quantidade máxima presente no produto.

Vários países europeus, como França e Dinamarca, estão proibindo o BPA nas embalagens de alimentos. Isso não tem relação com o nível de migração, e sim com os materiais onde está presente o BPA, como o policarbonato e as resinas epóxi em todas as latas de alumínio. É alta a probabilidade de que a Autoridade Europeia de Segurança Alimentar (EFSA) reduza o nível de migração de 0,5 miligrama por quilo por dia para até 0,005 miligrama por quilo por dia.

No Brasil, somente as embalagens da água mineral Indaiá, do Grupo Edson Queiroz, um dos maiores do país, são feitas de policarbonato. Técnicos da empresa enviaram análises para nos convencer de que não há nenhum problema com os recipientes em policarbonato. Os resultados do laboratório, de fato, são ótimos. Só que os problemas causados pelos plásticos não acontecem quando as embalagens são novas, mas com a manutenção, a exposição ao calor e as múltiplas lavagens dos garrafões, que podem ser usados durante três anos. “Não podemos nos responsabilizar pela manutenção. Não depende da gente”, disse Francisco Sales, gerente industrial do grupo Edson Queiroz. Não, mas também ninguém pode dizer que a degradação dos plásticos não traz problemas para o consumidor. A degradação do PET, material das garrafas descartáveis, não é algo com que se preocupar se o recipiente for usado uma vez só.

Estudos científicos mostram ainda que, com o tempo, mesmo a qualidade da água mineral se degrada. Em 2009, uma pesquisa realizada por Martin Wagner e Jörg Oehlman, da Universidade de Frankfurt, na Alemanha, detectou interferentes endócrinos – isto é, substâncias artificiais que agem no nosso corpo por serem parecidas com hormônios – em 12 das 20 amostras de água mineral analisadas. Os dois cientistas também inseriram moluscos em garrafas PET e de vidro e notaram que, nos recipientes plásticos, houve reprodução em uma velocidade maior. Isso também indica a presença desses contaminantes, que podem ter se desprendido do plástico das garrafas. As indústrias do plástico e da água contestaram os resultados.

2014 03 11 10.06.44 600x450 Dá para beber essa água?

Caminhão com garrafões expostos ao sol no Catumbi, Rio: calor pode soltar componentes do plástico na água. Foto: Anne Vigna

Praticamente na mesma época, as pesquisadoras Barbara Pinto e Daniela Reali, da Universidade de Pisa, na Itália, detectaram uma contaminação semelhante, mas em menor nível, em amostras de água mineral italiana. Elas não souberam explicar a origem dos interferentes que apareceram em 10% das garrafas. Isso levou vários cientistas a pedir para a indústria do plástico que revelasse os segredos de fabricação, para entender o que acontece em uma água que fica um certo tempo nesses recipientes. A resposta foi o silêncio.

Devido à pouca colaboração da indústria, os problemas causados pelos ftalatos, outros produtos químicos usados no plástico, ainda são pouco conhecidos e estudados. Tanto os ftalatos quanto o BPA estão presentes em praticamente todo o plástico que há nas nossas casas. Os ftalatos são usados na fabricação de acessórios domésticos (piso, papel de parede), produtos infantis (mamadeiras, brinquedos, colchonetes para troca de fraldas, mordedores), embalagens (filme transparente, garrafas descartáveis) e até em utensílios médicos (cateteres, bolsas de sangue e soro). O BPA está nos equipamentos esportivos, em dispositivos médicos e odontológicos, produtos para obturação dentária e selantes, lentes para os olhos, todos os produtos com PVC, e policarbonatos, CDs e DVDs, eletrodomésticos, embalagens de plástico duras, jarras de água em plástico duro e latas de alumínio.

“Existem na vida janelas de exposição do BPA mais problemáticas do que outras. As crianças são mais expostas do que um adulto. Também ocorre maior migração de produtos químicos para a comida ou a água com o calor”, diz o pesquisador Wilson Jardim, da Unicamp. Ou seja, ainda falta muita informação sobre o perigo dos produtos e a toxicidade dos que já estão no meio ambiente. Hoje, temos consciência do perigo de substâncias que a geração anterior à nossa usava de maneira regular, como o DDT. Mas, como acontece agora, a indústria ou não informava ou negava o problema da contaminação.

Qual água é melhor?

É impossível saber se a água envasada é de melhor qualidade do que a água da torneira, pois há muito pouca informação sobre o uso de recipientes plásticos. A água tratada também tem poluentes em um nível pouco conhecido, mas com certeza menor do que o da comida não orgânica. A grande diferença entre as duas é que a água envasada traz ainda mais problemas para o meio ambiente, pelo fato de gerar lixo, aumentar as emissões de carbono e envolver consumo de energia na sua produção.

Como melhorar a água da torneira? (Veja o infográfico animado aqui.)

Parece que o único caminho para salvar a água potável é o da cidadania. As melhores experiências para se obter uma qualidade de água razoável ocorrem quando os cidadãos participam da gestão da água, fiscalizando as empresas de tratamento e exigindo que as autoridades aumentem o orçamento para o recurso “água”.

Hoje, o monitoramento das concessionárias no Brasil é feito pelas agências de vigilância sanitária de cada estado. Mas até as empresas reconhecem que não há fiscalização. As autoridades não parecem ter vontade de aumentar o orçamento para saneamento, mesmo sabendo, há muitos anos, que isso é mais do que necessário para melhorar tanto a água e o meio ambiente quanto a saúde das pessoas.

Ainda é possível mudar as coisas. As soluções existem, só que custam caro. No mesmo estudo sobre a contaminação das garrafas de água com agrotóxicos e medicamentos, as ONGs foram para regiões mais poluídas da França (nem toda a França é como Paris), onde os agrotóxicos chegam a níveis bem acima do permitido pela legislação, há muitos anos. A poluição obrigou as autoridades a investir em tecnologia de ponta para melhorar a qualidade da água. Conseguiram. Entre essas novas tecnologias estão nanofiltração, ultrafiltração, osmose reversa e tratamento com raios ultravioleta solares. Mas, para que os impostos sirvam a essa causa, a mobilização das pessoas é obrigatória.

No Canadá, na Europa, no México ou na Bolívia, existem numerosos exemplos de como a população retomou o poder sobre a qualidade, o preço e, inclusive, a propriedade da água. Também é necessária a vontade política das autoridades para limitar o uso de produtos químicos no meio ambiente e aumentar o apoio à agricultura orgânica. E da ajuda de todos no momento das compras – um consumo consciente, que prefira produtos menos danosos ao meio ambiente, tanto na fabricação quanto na vida útil. Isso significa não trocar de celular a cada novo modelo ou deixar de beber três pequenas garrafas plásticas de água por dia.

Infografico 1 parte 1 Dá para beber essa água?

Infografico 1 parte 2 1 Dá para beber essa água?

Infografico 1 parte 3 Dá para beber essa água?

Infografico 1 parte 4 Dá para beber essa água?

Infografico 1 parte 5 Dá para beber essa água?

Infografico 1 parte 6 Dá para beber essa água?

* Publicado originalmente no site Agência Pública.

(Agência Pública)

Preso por ser jovem, pobre e usar boné (Envolverde)

Inter Press Service – Reportagens
19/3/2014 – 12h52

por Fabiana Frayssinet, da IPS

marcha Preso por ser jovem, pobre e usar boné

Cerca de 15 mil pessoas participaram, no dia 20 de novembro de 2013, da Marcha do Boné, na cidade argentina de Córdoba, denunciando a arbitrariedade policial contra os jovens, segundo sua aparência e condição. Foto: Cortesia do coletivo de Jovens por Nossos Direitos

Córdoba, Argentina, 19/3/2014 – Na província argentina de Córdoba, basta ser jovem, moreno, pobre e usar boné para ser detido como suspeito. A arbitrariedade policial se ampara no crime de “merodeo” (vadiagem), um instrumento de prevenção do crime que viola direitos constitucionais. José María Luque, conhecido como Bichi, perdeu a conta de quantas vezes foi detido pela polícia por essas características, em Córdoba, capital da província de mesmo nome. Residente em um bairro humilde, Luque, de 28 anos, foi detido pela primeira vez quando tinha 13 anos e voltava da escola com um amigo, vestido com uniforme escolar. Ficou detido por uma semana.

“Eles nos pararam, pediram documentos e nos levaram presos. Assim, sem mais nem menos. Inventaram uma acusação contra mim: tentativa de roubo qualificado e porte de arma de fogo. Saí por falta de provas”, contou Luque à IPS. Agora ele integra o Coletivo de Jovens por Nossos Direitos, que luta contra o abuso policial. Afirma que teve sorte porque sua família conseguiu pagar um advogado e não lhe restou antecedentes.

Porém, essa não é a realidade de muitos jovens detidos com base no Código de Faltas, de Córdoba, aplicado desde 1994 e reformado em 2007. Um estudo da Universidade Nacional de Córdoba e da espanhola Universidade de La Rioja revela que 95% dos detidos por esse Código não têm acesso a advogados. “Com uma falta em seu prontuário não se tem acesso ao atestado de boa conduta, um dos requisitos mais solicitados pelas empresas na hora de contratar”, ressaltou Luque.

O código pune condutas que supostamente prejudicam a convivência social, como escândalo em via pública, omissão de identificação, resistência à autoridade, alcoolismo, mendicância e ócio. Segundo o estudo, quase 70% dos infratores são acusados de vadiagem, uma falta muito polêmica que permite à polícia deter suspeitos de vadiar, o

que o dicionário da língua espanhola define como “vagar pelas imediações de algum lugar, em geral, com maus objetivos”.

O Artigo 98 do Código pune com multas e até cinco dias de detenção quem permanecer perto de veículos ou instalações urbanas ou rurais “em atitude suspeita, sem uma razão plausível, provocando intranquilidade entre seus proprietários, moradores, transeuntes ou vizinhos”. “É uma figura totalmente subjetiva e arbitrária. Não é explicada qual é a atitude que se deve ter para não ser detido”, apontou Luque, que trabalha desde adolescente e agora é pizzaiolo.

Bichi e outros jovens de semelhante extrato social costumam apresentar um padrão que os identifica: bonés coloridos, calças esportivas e sapatos vistosos. Mas a polícia equipara esse hábito cultural com a presunção de culpabilidade. “Muitos detidos usam boné. O boné é suspeito”, destacou Luque, um dos organizadores da Marcha do Boné, que a cada mês de novembro, há sete anos, pede a revogação do Código de Faltas e que, em 2013, reuniu 15 mil pessoas.

“Digam o que disserem, a acusação de vadiagem é aplicada para que, quando houver morenos com boné nos bairros da periferia, dando voltas por algum lugar, a polícia os detenha”, disse à IPS o advogado Claudio Orosz, representante em Córdoba da organização humanitária Centro de Estudos Legais e Sociais. Orosz atribui o Código a uma sociedade “conservadora e moralista”, herdeira da “repressão e do genocídio” da última ditadura argentina (1976-1983). Para este advogado de casos de crimes de lesa humanidade, por causa dessa cultura, os pobres sofrem o “labirinto kafkiano” da vadiagem.

Segundo um estudo universitário, os detidos nesse contexto são majoritariamente jovens entre 18 e 25 anos dos setores desfavorecidos. Durante 2011, foram detidas 73 mil pessoas na província, 43 mil delas na capital. “Acontece sempre o mesmo: se vem de um lugar pobre, é pobre, tem certa forma de se vestir, tem certos traços físicos, uma determinada cor de pele, e já se é perigoso para a sociedade”, explicou Luque.

Um dos pontos mais questionados do Código é que outorga atribuição de juiz ao delegado de polícia. Isso é uma ironia porque a polícia cordobesa é a que “estrutura e mantém os grandes problemas criminais, os que geram maior dano à sociedade, como tráfico de pessoas, narcotráfico, roubo de peças de carros e venda de armas”, disse Agustín Sposato, também integrante do coletivo juvenil.

Outro agravante, segundo Orosz, são os precários sistemas de impressão digital e investigação de antecedentes nas delegacias de Córdoba. “Às vezes, demora-se três dias para saber se alguém tem antecedentes para depois ser solto, o que constitui verdadeiras privações ilegítimas de liberdade”, ressaltou. “É um sistema de controle social, formalizado pela polícia, que fere os controles básicos de constitucionalidade”, afirmou.

Para Orosz, “o Código de Faltas entrega enorme poder de seletividade e de controle social às forças policiais, sem o controle judicial”. Luque sabe bem. “Nas vezes em que me detiveram, vivi essa sensação de privação ilegítima da liberdade, de sequestro, de não saber quando vai sair, não saber como avisar a família e os amigos que você está ali. A impotência é muito grande, muito obscura, muito feia”, enfatizou.

O governador de Códoba, José Manuel De la Sota, apresentou, em 1º de fevereiro, um projeto de reforma do Código de Faltas, que o parlamento provincial está analisando.

Sergio Busso, presidente do bloco legislativo da governante União por Córdoba, considera necessário manter a figura da vadiagem, porque é importante no combate à crescente insegurança da população na província. Ele disse à IPS que o Código “é um instrumento que regula e pune as condutas antijurídicas, que afetam o direito das pessoas ou da sociedade em seu conjunto e que, por serem leves, não chegam a configurar crime”.

No entanto, Busso admitiu que são necessárias reformas, para que “a prisão e a multa só sejam aplicadas em situações especiais e em seu lugar sejam utilizadas mais as penas substitutivas e acessórias, como trabalho comunitário”. Além disso, para o parlamentar, deve mudar quem pune. O projeto propõe que a falta seja dirimida por promotores ou juízes específicos, e não policiais, “para separar quem julga de quem executa o procedimento” e para garantir “um olhar independente”.

Segundo Orosz, isso já foi tentado e não se pôde aplicar porque o sistema judicial sofreu um colapso com a avalanche de casos. Busso explicou que a reforma contempla que a falta de vadiagem exija a denúncia prévia de um morador identificado. Mas Orosz criticou que esse denunciante é “igualmente subjetivo”. O advogado considera que se deve revogar o Código de Faltas e substituí-lo por outro de convivência, que estabeleça “quais são as condutas desejadas e mecanismos de resolução de conflitos que não sejam necessariamente a prisão”, como a mediação vicinal.

Para o jovem Sposato, as reformas propostas “são uma maquiagem, para acalmar o clima de conflito social” na província. “O que está em jogo é a vida, os direitos das pessoas, a possibilidade de todos na província serem iguais”, destacou.

Faltas versus direitos humanos

Os códigos de faltas e contravenções, para tratar condutas ilícitas que não chegam a ser delitos penais, existem nas 23 províncias da Argentina e na Cidade Autônoma de Buenos Aires. Em 33% dos casos, é a polícia que detém, investiga e sanciona, o que propicia excessos e violações dos direitos humanos.

Em 2003, o Tribunal Interamericano de Direitos Humanos condenou o Estado argentino pela detenção ilegal, em 1991, de Walter Bulacio, de 17 anos, durante um show em Buenos Aires, pelo Código de Contravenções. O jovem morreu vítima da brutalidade policial. O tribunal ordenou ao país adequar o ordenamento jurídico interno à Convenção Americana sobre Direitos Humanos e outras normas internacionais.

Os códigos surgiram principalmente durante os regimes autoritários do século passado, mas foram atualizados pela democracia. Para muitas organizações humanitárias, um de seus problemas é que se introduzem dissimuladamente no âmbito penal, de competência nacional, criando de fato a figura de “delitos menores” provinciais.

Além disso, boa parte deles são difusos nas contravenções, o que colabora para sua discricionariedade, e negam o direito à defesa, à livre circulação, à liberdade pessoal, ao devido processo e ao juiz natural, entre outras anomalias jurisdicionais e humanitárias.

Fontes: Federação Argentina LGBT e Associação pelos Direitos Civis

Envolverde/IPS

Return of the oppressed (Aeon)

From the Roman Empire to our own Gilded Age, inequality moves in cycles. The future looks like a rough ride

by 

Jack Whinery and family, homesteaders photographed in Pie Town, New Mexico, October 1940. Photo courtesy the Library of CongressJack Whinery and family, homesteaders photographed in Pie Town, New Mexico, October 1940. Photo courtesy the Library of Congress

Peter Turchin is professor of ecology and mathematics at the University of Connecticut and vice president of the Evolution Institute. He co-authored Secular Cycles (2009).

Today, the top one per cent of incomes in the United States accounts for one fifth of US earnings. The top one per cent of fortunes holds two-fifths of the total wealth. Just one rich family, the six heirs of the brothers Sam and James Walton, founders of Walmart, are worth more than the bottom 40 per cent of the American population combined ($115 billion in 2012).

After thousands of scholarly and popular articles on the topic, one might think we would have a pretty good idea why the richest people in the US are pulling away from the rest. But it seems we don’t. As the Congressional Budget Office concluded in 2011: ‘the precise reasons for the rapid growth in income at the top are not well understood’. Some commentators point to economic factors, some to politics, and others again to culture. Yet obviously enough, all these factors must interact in complex ways. What is slightly less obvious is how a very long historical perspective can help us to see the whole mechanism.

In his book Wealth and Democracy (2002), Kevin Phillips came up with a useful way of thinking about the changing patterns of wealth inequality in the US. He looked at the net wealth of the nation’s median household and compared it with the size of the largest fortune in the US. The ratio of the two figures provided a rough measure of wealth inequality, and that’s what he tracked, touching down every decade or so from the turn of the 19th century all the way to the present. In doing so, he found a striking pattern.

We found repeated back-and-forth swings in demographic, economic, social, and political structures

From 1800 to the 1920s, inequality increased more than a hundredfold. Then came the reversal: from the 1920s to 1980, it shrank back to levels not seen since the mid-19th century. Over that time, the top fortunes hardly grew (from one to two billion dollars; a decline in real terms). Yet the wealth of a typical family increased by a multiple of 40. From 1980 to the present, the wealth gap has been on another steep, if erratic, rise. Commentators have called the period from 1920s to 1970s the ‘great compression’. The past 30 years are known as the ‘great divergence’. Bring the 19th century into the picture, however, and one sees not isolated movements so much as a rhythm. In other words, when looked at over a long period, the development of wealth inequality in the US appears to be cyclical. And if it’s cyclical, we can predict what happens next.

An obvious objection presents itself at this point. Does observing just one and a half cycles really show that there is a regular pattern in the dynamics of inequality? No, by itself it doesn’t. But this is where looking at other historical societies becomes interesting. In our bookSecular Cycles (2009), Sergey Nefedov and I applied the Phillips approach to England, France and Russia throughout both the medieval and early modern periods, and also to ancient Rome. All of these societies (and others for which information was patchier) went through recurring ‘secular’ cycles, which is to say, very long ones. Over periods of two to three centuries, we found repeated back-and-forth swings in demographic, economic, social, and political structures. And the cycles of inequality were an integral part of the overall motion.

Incidentally, when students of dynamical systems (or, more colourfully, ‘chaoticians’ such as Jeff Goldblum’s character in the filmJurassic Park) talk about ‘cycles’, we do not mean rigid, mechanical, clock-like movements. Cycles in the real world are chaotic, because complex systems such as human societies have many parts that are constantly moving and influencing each other. Despite this complexity, our historical research on Rome, England, France, Russia and now the US shows that these complex interactions add up to a general rhythm. Upward trends in variables (for example, economic inequality) alternate with downward trends. And most importantly, the ways in which other parts of the system move can tell us why certain trends periodically reverse themselves. Understanding (and perhaps even forecasting) such trend-reversals is at the core of the new discipline of cliodynamics, which looks at history through the lens of mathematical modelling.

So it looks like the pattern that we see in the US is real. Ours is, of course, a very different society from ancient Rome or medieval England. It is cut off from them by the Industrial Revolution and by innumerable advances in technology since then. Even so, a historically based model might shed light on what has been happening in the US over the past three decades.

First, we need to think about jobs. Unless other forces intervene, an overabundance of labour will tend to drive down its price, which naturally means that workers and their families have less to live on. One of the most important forces affecting the labour supply in the US has been immigration, and it turns out that immigration, as measured by the proportion of the population who were born abroad, has changed in a cyclical manner just like inequality. In fact, the periods of high immigration coincided with the periods of stagnating wages. The Great Compression, meanwhile, unfolded under a low-immigration regime. This tallies with work by the Harvard economist George Borjas, who argues that immigration plays an important role in depressing wages, especially for those unskilled workers who compete most directly with new arrivals.

Immigration is only one part of a complex story. Another reason why the labour supply in the US went up in the 19th century is, not to put too fine a point on it, sex. The native-born population was growing at what were, at the time, unprecedented rates: a 2.9 per cent growth per year in the 1800s, only gradually declining after that. By 1850 there was no available farmland in Eastern Seaboard states. Many from that ‘population surplus’ moved west, but others ended up in eastern cities where, of course, they competed for jobs with new immigrants.

This connection between the oversupply of labour and plummeting living standards for the poor is one of the more robust generalisations in history. Consider the case of medieval England. The population of England doubled between 1150 and 1300. There was little possibility of overseas emigration, so the ‘surplus’ peasants flocked to the cities, causing the population of London to balloon from 20,000 to 80,000. Too many hungry mouths and too many idle hands resulted in a fourfold increase in food prices and a halving of real wages. Then, when a series of horrible epidemics, starting with the Black Death of 1348, carried away more than half of the population, the same dynamic ran in reverse. The catastrophe, paradoxically, introduced a Golden Age for common people. Real wages tripled and living standards went up, both quantitatively and qualitatively. Common people relied less on bread, gorging themselves instead on meat, fish, and dairy products.

The tug of war between the top and typical incomes doesn’t have to be a zero-sum game, but in practice it often is

Much the same pattern can be seen during the secular cycle of the Roman Principate. The population of the Roman Empire grew rapidly during the first two centuries up to 165AD. Then came a series of deadly epidemics, known as the Antonine Plague. In Roman Egypt, for which we have contemporary data thanks to preserved papyri, real wages first fell (when the population increased) and then regained ground (when the population collapsed). We also know that many grain fields were converted to orchards and vineyards following the plagues. The implication is that the standard of life for common people improved — they ate less bread, more fruit, and drank wine. The gap between common people and the elites shrank.

Naturally, the conditions affecting the labour supply were different in the second half of the 20th century in the US. An important new element was globalisation, which allows corporations to move jobs to poorer countries (with that ‘giant sucking sound’, as Ross Perot put it during his 1992 presidential campaign). But none of this alters the fact that an oversupply of labour tends to depress wages for the poorer section of the population. And just as in Roman Egypt, the poor in the US today eat more energy-dense foods — bread, pasta, and potatoes — while the wealthy eat more fruit and drink wine.

Falling wages isn’t the only reason why labour oversupply leads to inequality. As the slice of the economic pie going to employees diminishes, the share going to employers goes up. Periods of rapid growth for top fortunes are commonly associated with stagnating incomes for the majority. Equally, when worker incomes grew in the Great Compression, top fortunes actually declined in real terms. The tug of war between the top and typical incomes doesn’t have to be a zero-sum game, but in practice it often is. And so in 13th-century England, as the overall population doubles, we find landowners charging peasants higher rents and paying less in wages: the immiseration of the general populace translates into a Golden Age for the aristocrats.

As the historian Christopher Dyer wrote, life was good for the upper-crust English around 1300. They drank more wine and spent their spare cash building or refurbishing castles, cathedrals, and monasteries. They didn’t just enjoy a better living standard; they also grew in number. For example, the number of knights and esquires tripled between 1200 and 1300. But disaster struck in 1348, when the Black Death removed the population surplus (and then some). By the 15th century, while the common people were enjoying their own Golden Age, the aristocracy had fallen on hard times. We can infer the severity of their financial straits from the amount of claret imported from France. Only the gentry drank wine, and around 1300, England imported 20,000 tuns or casks of it from France per year. By 1460, this declined to only 5,000. In the mid-15th century, there were simply fewer aristocrats and they were much poorer.

In the US between around 1870 and 1900, there was another Golden Age for the elites, appropriately called the Gilded Age. While living standards for the majority declined (seen vividly in dwindling average heights and life expectancies), the moneyed classes were enjoying ever more luxurious lifestyles. And just like in 13th-century England, the total number of the wealthy was shooting up. Between 1825 and 1900, the number of millionaires (in constant 1900 dollars) went from 2.5 per million of the population to 19 per million. In our current cycle, the proportion of decamillionaires (those whose net worth exceeds 10 million in 1995 dollars) grew tenfold between 1992 and 2007 — from 0.04 to 0.4 per cent of the US population.

This seems like a peculiar development. The reason for it — cheeringly enough, you might say — is that cheap labour allows many enterprising, hard-working or simply lucky members of the poorer classes to climb into the ranks of the wealthy. In the 19th century, a skilled artisan in the US could expand his workshop by hiring other workers, eventually becoming the owner of a large business; Sven Beckert’s The Monied Metropolis (2003) describes many instances of this story playing out. In America today, enterprising and hard-working individuals start dotcom companies or claw their way into jobs as the CEOs of large corporations.

On the face of it, this is a wonderful testament to merit-based upward mobility. But there are side effects. Don’t forget that most people are stuck with stagnant or falling real wages. Upward mobility for a few hollows out the middle class and causes the social pyramid to become top-heavy. Too many elites relative to the general population (a condition I call ‘elite overproduction’) leads to ever-stiffer rivalry in the upper echelons. And then you get trouble.

In the US, there is famously a close connection between wealth and power. Many well-off individuals — typically not the founders of great fortunes but their children and grandchildren — choose to enter politics (Mitt Romney is a convenient example, though the Kennedy clan also comes to mind). Yet the number of political offices is fixed: there are only so many senators and representatives at the federal and state levels, and only one US president. As the ranks of the wealthy swell, so too do the numbers of wealthy aspirants for the finite supply of political positions.

When watching political battles in today’s Senate, it is hard not to think about their parallels in Republican Rome. The population of Italy roughly doubled during the second century BC, while the number of aristocrats increased even more. Again, the supply of political offices was fixed — there were 300 places in the senate and membership was for life. By the end of the century, competition for influence had turned ugly. During the Gracchan period (139—110BC), political feuding led to the slaughter of the tribunes Tiberius and Gaius on the streets of Rome. During the next century, intra-elite conflict spilt out of Rome into Italy and then into the broader Mediterranean. The civil wars of the first century BC, fuelled by a surplus of politically ambitious aristocrats, ultimately caused the fall of the Republic and the establishment of the Empire.

Beside sheer numbers, there is a further, subtler factor that aggravates internal class rivalry. So far I have been talking about the elites as if they are all the same. But they aren’t: the differences within the wealthiest one per cent are almost as stark as the difference between the top one per cent and the remaining 99. The millionaires want to reach the level of decamillionaires, who strive to match the centimillionaires, who are trying to keep up with billionaires. The result is very intense status rivalry, expressed through conspicuous consumption. Towards the end of the Republic, Roman aristocrats competed by exhibiting works of art and massive silver decorations in their homes. They threw extravagant banquets with peacocks from Samos, oysters from Lake Lucrino and snails from Africa, all imported at great expense. Archaeology confirms a genuine and dramatic shift towards luxury.

The US political system is much more attuned to the wishes of the rich than to the aspirations of the poor

Intra-elite competition also seems to affect the social mood. Norms of competition and extreme individualism become prevalent and norms of co-operation and collective action recede. Social Darwinism took off during the original Gilded Age, and Ayn Rand (who argued that altruism is evil) has grown astonishingly popular during what we might call our Second Gilded Age. The glorification of competition and individual success in itself becomes a driver of economic inequality. As Christopher Hayes wrote in Twilight of the Elites (2012): ‘defenders of the status quo invoke a kind of neo-Calvinist logic by saying that those at the top, by virtue of their placement there, must be the most deserving’. By the same reasoning, those at the bottom are not deserving. As such social norms spread, it becomes increasingly easy for CEOs to justify giving themselves huge bonuses while cutting the wages of workers.

Such cultural attitudes work with economic forces to widen inequality. Economists know very well that few markets are ‘efficient’ in the sense that their prices are set entirely by the forces of supply and demand. Labour markets are especially sensitive to cultural norms about what is fair compensation, so prevailing theories about inequality have practical consequences. And labour markets are also strongly affected by government regulation, as the economist and Nobel laureate Joseph Stiglitz has argued. So let’s consider how politics enters the equation here.

The US, as we saw, breeds strong links between wealth and politics. Some wealthy individuals run for office themselves. Others use their money to support their favoured politicians and policies. As a result, the US political system is much more attuned to the wishes of the rich than to the aspirations of the poor. Kevin Phillips has been one of the most influential voices raised in alarm at the dangers for democracy of growing wealth disparity.

Inverse relationship between well-being and inequality in American history. The peaks and valleys of inequality (in purple) represent the ratio of the largest fortunes to the median wealth of households (the Phillips curve). The blue-shaded curve combines four measures of well-being: economic (the fraction of economic growth that is paid to workers as wages), health (life expectancy and the average height of native-born population), and social optimism (the average age of first marriage, with early marriages indicating social optimism and delayed marriages indicating social pessimism).Inverse relationship between well-being and inequality in American history. The peaks and valleys of inequality (in purple) represent the ratio of the largest fortunes to the median wealth of households (the Phillips curve). The blue-shaded curve combines four measures of well-being: economic (the fraction of economic growth that is paid to workers as wages), health (life expectancy and the average height of native-born population), and social optimism (the average age of first marriage, with early marriages indicating social optimism and delayed marriages indicating social pessimism).

Yet the US political system has been under the influence of wealthy elites ever since the American Revolution. In some historical periods it worked primarily for the benefit of the wealthy. In others, it pursued policies that benefited the society as a whole. Take the minimum wage, which grew during the Great Compression era and declined (in real terms) after 1980. The proportion of American workers who were unionised changed in a similarly cyclical fashion, as the legislative field tilted first one way then the other. The top marginal tax rate was 68 per cent or higher before 1980; by 1988 it declined to 28 per cent. In one era, government policy systematically favoured the majority, while in another it favoured the narrow interests of the wealthy elites. This inconsistency calls for explanation.

It is relatively easy to understand the periods when the wealthy bent the agenda to suit their interests (though of course, not all rich people care exclusively about their own wealth). How, though, can we account for the much more broadly inclusive policies of the Great Compression era? And what caused the reversal that ended the Gilded Age and ushered in the Great Compression? Or the second switch, which took place around 1980?

History provides another clue. Unequal societies generally turn a corner once they have passed through a long spell of political instability. Governing elites tire of incessant violence and disorder. They realise that they need to suppress their internal rivalries, and switch to a more co-operative way of governing, if they are to have any hope of preserving the social order. We see this shift in the social mood repeatedly throughout history — towards the end of the Roman civil wars (first century BC), following the English Wars of the Roses (1455-85), and after the Fronde (1648-53), the final great outbreak of violence that had been convulsing France since the Wars of Religion began in the late 16th century. Put simply, it is fear of revolution that restores equality. And my analysis of US history in a forthcoming book suggests that this is precisely what happened in the US around 1920.

Reforms that ensured an equitable distribution of the fruits of economic growth turned out to be a highly effective counter to the lure of Bolshevism

These were the years of extreme insecurity. There were race riots (the ‘Red Summer of 1919’), worker insurrections, and an Italian anarchist terrorist campaign aimed directly at the elites. The worst incident in US labour history was the West Virginia Mine War of 1920—21, culminating in the Battle of Blair Mountain. Although it started as a workers’ dispute, the Mine War eventually turned into the largest armed insurrection that the US has ever seen, the Civil War excepted. Between 10,000 and 15,000 miners armed with rifles battled against thousands of strikebreakers and sheriff deputies. The federal government eventually called in the Air Force, the only time it has ever done so against its own people. Add to all this the rise of the Soviet Union and the wave of socialist revolutions that swept Europe after the First World War, triggering the Red Scare of 1921, and you get a sense of the atmosphere. Quantitative data indicate that this period was the most violent in US history, second only to the Civil War. It was much, much worse than the 1960s.

The US, in short, was in a revolutionary situation, and many among the political and business elites realised it. They began to push through a remarkable series of reforms. In 1921 and 1924, Congress passed legislation that effectively shut down immigration into the US. Although much of the motivation behind these laws was to exclude ‘dangerous aliens’ such as Italian anarchists and Eastern European socialists, the broader effect was to reduce the labour surplus. Worker wages grew rapidly. At around the same time, federal income tax came in and the rate at which top incomes were taxed began to increase. Somewhat later, provoked by the Great Depression, other laws legalised collective bargaining through unions, introduced a minimum wage, and established Social Security.

The US elites entered into an unwritten compact with the working classes. This implicit contract included the promise that the fruits of economic growth would be distributed more equitably among both workers and owners. In return, the fundamentals of the political-economic system would not be challenged (no revolution). The deal allowed the lower and upper classes to co-operate in solving the challenges facing the American Republic — overcoming the Great Depression, winning the Second World War, and countering the Soviet threat during the Cold War.

It almost goes without saying that there was a racist and xenophobic underside to all this. The co-operating group was mainly native-born white Protestants. African-Americans, Jews, Catholics and foreigners were excluded or heavily discriminated against. Nevertheless, while making such ‘categorical inequalities’ worse, the compact led to a dramatic reduction in overall economic inequality.

The ‘New Deal Coalition’ which ruled the US from 1932 to the late 1960s did so well that the business community, opposed to its policies at first, came to accept them in the post-war years. As the historian Kim Phillips-Fein wrote in Invisible Hands (2010):
Many managers and stockholders [made] peace with the liberal order that had emerged. They began to bargain regularly with the labour unions at their companies. They advocated the use of fiscal policy and government action to help the nation to cope with economic downturns. They accepted the idea that the state might have some role to play in guiding economic life.

When Barry Goldwater campaigned on a pro-business, anti-union and anti-big government platform in the 1964 presidential elections, he couldn’t win any lasting support from the corporate community. The conservatives had to wait another 16 years for their triumph.

But by the late 1970s, a new generation of political and business leaders had come to power. To them the revolutionary situation of 1919-21 was just history. In this they were similar to the French aristocrats on the eve of the French Revolution, who did not see that their actions could bring down the Ancien Régime — the last great social breakdown, the Fronde, being so far in the past.

The US elites, similarly, took the smooth functioning of the political-economic system for granted. The only problem, as they saw it, was that they weren’t being adequately compensated for their efforts. Feelings of dissatisfaction ran high during the Bear Market of 1973—82, when capital returns took a particular beating. The high inflation of that decade ate into inherited wealth. A fortune of $2 billion in 1982 was a third smaller, when expressed in inflation-adjusted dollars, than $1 billion in 1962, and only a sixth of $1 billion in 1912. All these factors contributed to the reversal of the late 1970s.

It is no coincidence that the life of Communism (from the October Revolution in Russia in 1917 to the fall of the Berlin Wall in 1989) coincides almost perfectly with the Great Compression era. The Red Scares of, firstly, 1919—21 and then 1947—57 suggest that US elites took the Soviet threat quite seriously. More generally, the Soviet Union, especially in its early years, aggressively promoted an ideology that was highly threatening to the political-economic system favoured by the US elites. Reforms that ensured an equitable distribution of the fruits of economic growth turned out to be a highly effective counter to the lure of Bolshevism.

Nevertheless, when Communism collapsed, its significance was seriously misread. It’s true that the Soviet economy could not compete with a system based on free markets plus policies and norms that promoted equity. Yet the fall of the Soviet Union was interpreted as a vindication of free markets, period. The triumphalist, heady atmosphere of the 1990s was highly conducive to the spread of Ayn Randism and other individualist ideologies. The unwritten social contract that had emerged during the New Deal and braved the challenges of the Second World War had faded from memory.

What, then, explains the rapid growth of top fortunes in the US over the past 30 years? Why did the wages of unskilled workers stagnate or decline? What accounts for the bitterness of election rhetoric in the US, the growing legislative gridlock, the rampant political polarisation? My answer is that all of these trends are part of a complex and interlocking system. I don’t just mean that everything affects everything else; that would be vacuous. Rather, that cliodynamic theory can tell us specifically how demographic, economic and cultural variables relate to one another, and how their interactions generate social change. Cliodynamics also explains why historical reversals in such diverse areas as economics and culture happen at roughly similar times. The theory of secular cycles was developed using data from historical societies, but it looks like it can provide answers to questions about our own society.

Our society, like all previous complex societies, is on a rollercoaster. Impersonal social forces bring us to the top; then comes the inevitable plunge. But the descent is not inevitable. Ours is the first society that can perceive how those forces operate, even if dimly. This means that we can avoid the worst — perhaps by switching to a less harrowing track, perhaps by redesigning the rollercoaster altogether.

Three years ago I published a short article in the science journalNature. I pointed out that several leading indicators of political instability look set to peak around 2020. In other words, we are rapidly approaching a historical cusp, at which the US will be particularly vulnerable to violent upheaval. This prediction is not a ‘prophecy’. I don’t believe that disaster is pre-ordained, no matter what we do. On the contrary, if we understand the causes, we have a chance to prevent it from happening. But the first thing we will have to do is reverse the trend of ever-growing inequality.

Correction, Feb 13, 2013: When first published, this article misidentified Michael Bloomberg, the mayor of New York City, as an inheritor of a large fortune. In fact he amassed most of his wealth himself.

7 February 2013