Arquivo da categoria: Uncategorized

A ditadura venceu (Folha de S.Paulo)

Vladimir Safatle

01/04/2014 03h00

Hoje é o dia que marca, afinal, os 50 anos do golpe militar ocorrido em 1º de abril de 1964. Durante as últimas semanas, a sociedade brasileira foi obrigada a ler afirmações de personagens como o senhor Leônidas Pires Gonçalves, primeiro ministro do Exército pós-ditadura, insultando o país ao dizer que: “a revolução (sic) não matou ninguém” e que ela teria sido uma necessidade histórica.

Antes, correntistas do banco Itaú, uma instituição tão organicamente ligada à ditadura que teve um de seus donos, o senhor Olavo Setúbal, nomeado prefeito biônico da cidade de São Paulo, receberam uma singela agenda onde se lia que o dia de hoje seria o aniversário da dita “revolução”. Ninguém, nem nas Forças Armadas nem no setor empresarial que tramou e alimentou o golpe teve a dignidade de pedir à sociedade perdão por um regime que destruiu o país.

É claro que ainda hoje há os que procuram minimizar a ditadura afirmando que ela foi responsável por conquistas econômicas relevantes. Raciocínio semelhante foi, por um tempo, utilizado no Chile.

Tanto em um caso quanto no outro esse raciocínio é falso. A inflação brasileira em 1963 era de 78%. Vinte anos depois, em 1983, era de 239%. O endividamento chegou, ao final da ditadura, a US$ 100 bilhões, legando um país de economia completamente cartelizada, que se transformara na terceira nação mais desigual do mundo e cujas decisões eram tomadas não pelo ministro da economia, mas pelos tecnocratas do Fundo Monetário Internacional chefiados pela senhora Ana Maria Jul. A concentração e a desigualdade se acentuaram, o êxodo rural destruiu nossas cidades, a educação pública foi destroçada, a começar por nossas universidades.

Mas o maior exemplo desse revisionismo histórico encontra-se na crença, de 68% da população brasileira, de que aquele era um período de menos corrupção. Alguém deveria enviar para cada uma dessas pessoas os dossiês de casos como: Coroa-Brastel, Capemi, Projeto Jari, Lutfalla, Banco Econômico, Transamazônica e Paulipetro.

Tudo isso apenas demonstra o fracasso que foi, até agora, o dever de memória sobre a ditadura.

Mas o que poderíamos esperar de governos, como o de Fernando Henrique Cardoso, cujos fiadores eram Antônio Carlos Magalhães e Jorge Bornhausen, e de Luiz Inácio Lula da Silva/Dilma Rousseff, que tem em José Sarney um de seus pilares e em Antonio Delfim Netto um de seus principais conselheiros?

Como esperar uma verdadeira política contra a ditadura de governos que dependem de figuras vindas diretamente da ditadura?

Foi assim, de maneira silenciosa, que a ditadura venceu.

Governo de SP institui cobrança por água de áreas protegidas (Portal do Meio Ambiente)

PUBLICADO 01 ABRIL 2014

Rio Passareúva, no Parque Estadual da Serra do Mar, em Cubatão, área de proteção de manancial próxima à Baixada Santista
(Foto: Secretaria do Meio Ambiente do Estado de São Paulo/Trilhas de São Paulo)

Um decreto publicado pelo governo de São Paulo na sexta-feira (28.mar) estabeleceu, entre outras medidas, que o uso da água produzida em parques, estações ecológicas e outras unidades de conservação do estado poderá ser cobrado para gerar novos recursos a serem aplicados na gestão dessas áreas.

Assinado ontem pelo governador Geraldo Alckmin, o decreto 60.302 de 2014 prevê também para unidades de conservação (UCs) a destinação de um percentual fixo sobre a arrecadação de pedágios de rodovias que atravessam essas áreas. A Secretaria do Meio Ambiente (SMA), com o apoio de outros órgãos do estado, deverá apresentar no prazo máximo de dois anos um estudo com proposta de percentual a ser adotado e do mecanismo para viabilizar essa transferência de recursos.

Pedágios

A cobrança pelo uso de água é estabelecida na norma publicada hoje em seu artigo 38, para as unidades de conservação estaduais sem discriminar categorias dessas áreas. Desse modo, em princípio, fica aberta a possibilidade de recursos para as 31 reservas particulares de patrimônio natural, as RPPNs.

No entanto, a publicação prevê a receita proveniente de pedágios somente para as UCs classificadas como de proteção integral, que são os parques estaduais, as estações ecológicas, os monumentos naturais e os refúgios de vida silvestre.

Planos e metas

Em suas linhas gerais, o decreto estabelece novas regras de articulação entre os órgãos estaduais envolvidos com áreas protegidas, principalmente a Fundação Florestal e o Instituto Florestal.

A publicação de hoje obriga os gestores de UCs do estado a apresentar, até o dia 30 de outubro de cada ano, plano de metas anual, que deverá especificar ações e despesas previstos para o ano seguinte. Em cada unidade, o plano deverá ser apreciado pelo respectivo conselho — que é formado por representantes da comunidade nomeados pelo governo — para ser em seguida aprovado pelo dirigente do órgão estadual responsável.

Impactos ambientais

Outra novidade do decreto envolve empresas de captação e distribuição de água, de telefonia celular, de transmissão de energia elétrica, de distribuição de derivados de petróleo e outras que possuem instalações e equipamentos dentro de UCs. Essas companhias passam a ter a obrigação de cuidar permanentemente para que seus oleodutos, gasodutos, torres de transmissão, tubulações, vias de acesso ou outras instalações não gerem novos impactos ambientais além daqueles previstos no licenciamento de suas atividades, como estabelece o artigo 31:

Os empreendedores, permissionários e concessionários responsáveis por abertura e/ou manutenção de acessos de uso exclusivo necessários aos seus empreendimentos, no interior das unidades de conservação de proteção integral, deverão manter controle diuturno desses acessos para fins de conservação dos atributos ambientais da unidade de conservação.

Um bom exemplo da necessidade desse dispositivo está nos chamados bairros-cota de Cubatão, que resultaram de invasões em áreas do Parque Estadual da Serra do Mar durante e depois das obras das rodovias Anchieta e Imigrantes, aconteceram debaixo do nariz de todo mundo. E — pior — nesse caso o empreendedor foi o próprio governo do estado.

Abrangência

As unidades de conservação da Secretaria do Meio Ambiente abrangem 47 mil quilômetros quadrados, que correspondem a 18,9% da área total do estado de São Paulo.

Elas estão distribuídas em 31 RPPNs, 30 áreas de proteção ambiental, 37 parques estaduais, 26 estações ecológicas, 15 florestas estaduais, cinco reservas de desenvolvimento sustentável, quatro áreas de relevante interesse ecológico, dois viveiros florestais, dois monumentos naturais e uma reserva extrativista.

Há, portanto, algumas boas novidades em meio aos 51 artigos do decreto baixado hoje. Esses e outros aspectos merecem ser analisados em profundidade. Inclusive porque resta saber se as novas medidas serão eficazes para o objetivo de proteção das UCs.

Vale questionar, por exemplo, se valerá retroativamente para as empresas permissionárias ou concessionárias já licenciadas a obrigação sobre instalações e equipamentos dentro de UCs. Vamos aguardar.

Exoesqueleto do projeto ‘Walk Again’ funciona em teste documentado no Facebook (O Globo)

JC e-mail 4924, de 01 de abril de 2014

Voluntários já estão treinando em um laboratório de São Paulo para usar a veste robótica

Um paraplégico se levanta da cadeira de rodas, anda e dá o primeiro chute da Copa do Mundo de 2014 vestindo um exoesqueleto robótico controlado pela mente. O traje robótico complexo, construído a partir de ligas leves e alimentado por sistema hidráulico, foi construído por Gordon Cheng, da Universidade Técnica de Munique, e tem a função de trabalhar os músculos da perna paralisada.

O exoesqueleto é fruto de anos de trabalho de uma equipe internacional de cientistas e engenheiros do projeto “Walk Again”, liderado pelo brasileiro Miguel Nicolelis, que lança nesta terça-feira, em sua página no Facebook, a documentação do projeto até as vésperas da Copa do Mundo. Nicolelis já está treinando em um laboratório de São Paulo nove homens e mulheres paraplégicos, com idades de 20 a 40 anos, para usar o exoesqueleto. Três deles serão escolhidos para participar do jogo de abertura entre Brasil e Croácia.

No mês passado, a equipe de pesquisadores foi a jogos de futebol em São Paulo para verificar se a radiação do telefone móvel das multidões pode interferir com o processo. As ondas eletromagnéticas poderiam fazer o exoesqueleto se comportar mal, mas os testes foram animadores. As chances de mau funcionamento são poucas.

O voluntário que usar o exoesqueleto vestirá também um boné equipado com eletrodos para captar suas ondas cerebrais. Estes sinais serão transmitidos para um computador em uma mochila, onde serão descodificados e usados para mover condutores hidráulicos na roupa. O exoesqueleto é alimentado por uma bateria que permite a duas horas de uso contínuo.

Sob os pés do operador estarão placas com sensores para detectar quando o contato é feito com o solo. A cada pisada, um sinal dispara até um dispositivo vibratório costurado no antebraço da camisa do usuário. O dispositivo parece enganar o cérebro, que pensar que a sensação vem de seu pé. Em simulações de realidade virtual, os pacientes sentiram que suas pernas estavam se movendo e tocando alguma coisa. Em outros testes, os pacientes usaram o sistema para andar em uma esteira.

http://oglobo.globo.com/ciencia/exoesqueleto-do-projeto-walk-again-funciona-em-teste-documentado-no-facebook-12053200#ixzz2xe8W6LR5

Exclusivo: bolivianos culpam Brasil por enchentes e desejam processar o país por danos e prejuízos de bilhões de dólares (+RO)

21/02/2014

http://maisro.com.br/

Walter Justiniano: esta tragédia é como a Crônica de Uma Morte Anunciada, de Gabriel Garcia Marquez

Mais um imbróglio vem aí pela frente envolvendo as usinas do rio Madeira, o progresso e a discórdia. O consultor ambiental boliviano, Walter Justiniano Martinez, 54, de Guayaramerin (Bolívia), tem em mãos um relatório onde consta que o Brasil é o culpado pelas enchentes na Bolívia, que culminou com 60 pessoas mortas e 90 mil cabeças de gados perdidas. O prejuízo é de cerca de 50 milhões de dólares e mais de 40 mil hectares de culturas agrícolas afetadas. Segundo ele, “o governo boliviano sabia dos problemas que seriam provocados pelas barragens das usinas de Jirau e Santo Antônio e não fez nada a este respeito”. Explicando, as represas de Jirau e Santo Antônio não deixam a água escoar, culminando com enchentes rio acima, pegando o Beni. As fortes chuvas que caem sobre a Bolívia agravaram ainda mais o problema. Veja no mapa abaixo.

As represes de Jirau e S. Antônio alagaram o Beni

Bolívia conhecia os efeitos de barragens brasileiras na Amazônia.  O governo sabia que as barragens construídas na bacia do rio Madeira causariam grandes inundações no país por mais de seis anos.

Em 2006, o ministro dos Negócios estrangeiros David Choquehuanca, enviou uma carta para seu homólogo brasileiro manifestando o o perigo da construção destas barragens para a Bolívia. O governo boliviano  já tinha alertado sobre os impactos há mais de sete anos.

Cerca de 90 mil cabeças de gado perdidas

Na nota enviada por Choquehuanca, citado em La Razón (jornal boliviano), argumentou-se que entre os impactos prováveis “é considerado a inundação do território boliviano, como um efeito dos reservatórios que afetarão, de um lado, a existência da Floresta Amazônica, na bacia do Madeira, as riquezas em castanha”.

O processo de consulta bi-nacional com vários encontros e reuniões presidenciais, ministeriais e técnicas foi lançado em novembro do mesmo ano. O II encontro técnico realizado nos dias 30 e 31 de outubro de 2008, em La Paz, a troca de informações sobre os projetos hidrelétricos Jirau e Santo Antonio. Bolívia, então, expressa seu aborrecimento pela ausência de delegados técnicos suficientes, do Brasil, apesar do compromisso.
No mesmo tempo, organizações camponesas da Bolívia e do Brasil criaram o movimento em defesa da bacia do Rio Madeira e a Região Amazônica.
Estudos e declarações de organizações de proteção ambiental também alertaram para os riscos, incluindo a Liga de Defesa do Ambiente (Lidema), que, em 2009, exortou o governo “em conformidade com os acordos internacionais, independentemente da agenda positiva com o governo brasileiro”.
Em 2011, um seminário sobre projetos de energia no Brasil, o Vice Ministro Juan Carlos Alurralde, disse à Reuters que o governo não estava satisfeito com os relatórios do Brasil em defesa da hidrelétrica e esperava mais esclarecimentos e garantias.

Um prejuízo de 50 bilhões de dólares

Então, o primeiro secretário da Embaixada do Brasil na Bolívia, Ruy Ciarlini, disse à Reuters que eles tinham “dados científicos que mostram que não há nenhum risco”. Até ontem, em Beni foram relatadas 84 mil carcaças (gado) e perdas de 50 milhões de dólares. Mais de 39 mil hectares de culturas afetadas, enquanto o número de vítimas cresce dia a dia devido às enchentes.

O presidente Evo Morales, solicitou na terça-feira,  investigações sobre o impacto das enchentes  no Beni.

Fonte: +RO http://www.maisro.com 

Relatório do IPCC sugere adaptação baseada em ecossistemas (Estado de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Modelo adotado no Brasil e região foi indicado como alternativa a infraestutura cara

Além das recomendações usuais para que os países invistam mais em infraestrutura para aumentar sua resiliência às mudanças climáticas, no novo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), divulgado neste domingo, 30, ganhou espaço uma alternativa mais barata que pode, em alguns locais, conseguir efeitos parecidos: a adaptação baseada em ecossistemas.

O tema aparece em maior ou menor profundidade em cerca de metade dos capítulos e teve destaque especial no capítulo regional de América Central e do Sul, onde técnicas como criação de áreas protegidas, acordos para conservação e manejos comunitários de áreas naturais estão sendo testadas.

Mas o que isso tem a ver com adaptação? De acordo com o ecólogo Fabio Scarano, da Conservação Internacional, e um dos autores do capítulo, a ideia é fortalecer serviços ecossistêmicos que são fundamentais. Um ambiente bem preservado tem a capacidade de prover um clima estável, o fornecimento de água, a presença de polinizadores. “Como se fosse uma infraestrutura da própria natureza”, diz.

Como premissa, está a conservação da natureza aliada ao incentivo do seu uso sustentável – a fim também de evitar a pobreza, que é um dos principais motores da vulnerabilidade de populações.

“Normalmente quando se fala em adaptação se pensa na construção de grandes estruturas, como um dique, por exemplo, para evitar uma inundação. O que em geral é muito caro, mas em uma adaptação baseada em ecossistemas, conservar a natureza e usá-la bem é uma forma de diminuir a vulnerabilidade das pessoas às mudanças climáticas”, afirma.

Ele cita como exemplo uma região costeira em que o mangue tenha sido degradado. “Esse ecossistema funciona como uma barreira. Em um cenário de ressacas mais fortes, elevação do nível do mar, a costa vai ficar mais vulnerável, será necessário construir diques. Mas se mantém o mangue em pé e se oferece um auxílio para que as pessoas possam ter uma economia básica desse mangue, com técnicas mais sustentáveis, e elas recebam para mantê-lo assim, vai ser mais barato do que depois ter de fazer um dique.”

Segundo o pesquisador, para ser mais resiliente é importante acabar com a pobreza e preservar a natureza. “Se for possível ter os dois, a gente consegue o tão falado desenvolvimento sustentável”, opina.

(Giovana Girardi / Estado de S.Paulo)
http://www.estadao.com.br/noticias/vida,relatorio-do-ipcc-sugere-adaptacao-baseada-em-ecossistemas,1147134,0.htm

Outras matérias sobre o assunto:

O Globo
Painel da ONU apresenta medidas contra aquecimento global
http://oglobo.globo.com/ciencia/painel-da-onu-apresenta-medidas-contra-aquecimento-global-12038245#ixzz2xXy60bbZ

Valor Econômico
Mudança do clima afeta a todos e está acontecendo agora, alerta IPCC
http://www.valor.com.br/internacional/3500174/mudanca-do-clima-afeta-todos-e-esta-acontecendo-agora-alerta-ipcc#ixzz2xYAtWVsg

Chuvas no Sul e no Sudeste podem voltar ao normal só em 2016 (Agência Brasil)

JC e-mail 4923, de 31 de março de 2014

Para o Brasil, o fenômeno indica a possibilidade de as chuvas no centro-sul do país só voltaram ao normal no verão de 2016

A origem da crise energética provocada pela estiagem no Sul e no Sudeste no início do ano pode estar do outro lado do mundo. Segundo meteorologistas ouvidos pela Agência Brasil, o país está sendo afetado por um ciclo natural de resfriamento do Oceano Pacífico, que se reflete em alterações climáticas em grande parte do planeta. Para o Brasil, o fenômeno indica a possibilidade de as chuvas no centro-sul do país só voltaram ao normal no verão de 2016.

Chamado de oscilação interdecadal do Pacífico ou oscilação decadal do Pacífico (PDO, na sigla em inglês), o processo caracteriza-se pela sucessão entre fases quentes e frias na área tropical do Oceano Pacífico. Os ciclos duram de 20 a 30 anos e são mais amplos que os fenômenos El Niño e La Niña, que se alternam de dois a sete anos. Em 1999, o oceano entrou numa fase fria, que deve durar até 2025 e se reflete em El Niños brandos e La Niñas mais intensos.

Atualmente, o Pacífico está no auge do ciclo de resfriamento, o que, segundo os especialistas, historicamente provoca quatro anos seguidos de verões com chuvas abaixo do normal na região Centro-Sul do Brasil. “Desde 2012, tem chovido abaixo da média no Sul, no Sudeste e em parte do Centro-Oeste durante o verão. A princípio, o que está sendo desenhado é as chuvas só voltarem à média em 2016”, diz o meteorologista Alexandre Nascimento, especialista em análises climáticas da Climatempo.

A partir do segundo semestre, os modelos climáticos apontam a chegada de um novo El Niño, com chuvas no Sul e seca no Nordeste. No entanto, por causa do resfriamento do Oceano Pacífico, o El Niño deverá ser mais fraco que o normal e insuficiente para recompor os reservatórios. “O próximo verão deverá ter mais chuva que o anterior, mas as chuvas tendem a continuar irregulares no Sul e no Sudeste”, adverte Nascimento.

O El Niño é o aquecimento do Oceano Pacífico na região equatorial. Pesquisadora do Instituto Nacional de Pesquisas Espaciais (Inpe), Mary Kayano estudou a relação entre esse fenômeno e a oscilação decadal do Pacífico e constatou um padrão. “Em fases frias da PDO, os El Niños são mais brandos. Tanto que o último El Niño forte ocorreu em 1997, quando o Oceano Pacífico estava numa fase quente”, diz. Ela, no entanto, evita fazer prognósticos sobre o próximo verão. Segundo a pesquisadora, o Inpe emite previsões somente para os próximos três meses.

O comportamento histórico, no entanto, indica que o resfriamento do Pacífico está afetando o Brasil. Segundo o diretor-geral da MetSul Meteorologia, Eugenio Hackbart, o Brasil enfrentou uma sequência de verões com estiagem entre o fim dos anos 1950 e o início da década de 1960, quando o Pacífico atravessava um pico de temperaturas baixas. “Os padrões de circulação atmosférica hoje estão semelhantes aos daquela época”, compara.

Além das chuvas irregulares durante o verão, o resfriamento do Oceano Pacífico traz efeitos distintos conforme as regiões do país, com invernos mais rigorosos no Sul e no Sudeste. “Ano passado, chegou a nevar perto de Florianópolis”, lembra Hackbart. O fenômeno provoca ainda cheias acima da média no Amazonas e no Pará. No entanto, esclarece o diretor da MetSul, não está relacionado à cheia do Rio Madeira, decorrente de chuvas atípicas na Bolívia.

Apesar das chuvas acima da média na maior parte do país em março, Nascimento, da Climatempo, considera que os reservatórios não devem voltar a subir com rapidez por causa do tipo de chuva que tem atingido a região e da chegada da estação seca ao Centro-Sul nos próximos meses. “A verdade é que os reservatórios só enchem com chuvas generalizadas, que duram vários dias e são constantes. Até agora, temos registrado pancadas, que podem ser fortes, mas são eventos isolados”, explica.

Mesmo com a possibilidade de mais um verão com chuvas abaixo da média, os meteorologistas recomendam cuidado com os prognósticos. “A maioria dos estudos sobre os ciclos no Oceano Pacífico é recente. A gente precisa de séries históricas mais longas para compreender a extensão do fenômeno”, diz a pesquisadora do Inpe. Hackbart levanta dúvidas sobre a intensidade do próximo El Niño. “Alguns modelos e especialistas dizem que o próximo El Niño tem chances de ser forte. Nesse caso, as chuvas podem ser mais intensas e ajudar os reservatórios”, pondera.

Aquecimento global contribuiu pouco para estiagem no Centro-Sul (Agência Brasil)

JC e-mail 4923, de 31 de março de 2014

A combinação entre o resfriamento do Oceano Pacífico, que tem provocado chuvas abaixo da média nos últimos anos no Centro-Sul do país, e o aquecimento anormal da porção sul do Atlântico provocou a estiagem

Apontado como o vilão das mudanças climáticas, o aquecimento global tem o papel questionado na estiagem que atingiu o Sul e o Sudeste no início do ano. Para os meteorologistas ouvidos pela Agência Brasil, as emissões de gás carbônico, no máximo, pioraram o calor no Sul e no Sudeste, mas não foram a causa do verão mais seco no Centro-Sul desde o início das medições, em 1931.

A combinação entre o resfriamento do Oceano Pacífico, que tem provocado chuvas abaixo da média nos últimos anos no Centro-Sul do país, e o aquecimento anormal da porção sul do Atlântico provocou a estiagem. As águas aquecidas próximas à costa brasileira fortaleceram um sistema de alta pressão que impediu a entrada de frentes frias e aumentou o calor em janeiro e fevereiro. No entanto, a relação entre a alteração no Atlântico e o aquecimento global ainda não é clara.

“A estiagem foi mais grave que o previsto justamente por causa do sistema de alta pressão do Atlântico que bloqueou as frentes frias, mas não há comprovação de que o Atlântico ficou mais quente por causa do aquecimento global”, explica o diretor-geral da MetSul Meteorologia, Eugenio Hackbart.

Para o especialista em tendências climáticas da Climatempo, Alexandre Nascimento, o aquecimento global está mais relacionado a eventos isolados, como enchentes e furacões, do que a fenômenos de vários anos de duração, como o ciclo de temperaturas baixas no Oceano Pacífico. Ele também questiona se o calor foi consequência apenas das emissões de gás carbônico. “A seca foi tão quente por causa do aquecimento global ou por causa do desmatamento e do crescimento das cidades? As associações não são tão simples”, opina.

Esqueleto-robô da Copa usará técnica já criticada por criador (Folha de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Cientista Miguel Nicolelis muda método para fazer criança paraplégica dar chute inicial na competição

Na abertura da Copa do Mundo do Brasil, uma criança com lesão medular usando um exoesqueleto dará o pontapé inicial da competição. A demonstração pública será o primeiro resultado do projeto “Andar de Novo”, liderado pelo neurocientista brasileiro Miguel Nicolelis. Mas uma recente mudança na maneira como serão captados os sinais cerebrais que controlarão o exoesqueleto traz dúvidas sobre os avanços do projeto no campo da neurociência.

Em sua carreira, Nicolelis sempre fez uma defesa intransigente do implante de eletrodos dentro do cérebro para captar a atividade simultânea de neurônios individuais. Era crítico de métodos não invasivos, como a eletroencefalografia (EEG) –técnica desenvolvida no começo do século passado que usa eletrodos colocados no couro cabeludo para obter tais registros.

Até pelo menos maio do ano passado, Nicolelis ainda dava declarações públicas sobre o desenvolvimento de eletrodos para serem implantados. Mas a partir de outubro de 2013, passou a dizer que usaria sinais obtidos por EEG. Críticas a essa técnica estão em seu livro, em artigos e já rendeu até embates públicos.

Em artigo publicado em 2008 na revista “Scientific American Brasil” e assinado com John Chapin, Nicolelis diz: “Os sinais de EEG, no entanto, não podem ser usados diretamente em próteses de membros, pois mostram a atividade elétrica média de populações amplas de neurônios. É difícil extrair desses sinais as pequeníssimas variações necessárias para codificar movimentos precisos dos braços ou das mãos.”

Em um debate da Associação Americana para o Avanço da Ciência de 2013, o brasileiro dirigiu provocações a Todd Coleman, da Universidade da Califórnia em San Diego, que pesquisa a EEG para controlar próteses. Na ocasião, Nicolelis disse que “haverá aplicações de implantes invasivos porque eles são muito melhores do que dispositivos de superfície”.

Segundo Márcio Dutra Moraes, neurocientista da UFMG, a mudança de metodologia é uma modificação “conceitual em como abordar a questão”. Ele aponta que isso ocorreu não porque a EEG é melhor, mas porque a proposta original era “estupidamente mais complexa” e o uso da EEG simplifica muito as coisas, ainda que não traga nenhum avanço substancial. Segundo Moraes, a mudança “certamente se deu pela impossibilidade de resolver de forma satisfatória e ética o projeto inicial dentro do limite de tempo imposto pela Copa”.

Segundo um cientista com experiência internacional que não quis se identificar, o projeto atual, como será apresentado na Copa, não justificaria os R$ 33 milhões investidos pelo governo.

Edward Tehovnik, pesquisador do Instituto do Cérebro da UFRN, chegou a trabalhar com Nicolelis, mas rompeu com o cientista, que o demitiu. Ele questiona quanto da demonstração de junho será controlada pelo exoesqueleto e quanto será controlada pelo cérebro da criança.

“Minha análise, baseada nos dados publicados, sugere que menos de 1% do sinal virá do cérebro da criança. Os outros 99% virão do robô”. E ele pergunta: “Será mesmo a criança paralisada que vai chutar a bola?”.

Sergio Neuenschwander, professor titular da UFRN, diz que a opção pelo EEG é uma mudança muito profunda no projeto original. Ele diz que é possível usar sinais de EEG para dar comandos ao robô, mas isso é diferente de obter o que seria o código neural de andar, sentar, chutar etc.

“O fato de ele ter optado por uma mudança de técnica mostra o tamanho do desafio pela frente.”

(Fernando Tadeu Moraes/Folha de S.Paulo)
http://www1.folha.uol.com.br/fsp/cienciasaude/158644-esqueleto-robo-da-copa-usara-tecnica-ja-criticada-por-criador.shtml

Concea aprova proposta sobre a substituição progressiva aos testes com animais (Concea)

JC e-mail 4923, de 31 de março de 2014

Câmara Temporária da entidade analisou petição da organização não governamental Humane Society International

Em reunião ordinária realizada no dia 20 de março, o plenário do Conselho Nacional de Controle de Experimentação Animal (Concea) aprovou proposta da Câmara Temporária Métodos Alternativos Substitutivos que sugere a substituição progressiva e segura dos testes com animais por métodos alternativos validados.

A Câmara Temporária recomendou o reconhecimento dos métodos alternativos validados por Centros de Validação, ou por estudos colaborativos internacionais, e aceitos por órgãos oficiais que tenham como objetivo a redução ou a substituição do uso de animais. A proposta foi aprovada pela plenária da 23ª Reunião Ordinária do Concea.

O trabalho da Câmara Temporária teve como foco inicial analisar petição da organização não governamental Humane Society International (HSI) para o banimento de ensaios em animais para cosméticos. Entretanto, por entender que a questão é mais ampla, recomendou que a substituição não se limitasse aos experimentos relacionados a produtos cosméticos e alcançasse toda a cadeia de compostos de produtos químicos.

Para os métodos alternativos validados reconhecidos pelo Concea, fica proibida a utilização de animais, após cinco anos de aprovação do referido método. Este período é necessário para que a infraestrutura laboratorial e os recursos humanos estejam adequados e capacitados para a realização dos ensaios substitutivos. Os métodos alternativos devem ser executados corretamente para não colocar em risco a saúde humana, a dos próprios animais e o meio ambiente.

O Concea deliberou, ainda, pela criação de Câmara Temporária que estabelecerá um cronograma de implementação dos métodos já validados.

O processo de reconhecimento dos métodos alternativos será estabelecido pelo Concea, por meio de Resolução Normativa.

(Conselho Nacional de Controle de Experimentação Animal – Concea)

Global warming dials up our risks, UN report says (AP)

By SETH BORENSTEIN, 30 March 2014

FILE – In this Aug. 20, 2013 file photo, Syrian refugees cross into Iraq at the Peshkhabour border point in Dahuk, 260 miles (430 kilometers) northwest of Baghdad, Iraq. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Hadi Mizban, File)
FILE – In this Dec. 17, 2011 file photo, an Egyptian protester throws a stone toward soldiers, unseen, as a building burns during clashes near Tahrir Square, in Cairo, Egypt. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Ahmad Hammad, File).
FILE – In this Nov. 10, 2013 file photo, a survivor walks by a large ship after it was washed ashore by strong waves caused by powerful Typhoon Haiyan in Tacloban city, Leyte province, central Philippines. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Aaron Favila, File).
FILE – This Nov. 9, 2013 file photo provided by NASA shows Typhoon Haiyan taken by astronaut Karen L. Nyberg aboard the International Space Station. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/NASA, Karen L. Nyberg, File).
FILE – This May 6, 2008 file photo, shows an aerial view of devastation caused by Cyclone Nargis, seen at an unknown location in Myanmar. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/File).
FILE – This Oct. 31, 2012 file photo, shows an aerial view of the damage to an amusement park left in the wake of Superstorm Sandy, in Seaside Heights, N.J. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Mike Groll, File)
FILE – In this Oct. 22, 2005 file photo, a motorcyclist rides past a mountain of trash, sheet rock and domestic furniture, removed from homes damaged by Hurricane Katrina, at one of three dump areas setup for that purpose, in New Orleans, LA. In the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, a United Nations scientific panel reports said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor. (AP Photo/Nati Harnik, File)
FILE – In this Aug. 7, 2010 file photo, a firefighter tries to stop a forest fire near the village of Verkhnyaya Vereya in Nizhny Novgorod region, some 410 km (255 miles) east of Moscow. Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, says a massive new report from a Nobel Prize-winning group of scientists released early Monday, March 31, 2014. (AP Photo/Alexander Zemlianichenko Jr., File)
FILE - This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight ``key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
FILE – This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight “key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)

YOKOHAMA, Japan (AP) — If the world doesn’t cut pollution of heat-trapping gases, the already noticeable harms of global warming could spiral “out of control,” the head of a United Nations scientific panel warned Monday.

And he’s not alone. The Obama White House says it is taking this new report as a call for action, with Secretary of State John Kerry saying “the costs of inaction are catastrophic.”

Rajendra Pachauri, chairman of the Intergovernmental Panel on Climate Change that issued the 32-volume, 2,610-page report here early Monday, told The Associated Press: “it is a call for action.” Without reductions in emissions, he said, impacts from warming “could get out of control.”

One of the study’s authors, Maarten van Aalst, a top official at the International Federation of the Red Cross and Red Crescent Societies, said, “If we don’t reduce greenhouse gases soon, risks will get out of hand. And the risks have already risen.”

Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, according to the report from the Nobel Prize-winning group of scientists. The dangers are going to worsen as the climate changes even more, the report’s authors said.

“We’re now in an era where climate change isn’t some kind of future hypothetical,” said the overall lead author of the report, Chris Field of the Carnegie Institution for Science in California. “We live in an area where impacts from climate change are already widespread and consequential.”

Nobody is immune, Pachauri and other scientists said.

“We’re all sitting ducks,” Princeton University professor Michael Oppenheimer, one of the main authors of the report, said in an interview.

After several days of late-night wrangling, more than 100 governments unanimously approved the scientist-written 49-page summary — which is aimed at world political leaders. The summary mentions the word “risk” an average of about 5 1/2 times per page.

“Changes are occurring rapidly and they are sort of building up that risk,” Field said.

These risks are both big and small, according to the report. They are now and in the future. They hit farmers and big cities. Some places will have too much water, some not enough, including drinking water. Other risks mentioned in the report involve the price and availability of food, and to a lesser and more qualified extent some diseases, financial costs and even world peace.

“Things are worse than we had predicted” in 2007, when the group of scientists last issued this type of report, said report co-author Saleemul Huq, director of the International Centre for Climate Change and Development at the Independent University in Bangladesh. “We are going to see more and more impacts, faster and sooner than we had anticipated.”

The problems have gotten so bad that the panel had to add a new and dangerous level of risks. In 2007, the biggest risk level in one key summary graphic was “high” and colored blazing red. The latest report adds a new level, “very high,” and colors it deep purple.

You might as well call it a “horrible” risk level, said van Aalst: “The horrible is something quite likely, and we won’t be able to do anything about it.”

The report predicts that the highest level of risk would first hit plants and animals, both on land and the acidifying oceans.

Climate change will worsen problems that society already has, such as poverty, sickness, violence and refugees, according to the report. And on the other end, it will act as a brake slowing down the benefits of a modernizing society, such as regular economic growth and more efficient crop production, it says.

“In recent decades, changes in climate have caused impacts on natural and human systems on all continents and across the oceans,” the report says.

And if society doesn’t change, the future looks even worse, it says: “Increasing magnitudes of warming increase the likelihood of severe, pervasive, and irreversible impacts.”

While the problems from global warming will hit everyone in some way, the magnitude of the harm won’t be equal, coming down harder on people who can least afford it, the report says. It will increase the gaps between the rich and poor, healthy and sick, young and old, and men and women, van Aalst said.

But the report’s authors say this is not a modern day version of the Four Horsemen of the Apocalypse. Much of what they warn of are more nuanced troubles that grow by degrees and worsen other societal ills. The report also concedes that there are uncertainties in understanding and predicting future climate risks.

The report, the fifth on warming’s impacts, includes risks to the ecosystems of the Earth, including a thawing Arctic, but it is far more oriented to what it means to people than past versions.

The report also notes that one major area of risk is that with increased warming, incredibly dramatic but ultra-rare single major climate events, sometimes called tipping points, become more possible with huge consequences for the globe. These are events like the melting of the Greenland ice sheet, which would take more than 1,000 years.

“I can’t think of a better word for what it means to society than the word ‘risk,'” said Virginia Burkett of the U.S. Geological Survey, one of the study’s main authors. She calls global warming “maybe one of the greatest known risks we face.”

Global warming is triggered by heat-trapping gases, such as carbon dioxide, that stay in the atmosphere for a century. Much of the gases still in the air and trapping heat came from the United States and other industrial nations. China is now by far the No. 1 carbon dioxide polluter, followed by the United States and India.

Unlike in past reports, where the scientists tried to limit examples of extremes to disasters that computer simulations can attribute partly to man-made warming, this version broadens what it looks at because it includes the larger issues of risk and vulnerability, van Aalst said.

Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, he said.

And in the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, Oppenheimer and van Aalst said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor.

Report co-author Maggie Opondo of the University of Nairobi said that especially in places like Africa, climate change and extreme events mean “people are going to become more vulnerable to sinking deeper into poverty.” And other study authors talked about the fairness issue with climate change.

“Rich people benefit from using all these fossil fuels,” University of Sussex economist Richard Tol said. “Poorer people lose out.”

Huq said he had hope because richer nations and people are being hit more, and “when it hits the rich, then it’s a problem” and people start acting on it.

Part of the report talks about what can be done: reducing carbon pollution and adapting to and preparing for changing climates with smarter development.

The report echoes an earlier U.N. climate science panel that said if greenhouse gases continue to rise, the world is looking at another about 6 or 7 degrees Fahrenheit (3.5 or 4 degrees Celsius) of warming by 2100 instead of the international goal of not allowing temperatures to rise more than 2 degrees Fahrenheit (1.2 degrees Celsius). The difference between those two outcomes, Princeton’s Oppenheimer said, “is the difference between driving on an icy road at 30 mph versus 90 mph. It’s risky at 30, but deadly at 90.”

Tol, who is in the minority of experts here, had his name removed from the summary because he found it “too alarmist,” harping too much on risk.

But the panel vice chairman, Jean-Pascal van Ypersele, said that’s not quite right: “We are pointing for reasons for alarm … It’s because the facts and the science and the data show that there are reasons to be alarmed. It’s not because we’re alarmist.”

The report is based on more than 12,000 peer reviewed scientific studies. Michel Jarraud, secretary general of the World Meteorological Organization, a co-sponsor of the climate panel, said this report was “the most solid evidence you can get in any scientific discipline.”

Michael Mann, a climate scientist at Pennsylvania State University who wasn’t part of this report, said he found the report “very conservative” because it is based on only peer reviewed studies and has to be approved unanimously.

There is still time to adapt to some of the coming changes and reduce heat-trapping emissions, so it’s not all bad, said study co-author Patricia Romero-Lankao of the National Center for Atmospheric Research in Colorado.

“We have a closing window of opportunity,” she said. “We do have choices. We need to act now.”

___

Online:

The Intergovernmental Panel on Climate Change: http://www.ipcc.ch

___

 

Seth Borenstein can be followed at http://twitter.com/borenbears

Mexico: 21 native languages on verge of extinction (Eurasia Review)

MARCH 30, 2014

By Eurasia Review

Mexico has 143 native languages ​​, 21 of which are in critical danger of extinction, such as the Ayapaneco from Tabasco, which is only spoken by two senior adults, followed by Kiliwa of Baja California with only 36 speakers.

Although there are many languages, recent research shows that about 60 are at risk of disappearing, and the extinction process is accelerated because they are spoken by a small group of seniors, which is known as displacement of the language.

When the phase of risk of losing the language is reached, researchers from the Centre of Research and Higher Studies in Social Anthropology (CIESAS) determine the degree of danger for the language to disappear, categorizing it in slow or fast displacement or extinction process.

The Revitalization, Strengthening and Development Program of the National Indigenous Languages ​​ 2008-2012 (PINALI) classifies 143 languages ​​according to vulnerability posing for extinction; 52 are vulnerable, 38 endangered, 32 severely endangered and 21 critically endangered with less than 200 speakers like Oluteco from the east coast, Ixil and Kaqchikel from the south of Mexico, plus Teko qato’k / Motocintleco, Cucapá, Pápago and Ixcateco.

There are also a total of 364 linguistic variations which are taken into account when the languages ​​are not mutually intelligible although they belong to the same group. As the case of the Zapoteco, which due to its 62 variants, was renamed to Zapotecanas languages, explained the researcher at CIESAS, Lourdes de León Pasquel.

In the first phase, according to the National Institute of Indigenous Languages ​​(INALI), there is a loss of speakers from the new generation. The criteria for measuring this situation is when children no longer want to learn to speak the language of their parents and grandparents.

“When the transmission of an indigenous language is in danger of extinction, researchers work with the last speakers to document their knowledge. Documentation is made on grammar, dictionaries and ritual language to record the highest number of lexicon, a treasure to revitalize the language and give it to the new generations,” said the researcher.

Once CIESAS anthropologists gather the information, the revitalization phase begins, which aims to make the new generation interested in a mother language that is on the verge of. However, the process has the disadvantage of working through books and workshops, but fails to reproduce the natural condition of the language, because relearning rates are very low.

For example, Mayan languages have been affected by the migration of speakers of the highlands of Chiapas, the Tsetsal has 371,730 speakers, Tsotsil 329, 937 and Ch’ol 185,299.

These languages ​​have the highest rate of ethnolinguistic retention in the country. To measure the degree of retention displacement that a language has, an equation is performed with the percentage of seniors who still speak it and the children that are learning it.

According to the investigation of Lourdes de León, in the Highlands of Chiapas, there is a devaluation of indigenous languages ​​in current education, reading is rarely practiced in homes as a result of the lifestyle that has been modified by the need of working parents.

The specialist at CIESAS explained that a stable bilingualism in Mexico has to be the aim, it is obvious that the Spanish is needed for other activities such as school and work, but keeping the native language allows a great possibility of expressiveness and even increases learning abilities, speaking more languages ​​has a cognitive effect.

The problem increases when the person has a higher academic preparation, because they ignore their mother language, caused by school and work, where students are taught by teachers who speak Spanish or another language different than theirs, said León Pasquel.

(Agencia ID)

Um oceano nos ares (Fapesp)

Radares e sobrevoos detalham os mecanismos de formação de chuva e o efeito da poluição urbana sobre o clima da Amazônia

CARLOS FIORAVANTI | Edição 217 – Março de 2014

O mundo das águas: nuvens escuras cobrem o rio Negro e Manaus no dia 18 de fevereiro de 2014, antecipando mais uma chuva amazônica

De Manaus

Aqui em Manaus e por esta vasta região Norte chove muito o ano todo, mas as chuvas são diferentes. No início do ano – fevereiro e março – chove quase todo dia, com poucos relâmpagos, e o aguaceiro lava a floresta e as cidades durante horas seguidas. Já no final do ano – de setembro a novembro – as tempestades são mais intensas, com muitos relâmpagos, acordando medos atávicos, e as chuvas são localizadas e mais breves. Para confirmar e detalhar os mecanismos de formação da chuva – diferente em cada região do país e mesmo dentro de uma mesma região – e o efeito da poluição de Manaus sobre o clima da Amazônia, um grupo de 100 pesquisadores do Brasil, dos Estados Unidos e da Alemanha começou a escrutinar o céu da região de Manaus com radares e aviões, por meio do programa Green OceanAmazon (GOAmazon). Lançado oficialmente no dia 18 de fevereiro em Manaus, o GOAmazon conta com orçamento de R$ 24 milhões e apoio financeiro da FAPESP, Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam) e Departamento de Energia e Fundação Nacional de Ciência (NSF) dos Estados Unidos.

A expressão green ocean nasceu em 1999, na primeira grande campanha do programa Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia (LBA). Sobrevoando a floresta de Ji-Paraná, em Rondônia, os pesquisadores – muitos deles integrantes deste novo programa – notaram que as nuvens não se comportavam como o esperado. Nessa região da Amazônia já próxima à Bolívia, imaginava-se que as nuvens tivessem até 20 quilômetros (km) de altura e apresentassem alta concentração de material particulado e de gotas pequenas de chuva, características das chamadas nuvens continentais. Em vez disso, elas tinham características das nuvens oceânicas, com pouco material particulado, de formação mais rápida e topos relativamente baixos, como em áreas oceânicas – era um oceano, não azul, mas verde, por estar sobre a floresta. Antonio Manzi, pesquisador do Instituto Nacional de Pesquisas da Amazônia (Inpa), que participou daquela e de outras expedições do LBA e agora integra o GOAmazon, lembra-se de que foi também em 1999 que verificaram que as chamadas nuvens quentes, que não formam cristais de gelo, eram as predominantes na região – um fato inesperado em áreas continentais.

 

016-021_CAPA_Chuva_217-extraO volume de chuva que cai sobre a bacia amazônica equivale a um oceano. Segundo Manzi, são em média 27 trilhões de toneladas de água por ano. Em termos mais concretos, a chuva, se se acumulasse em vez de escoar no solo, formaria uma lâmina d’água com uma espessura de 2,3 metros ao longo dos 6,1 milhões de quilômetros quadrados da bacia amazônica, que se espalha pelo Brasil e por vários países vizinhos. Luiz Augusto Machado, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe), calculou o volume médio da água de chuva em todo o país: são 14 trilhões de toneladas por ano. Caso se acumulasse, essa água da chuva formaria uma camada de 1,7 metro de altura cobrindo todo o país. Machado é também o coordenador do Projeto Chuva, que integra o GOAmazon e fará agora em Manaus a última etapa de um levantamento sobre os tipos e distribuição de nuvens de chuva no Brasil. 

Ainda não está claro como esse oceano aéreo se forma. “As nuvens podem ou não gerar chuva”, diz Gilberto Fisch, do Instituto de Aeronáutica e Espaço (IAE), de São José dos Campos, e pesquisador do Projeto Chuva. “Costuma-se dizer que, quando há vapor-d’água, a chuva se forma e cai, mas não é bem assim.” A maioria das gotículas que formam as nuvens, com dezenas de micrômetros de diâmetro, se dispersa na forma de vapor. Só uma minoria consegue ganhar volume e se transformar em gotas com diâmetro de 1 a 5 milímetros e cair, por ação da gravidade. Entender como as nuvens se formam e crescem e em quais a chuva efetivamente se forma é uma das metas da equipe do GOAmazon.

Em um dos locais de coleta de informações, no município de Manacapuru, 80 km a oeste de Manaus, 120 equipamentos estão funcionando dia e noite – alguns expostos, outros no interior de 15 contêineres – para levantar informações sobre o clima na região, com o reforço dos balões meteorológicos, soltados a cada seis horas. Sobre um dos contêineres está um radar com alcance de 100 km que examina o formato e a constituição de nuvens formadoras de chuva e, desde 2010, fez o mesmo serviço em outras cidades brasileiras. As informações apuradas sobre as nuvens serão confrontadas com as do satélite GPM, que deve ser lançado em 27 de fevereiro do Japão e permanecer em uma órbita de 400 km de altura, enviando informações sobre as nuvens de chuva em quase todo o planeta. “O GPM vai passar duas vezes por dia sobre Manaus, complementando nossas informações”, diz Machado.

Um avião de pesquisa vindo dos Estados Unidos chegou a Manaus no dia 16 de fevereiro com a previsão de começar a voar nos dias seguintes para examinar diretamente os tipos de cristais de gelo do interior das nuvens e os teores de gás carbônico (CO2) e material particulado. O avião norte-americano e outro da Alemanha devem sobrevoar a cidade e a floresta em setembro para medir as eventuais alterações do clima na estação seca.

Os experimentos, previstos para terminarem em dezembro de 2015, devem resultar em previsões meteorológicas de curto prazo (duas horas) e modelos computacionais de circulação atmosférica mais apurados. Em algumas regiões do país o monitoramento do volume de chuvas, dependente de satélites meteorológicos, ainda é muito impreciso, adiando as medidas de alerta que poderiam salvar vidas antes de as chuvas fortes chegarem.

Varrendo o céu: o radar de nuvem (esquerda) e o de chuva, instalados em Manacapuru, a 80 km de Manaus

Uma metrópole na floresta
Com forte base industrial,  uma frota de 700 mil veículos e quase 2 milhões de habitantes, Manaus, capital do estado do Amazonas, é a maior metrópole tropical do mundo cercada por centenas de quilômetros de floresta. Como a pluma de poluentes produzida por essa megacidade no centro da Amazônia altera o ciclo de vida dos aerossóis e das nuvens em áreas de mata preservada e como esses elementos interagem na atmosfera e provocam mais ou menos chuvas na região?

Essas são as questões centrais que o experimento internacional GOAmazon tentará responder nos próximos anos. Um conjunto detalhado de medidas sobre aerossóis, gases traço (gás carbônico, metano e outros) e nuvens será realizado em seis diferentes sítios. Três se encontram a leste, antes de o vento passar por Manaus, e, portanto, sua atmosfera ainda não foi contaminada pela pluma de poluição da capital. Um quarto posto de medição será na própria metrópole e os dois últimos se situam em Iranduba e Manacapuru, a oeste, onde a atmosfera já carrega a influência dos poluentes emitidos em Manaus.

“Não há outra cidade com uma situação similar à da capital do Amazonas”, afirma Paulo Artaxo, coordenador de projeto temático ligado ao GOAmazon. “Sabemos que a poluição altera a precipitação, mas em que tipo de nuvem e em que circunstância?” Os estudos de Scott Martin, pesquisador da Universidade Harvard e integrante do GOAmazon, indicaram que o efeito dos aerossóis sobre o clima da Amazônia varia de acordo com a época do ano. Já se viu também que as nuvens que passam sobre a cidade recebem poluição e apresentam uma refletividade maior que as sem poluição. As nuvens da floresta têm uma carga de material particulado equivalente à da era pré-industrial.

Maria Assunção da Silva Dias, pesquisadora do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) que coordenou a campanha do LBA em 1999, vai modelar a influência da brisa fluvial originada pelos rios Negro, Solimões e Amazonas sobre o vento que carrega a pluma de poluentes da capital amazonense. A brisa sopra do rio para a terra durante o dia. À noite, ela inverte o sentido.  “Em rios com margens largas, como o Negro, a brisa pode ser um fator capaz de alterar a direção e a intensidade dos ventos, modificando o regime de chuvas em áreas próximas”, diz Maria Assunção, que em 2004 realizou um estudo semelhante sobre a brisa do rio Tapajós, em Santarém, no Pará.

Neve no nordeste
Dispostos a entender melhor a formação de chuva pelo país e a evitar tragédias climáticas, a equipe do Inpe coletou nos últimos quatro anos dados em cinco pontos de amostragem: Alcântara, no Maranhão; Fortaleza, no Ceará; Belém, no Pará; São José dos Campos, em São Paulo; e Santa Maria, no Rio Grande do Sul. Um radar e outros equipamentos agora instalados em Manaus medem o tamanho das gotas nas nuvens e os tipos de cristais que as formam. As formas das gotas, a propósito, são bem diferentes: podem ser horizontais, elípticas ou oblongas, mas todas longe do formato abaulado com que normalmente se representam as gotas de chuva.

Preparando balão meteorológico para soltura

“Esse é o primeiro recenseamento da distribuição de gotas de chuvas e cristais de gelo no território nacional”, diz Machado. O que se notou, em linhas gerais, é que diferentes tipos de nuvens (mais altas ou mais baixas), com diferentes tipos de cristais de gelo (em forma de estrela, coluna ou cone), se formam e se desfazem continuamente em todas as regiões do país. Também se viu que há particularidades regionais, que indicam processos distintos de formação de chuvas e fenômenos surpreendentes. As formas e os humores da chuva pelo país ao longo do ano são diversificados a ponto de lembrarem o poema Caso pluvioso, no qual o poeta Carlos Drummond de Andrade descobre que Maria é que chovia (ele não conta quem era Maria) e a chama de chuvadeira, chuvadonha, chuvinhenta, chuvil e pluvimedonha. E em seguida: “Choveu tanto Maria em minha casa / que a correnteza forte criou asa / e um rio se formou, ou mar, não sei, / sei apenas que nele me afundei”.

A realidade também exibiu um pouco de poesia. “Detectamos neve nas nuvens mais altas sobre a cidade de Fortaleza”, diz Machado. Para decepção dos moradores locais, porém, a neve derrete e cai como chuva comum. No Nordeste predominam as nuvens quentes, assim chamadas porque o topo está abaixo do limite de temperatura de 0oCelsius (ºC) e, por essa razão, nelas não se formam cristais de gelo, como nas regiões mais altas dos outros tipos de nuvens. Por não abrigarem gelo, essas nuvens passam despercebidas pelos satélites meteorológicos e pelos equipamentos de micro-ondas usados para prever a formação de chuvas, resultando em medições imprecisas. As medições de nuvens quentes feitas por radar em Alcântara indicaram que os valores de volume de água, comparados com as medições feitas por satélite, estavam subestimados em mais de 50%, como descrito por Carlos Morales, pesquisador da USP que integra o Projeto Chuva.

O limite – ou isoterma – de 0ºC separa cristais de gelo (acima) e água líquida (abaixo): é uma espécie de porta invisível da chuva, onde o gelo derrete e forma água. Não é lá muito rigorosa, porque no Sudeste, por causa das fortes correntes ascendentes, a água permanece líquida a temperaturas de até 20 graus negativos, acima da camada de derretimento do gelo. “A combinação entre água e gelo em altitudes mais elevadas é a principal razão da maior incidência das descargas elétricas na região Sudeste”, diz Machado.

Manaus sob chuva

Por meio do radar, pode-se examinar a proporção de água e de gelo no interior das nuvens, desse modo obtendo informações que escapam dos satélites usados na previsão do tempo. “Os satélites não detectam as gotas grandes de água e de baixa concentração que vêm do Atlântico e formam as nuvens das regiões Nordeste e Sudeste”, Machado exemplifica. No Nordeste as nuvens, que se concentram na zona costeira, são alimentadas pelas massas de ar vindas de regiões próximas ao equador, que se movem do oceano para o continente. Já no Sul e no Sudeste as chuvas se devem principalmente às massas de ar frio (frentes frias) que vêm da Argentina. Os especialistas dizem que os satélites também não detectam fenômenos que não escapariam ao radar, como a transformação de um vento quente que veio do oceano, esfriou rapidamente ao encontrar as regiões mais frias do alto das serras no Sul do Brasil e desabou como uma chuva impiedosa sobre Blumenau e toda a região leste de Santa Catarina em 2008.

O radar de dupla polarização, em conjunto com outros instrumentos, envia ondas horizontais e verticais que, por reflexão, indicam o formato dos cristais de gelo e das gotas de chuva, desse modo elucidando a composição das nuvens e os mecanismos de formação e intensificação das descargas elétricas (raios) durante as tempestades. Os pesquisadores verificaram que as nuvens com muitos raios são mais altas e abrigam uma diversidade maior de cristais de gelo e mais granizo (pedras de gelo) do que aquelas que produzem menos raios. Além disso, de acordo com esse levantamento, as cargas elétricas negativas permanecem na mesma altura, logo acima do limite de 0oC, e as positivas podem ficar mais altas, acompanhando o topo das nuvens e o aumento da intensidade da descarga elétrica (ver detalhes no infográfico).

“Quem não quer saber onde vai chover antes de sair de casa?”, indaga Machado. Os especialistas acreditam que os dados coletados, combinados com a modelagem computacional já utilizada para a previsão do clima, podem criar uma base sólida de conhecimento teórico e aplicado sobre a chuva continental. Em uma das ramificações do Projeto Chuva – o SOS, Sistema de Observação de Tempo Severo –, o grupo do Inpe trabalhou com equipes da Defesa Civil e de universidades em cada uma das cidades em que se instalaram com os equipamentos para prever a chegada de chuvas com duas horas de antecedência e uma resolução espacial que define possíveis pontos de alagamentos nos bairros, complementando as previsões fornecidas por supercomputadores como o Tupã, instalado no Inpe. Com base nessas experiências, Machado acredita que o radar, acoplado a um sistema de informação geográfica (SIG) e às tecnologias já em uso de previsão de chuva em alta resolução, da ordem de centenas de metros, viabiliza a previsão imediata de tempestades e desastres climáticos, para que o morador de um bairro possa saber, antes de sair de casa, se está chovendo no bairro vizinho, para onde está indo. “Para isso”, ele diz, “precisamos conhecer o tamanho das gotas de chuva e dos fenômenos que se passam no interior das nuvens, como já estamos fazendo”. Eles continuam trabalhando, enquanto agora, como na canção de Tom Jobim, chegam as águas de março, fechando o verão.

Com colaboração de Marcos Pivetta

Projetos
1. Processos de nuvens associados aos principais sistemas precipitantes no Brasil: uma contribuição a modelagem da escala de nuvens e ao GPM (medida global de precipitação) (nº 2009/15235-8); Modalidade Projeto Temático; Pesquisador responsável Luiz Augusto Toledo Machado – Inpe; Investimento R$ 2.188.914,06 (FAPESP).
2. GoAmazon: interação da pluma urbana de Manaus com emissões biogênicas da floresta amazônica (nº 2013/05014-0); Modalidade Projeto temático; Pesquisador responsável Paulo Eduardo Artaxo Netto – IF-USP; Investimento R$ 3.236.501,79 (FAPESP).

Northern and southern hemisphere climates follow the beat of different drummers (Science Daily)

Date: March 30, 2014

Source: University of Bern

Summary: Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across the Earth with implications for regional predictions.

Field work in the Indian Ocean. The corals off the Broome coast, Western Australia, store information about past climate. Credit: Copyright Eric Matson, Australian Institute of Marine Science

Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across Earth with implications for regional predictions.

These findings are demonstrated in a new international study coordinated by Raphael Neukom from the Oeschger Centre of the University of Bern and the Swiss Federal Research Institute WSL and are published today in the journal Nature Climate Change.

The Southern Hemisphere is a challenging place for climate scientists. Its vast oceans, Antarctic ice, and deserts make it particularly difficult to collect information about present climate and, even more so, about past climate. However, multi-centennial reconstructions of past climate from so-called proxy archives such as tree-rings, lake sediments, corals, and ice-cores are required to understand the mechanisms of the climate system. Until now, these long-term estimates were almost entirely based on data from the Northern Hemisphere.

Over the past few years, an international research team has made a coordinated effort to develop and analyse new records that provide clues about climate variation across the Southern Hemisphere. Climate scientists from Australia, Antarctic-experts, as well as data specialists and climate modellers from South and North America and Europe participated in the project. They compiled climate data from over 300 different locations and applied a range of methods to estimate Southern Hemisphere temperatures over the past 1000 years. In 99.7 percent of the results, the warmest decade of the millennium occurs after 1970.

Surprisingly, only twice over the entire last millennium have both hemispheres simultaneously shown extreme temperatures. One of these occasions was a global cold period in the 17th century; the other one was the current warming phase, with uninterrupted global warm extremes since the 1970s. “The ‘Medieval Warm Period’, as identified in some European chronicles, was a regional phenomenon,” says Raphael Neukom. “At the same time, temperatures in the Southern Hemisphere were only average.” The researchers ascribe these large differences to so-called “internal variability.” This term describes the chaotic interplay of the ocean and atmosphere within the climate system that leads to temperatures changing in one or the other direction. Regional differences in these fluctuations appear to be larger than previously thought.

The scientists discovered that most climate models are unable to satisfactorily simulate the considerable differences between the hemispheres. The models appear to underestimate the influence of internal variability, in comparison with external forcings like solar irradiation, volcanic eruptions or human greenhouse gas emissions. “Regional differences in the climatic evolution of the next decades could therefore be larger than the current models predict,” says Neukom.

Journal Reference:

  1. Raphael Neukom, Joëlle Gergis, David J. Karoly, Heinz Wanner, Mark Curran, Julie Elbert, Fidel González-Rouco, Braddock K. Linsley, Andrew D. Moy, Ignacio Mundo, Christoph C. Raible, Eric J. Steig, Tas van Ommen, Tessa Vance, Ricardo Villalba, Jens Zinke, David Frank. Inter-hemispheric temperature variability over the past millenniumNature Climate Change, 2014; DOI:10.1038/NCLIMATE2174

Brasil sedia conferência sobre comunicação pública da ciência (Fapesp)

Questões relacionadas à prática e à pesquisa em divulgação científica integram a programação do evento que ocorrerá em Salvador; inscrições com desconto vão até 7 de abril (PSCT)

31/03/2014

Agência FAPESP –A Rede Internacional de Comunicação Pública da Ciência e da Tecnologia (PCST, na sigla em inglês) realiza, pela primeira vez na América Latina, entre 5 e 8 de maio, sua conferência internacional que tem, entre os objetivos principais, promover debates sobre o engajamento público em temas relacionados a ciência e tecnologia.

Formada por indivíduos de diversas partes do mundo que produzem e estudam na área de comunicação pública de ciência e tecnologia, a Rede PCST patrocina conferências, discussões virtuais e outras atividades que promovam novas ideias e perspectivas.

A edição deste ano terá como tema central “Divulgação da Ciência para a inclusão social e o engajamento político”. A ideia é mostrar que, mesmo com investimento em ciência e tecnologia, a maior parte do mundo ainda enfrenta a exclusão social e o desenvolvimento desigual, separando cada vez mais os países ricos dos pobres. O papel da difusão científica é criar possibilidades de ação dos cidadãos que permitam reduzir essa diferença.

Na plenária “Comunicação da ciência e mídia social”, os participantes poderão conferir as palestras de Dominique Brossard, da Universidade de Wisconsin, dos Estados Unidos, e membro do comitê científico da Rede PCST, e de Mohammed Yahia, editor da Nature Middle East, do Egito.

Além da Rede Internacional do PCST, o evento é promovido pelo Museu da Vida, da Fundação Oswaldo Cruz (Fiocruz), e pelo Laboratório de Estudos Avançados em Jornalismo (Labjor), da Universidade Estadual de Campinas (Unicamp).

As inscrições com desconto na taxa podem ser realizadas até 7 de abril. As atividades ocorrerão no Hotel Pestana Bahia, que fica na Rua Fonte do Boi, 216, em Salvador.

Mais informações http://www.pcst-2014.org/index.php/pt-BR/

Brazil police push into slums in Rio (Washington Post)

By Associated PressPublished: March 30

RIO DE JANEIRO — About 1,000 Brazilian police officers have begun invading a massive complex of slums near Rio de Janeiro’s international airport, the latest impoverished area to be targeted for the government’s “pacification” program.

The security effort began in 2008 and is meant to help secure Rio before this year’s World Cup and the 2016 Olympics.

Armored personnel carriers on loan from the Navy were used during the push into the Mare complex of shantytowns before dawn Sunday. Army soldiers are expected to start patrolling the area in the coming days.
Mare has been dominated by drug gangs for decades. In recent months, they have attacked police outposts in other slums, a direct challenge to security ahead of Brazil’s big events.

To date, there have been 37 police “pacification” outposts created in Rio.

80 percent of U.S. adults face near-poverty, unemployment, survey finds (CBS)

People look through boxes of food during a food distribution by the Food Bank of the Southern Tier Mobile Food Pantry on June 20, 2012 in Oswego, New York. The mobile food pantry program was introduced in 2007 in the Southern Tier of New York and covers nearly 4,000 predominately rural miles. The converted beverage truck delivers fresh produce, dairy products and other grocery items to individuals and families in need. The pantry typically distributes for a period of two hours and provides 100 to 160 families with food. According to the 2010 Census, 15.72% the population serviced by the mobile pantry live at or below the federal poverty level. According to statistics presented at a recent U.S. Senate committee hearing, almost one in seven Americans are living below the poverty line with a significant number of them being children.  SPENCER PLATT/GETTY IMAGES

Four out of 5 U.S. adults struggle with joblessness, near-poverty or reliance on welfare for at least parts of their lives, a sign of deteriorating economic security and an elusive American dream.

Survey data exclusive to The Associated Press points to an increasingly globalized U.S. economy, the widening gap between rich and poor, and the loss of good-paying manufacturing jobs as reasons for the trend.

The findings come as President Barack Obama tries to renew his administration’s emphasis on the economy, saying in recent speeches that his highest priority is to “rebuild ladders of opportunity” and reverse income inequality.

As nonwhites approach a numerical majority in the U.S., one question is how public programs to lift the disadvantaged should be best focused — on the affirmative action that historically has tried to eliminate the racial barriers seen as the major impediment to economic equality, or simply on improving socioeconomic status for all, regardless of race.

Hardship is particularly growing among whites, based on several measures. Pessimism among that racial group about their families’ economic futures has climbed to the highest point since at least 1987. In the most recent AP-GfK poll, 63 percent of whites called the economy “poor.”

“I think it’s going to get worse,” said Irene Salyers, 52, of Buchanan County, Va., a declining coal region in Appalachia. Married and divorced three times, Salyers now helps run a fruit and vegetable stand with her boyfriend but it doesn’t generate much income. They live mostly off government disability checks.

“If you do try to go apply for a job, they’re not hiring people, and they’re not paying that much to even go to work,” she said. Children, she said, have “nothing better to do than to get on drugs.”

While racial and ethnic minorities are more likely to live in poverty, race disparities in the poverty rate have narrowed substantially since the 1970s, census data show. Economic insecurity among whites also is more pervasive than is shown in the government’s poverty data, engulfing more than 76 percent of white adults by the time they turn 60, according to a new economic gauge being published next year by the Oxford University Press.

The gauge defines “economic insecurity” as a year or more of periodic joblessness, reliance on government aid such as food stamps or income below 150 percent of the poverty line. Measured across all races, the risk of economic insecurity rises to 79 percent.

Marriage rates are in decline across all races, and the number of white mother-headed households living in poverty has risen to the level of black ones.

“It’s time that America comes to understand that many of the nation’s biggest disparities, from education and life expectancy to poverty, are increasingly due to economic class position,” said William Julius Wilson, a Harvard professor who specializes in race and poverty. He noted that despite continuing economic difficulties, minorities have more optimism about the future after Obama’s election, while struggling whites do not.

“There is the real possibility that white alienation will increase if steps are not taken to highlight and address inequality on a broad front,” Wilson said.

___

Nationwide, the count of America’s poor remains stuck at a record number: 46.2 million, or 15 percent of the population, due in part to lingering high unemployment following the recession. While poverty rates for blacks and Hispanics are nearly three times higher, by absolute numbers the predominant face of the poor is white.

More than 19 million whites fall below the poverty line of $23,021 for a family of four, accounting for more than 41 percent of the nation’s destitute, nearly double the number of poor blacks.

Sometimes termed “the invisible poor” by demographers, lower-income whites generally are dispersed in suburbs as well as small rural towns, where more than 60 percent of the poor are white. Concentrated in Appalachia in the East, they are numerous in the industrial Midwest and spread across America’s heartland, from Missouri, Arkansas and Oklahoma up through the Great Plains.

Buchanan County, in southwest Virginia, is among the nation’s most destitute based on median income, with poverty hovering at 24 percent. The county is mostly white, as are 99 percent of its poor.

More than 90 percent of Buchanan County’s inhabitants are working-class whites who lack a college degree. Higher education long has been seen there as nonessential to land a job because well-paying mining and related jobs were once in plentiful supply. These days many residents get by on odd jobs and government checks.

Salyers’ daughter, Renee Adams, 28, who grew up in the region, has two children. A jobless single mother, she relies on her live-in boyfriend’s disability checks to get by. Salyers says it was tough raising her own children as it is for her daughter now, and doesn’t even try to speculate what awaits her grandchildren, ages 4 and 5.

Smoking a cigarette in front of the produce stand, Adams later expresses a wish that employers will look past her conviction a few years ago for distributing prescription painkillers, so she can get a job and have money to “buy the kids everything they need.”

“It’s pretty hard,” she said. “Once the bills are paid, we might have $10 to our name.”

poverty, urban decline, generic, america, connecticut

A car drives by a closed factory on May 20, 2013 in Waterbury, Connecticut. Waterbury, once a thriving industrial city with one of the largest brass manufacturing bases in the world, has suffered economically in recent decades as manufacturing jobs have left the area. According to recent census data, 20.6 percent of the city’s residents are living below the poverty level. SPENCER PLATT/GETTY IMAGES

Census figures provide an official measure of poverty, but they’re only a temporary snapshot that doesn’t capture the makeup of those who cycle in and out of poverty at different points in their lives. They may be suburbanites, for example, or the working poor or the laid off.

In 2011 that snapshot showed 12.6 percent of adults in their prime working-age years of 25-60 lived in poverty. But measured in terms of a person’s lifetime risk, a much higher number — 4 in 10 adults — falls into poverty for at least a year of their lives.

The risks of poverty also have been increasing in recent decades, particularly among people ages 35-55, coinciding with widening income inequality. For instance, people ages 35-45 had a 17 percent risk of encountering poverty during the 1969-1989 time period; that risk increased to 23 percent during the 1989-2009 period. For those ages 45-55, the risk of poverty jumped from 11.8 percent to 17.7 percent.

Higher recent rates of unemployment mean the lifetime risk of experiencing economic insecurity now runs even higher: 79 percent, or 4 in 5 adults, by the time they turn 60.

By race, nonwhites still have a higher risk of being economically insecure, at 90 percent. But compared with the official poverty rate, some of the biggest jumps under the newer measure are among whites, with more than 76 percent enduring periods of joblessness, life on welfare or near-poverty.

By 2030, based on the current trend of widening income inequality, close to 85 percent of all working-age adults in the U.S. will experience bouts of economic insecurity.

“Poverty is no longer an issue of ‘them’, it’s an issue of ‘us’,” says Mark Rank, a professor at Washington University in St. Louis who calculated the numbers. “Only when poverty is thought of as a mainstream event, rather than a fringe experience that just affects blacks and Hispanics, can we really begin to build broader support for programs that lift people in need.”

The numbers come from Rank’s analysis being published by the Oxford University Press. They are supplemented with interviews and figures provided to the AP by Tom Hirschl, a professor at Cornell University; John Iceland, a sociology professor at Penn State University; the University of New Hampshire’s Carsey Institute; the Census Bureau; and the Population Reference Bureau.

Among the findings:

–For the first time since 1975, the number of white single-mother households living in poverty with children surpassed or equaled black ones in the past decade, spurred by job losses and faster rates of out-of-wedlock births among whites. White single-mother families in poverty stood at nearly 1.5 million in 2011, comparable to the number for blacks. Hispanic single-mother families in poverty trailed at 1.2 million.

–Since 2000, the poverty rate among working-class whites has grown faster than among working-class nonwhites, rising 3 percentage points to 11 percent as the recession took a bigger toll among lower-wage workers. Still, poverty among working-class nonwhites remains higher, at 23 percent.

–The share of children living in high-poverty neighborhoods — those with poverty rates of 30 percent or more — has increased to 1 in 10, putting them at higher risk of teenage pregnancy or dropping out of school. Non-Hispanic whites accounted for 17 percent of the child population in such neighborhoods, compared with 13 percent in 2000, even though the overall proportion of white children in the U.S. has been declining.

The share of black children in high-poverty neighborhoods dropped from 43 percent to 37 percent, while the share of Latino children went from 38 percent to 39 percent.

–Race disparities in health and education have narrowed generally since the 1960s. While residential segregation remains high, a typical black person now lives in a nonmajority black neighborhood for the first time. Previous studies have shown that wealth is a greater predictor of standardized test scores than race; the test-score gap between rich and low-income students is now nearly double the gap between blacks and whites.

___

Going back to the 1980s, never have whites been so pessimistic about their futures, according to the General Social Survey, a biannual survey conducted by NORC at the University of Chicago. Just 45 percent say their family will have a good chance of improving their economic position based on the way things are in America.

The divide is especially evident among those whites who self-identify as working class. Forty-nine percent say they think their children will do better than them, compared with 67 percent of nonwhites who consider themselves working class, even though the economic plight of minorities tends to be worse.

Although they are a shrinking group, working-class whites — defined as those lacking a college degree — remain the biggest demographic bloc of the working-age population. In 2012, Election Day exit polls conducted for the AP and the television networks showed working-class whites made up 36 percent of the electorate, even with a notable drop in white voter turnout.

Last November, Obama won the votes of just 36 percent of those noncollege whites, the worst performance of any Democratic nominee among that group since Republican Ronald Reagan’s 1984 landslide victory over Walter Mondale.

Some Democratic analysts have urged renewed efforts to bring working-class whites into the political fold, calling them a potential “decisive swing voter group” if minority and youth turnout level off in future elections. “In 2016 GOP messaging will be far more focused on expressing concern for ‘the middle class’ and ‘average Americans,'” Andrew Levison and Ruy Teixeira wrote recently in The New Republic.

“They don’t trust big government, but it doesn’t mean they want no government,” says Republican pollster Ed Goeas, who agrees that working-class whites will remain an important electoral group. His research found that many of them would support anti-poverty programs if focused broadly on job training and infrastructure investment. This past week, Obama pledged anew to help manufacturers bring jobs back to America and to create jobs in the energy sectors of wind, solar and natural gas.

“They feel that politicians are giving attention to other people and not them,” Goeas said.

A Return to a World Marx Would Have Known (New York Times)

Doug Henwood is editor of Left Business Observer, host of a weekly radio show originating on KPFA, Berkeley, and is author of several books, including “Wall Street: How It Works and For Whom” and “After the New Economy.”

UPDATED MARCH 30, 2014, 7:02 PM

I don’t see how you can understand our current unhappy economic state without some sort of Marx-inspired analysis.

Here we are, almost five years into an officially designated recovery from the worst downturn in 80 years, and average household incomes are more than 8 percent below where they were when the Great Recession began, and employment still 650,000 short of its pre-recession high.

For years, excessive consumer borrowing muted the effects of stagnant wages. But low demand is stifling the economy, with no end in sight.

Though elites are prospering, for millions of Americans, it’s as if the recession never ended.

How can this all be explained? The best way to start is by going back to the 1970s. Corporate profitability — which, as every Marxist schoolchild knows, is the motor of the system — had fallen sharply off its mid-1960s highs. Stock and bond markets were performing miserably. Inflation seemed to be rising without limit. After three decades of seemingly endless prosperity, workers had developed a terrible attitude problem, slacking off and, quaintly, even going out on strike. It’s no accident that Johnny Paycheck scored a No. 1 country hit with “Take This Job and Shove It” in 1977 — utterly impossible to imagine today.

This is where Marx begins to come in. At the root of these problems was a breakdown in class relations: workers no longer feared the boss. A crackdown was in order.

And it came, hard. In October 1979, the Federal Reserve began driving interest rates toward 20 percent, to kill inflation and restrict borrowing, creating the deepest recession since the 1930s. (It was a record we only broke in 2008/2009). A little over a year later, Ronald Reagan came into office, fired the striking air-traffic controllers, setting the stage for decades of union busting to follow. Five years after Johnny Paycheck’s hit, workers were desperate to hold and/or get jobs. No more attitude problem.

The “cure” worked for about 30 years. Corporate profits skyrocketed and financial markets thrived. The underlying mechanism, as Marx would explain it, is simple: workers produce more in value than they are paid, and the difference is the root of profit. If worker productivity rises while pay remains stagnant or declines, profits increase. This is precisely what has happened over the last 30 years. According to the Bureau of Labor Statistics, productivity rose 93 percent between 1980 and 2013, while pay rose 38 percent (all inflation-adjusted).

The 1 percent got ever-richer and more powerful. But there was a problem: a system dependent on high levels of mass consumption has a hard time coping with the stagnation or decline in mass incomes.The development of a mass consumer market after Marx died, with the eager participation of a growing middle class, caused a lot of people to say his analysis was obsolete. But now, with the hollowing out of the middle class and the erosion of mass purchasing power, the whole 20th century model of mass consumption is starting to look obsolete.

Borrowing sustained the mass consumption model for a few decades. Non-rich households borrowed to buy cars, buy food, pay medical bills, buy ever-more-expensive houses, and so on. Conveniently, rich households had plenty of spare cash to lend them.

That model broke apart in 2008 and has not — and cannot — be revived. Without the juice provided by spirited borrowing, demand remains constricted and growth rates, low. (See also: Europe.)

Raising the incomes of the bottom 90 percent of the population through higher wages and public spending initiatives — stifled since Reagan starting putting the squeeze on them — could change that. But the stockholding class has resisted that, and they have a lot of political power.

And an extraordinarily lopsided economy is the result. We didn’t expect that the 21st century would bring about a return of the 19th century’s vast disparities, but it’s looking like that’s just what’s happened.

Climate Change causing Shrinkage in Appalachia‘s Salamanders (Austrian Tribune)

Submitted by Annika Linser on Wed, 03/26/2014 – 08:18

Climate change is not the only bane of human beings but is troubling salamanders too. A new report, published in Global Change Biology, revealed that climate change is causing salamanders in Appalachia to shrink as the amphibians are forced to burn more energy to ensure their survival.

The report said salamanders caught in the Appalachian Mountains since 1980 have become on average 8% smaller than museum specimens caught before then.

Due to increase in temperature, salamanders have to expend more energy and it is not a hidden fact that expending more energy makes every species smaller. The rate at which the salamander has shrunk is the largest and the fastest ever recorded in any animal, said University of Maryland professor Karen Lips.

First warnings over the same were reported by David Bickford of the National University of Singapore in a paper published in Nature Climate Change in 2011. He wrote, “The observed and expected patterns of decreased body size are widespread across different taxa, and are likely to be reported from an increasingly wide array of taxa over the coming century”.

He named at least 30 mammals, birds, frogs, and plants that suffered shrinkage because of climate change, whereas another 9 species showed some growth because of the phenomenon.

Lips said that is it not made certain yet that why and how it is happening, but their data clearly shows that it is correlated with climate change. Whatever the reason is, the timing is certainly not good as salamanders and other amphibians are already in distress, with some species reaching extinction and others experiencing huge decline in numbers.

Lips and her colleagues found six salamander species shrunk significantly and only one got slightly larger between 1957 and 2012. On an average, each generation of salamander was 1% smaller than its parent’s generation.

OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano (Rádio ONU)

Saúde
27/3/2014 – 11h25

por Leda Letra, da Rádio ONU

traffic cars pollution 300x257 OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano

Dados apresentados esta terça-feira, 25, confirmam que má qualidade do ar é líder ambiental em riscos para a saúde; doenças do coração, derrames e obstrução crônica do pulmão são as principais consequências da poluição.

A Organização Mundial da Saúde calcula que uma a cada oito mortes no mundo é causada pela exposição ao ar poluído. A nova estatística da agência da ONU foi apresentada esta terça-feira em Genebra.

Em 2012, cerca de 7 milhões de pessoas morreram devido à poluição do ar, duas vezes mais do que as estimativas anteriores. Segundo a OMS, esta é a principal causa ambiental de riscos à saúde.

Detalhes

A pesquisa revela uma forte ligação entre a poluição do ar e doenças respiratórias, do coração, derrames e câncer. A nova estimativa é baseada em um melhor conhecimento sobre a exposição humana ao ar e tecnologias mais avançadas para medir esses dados, incluindo o uso de satélites.

De acordo com a OMS, os cientistas conseguiram fazer uma análise detalhada dos riscos à saúde a partir de uma distribuição demográfica mais ampla, incluindo áreas rurais e urbanas.

Carvão

A agência calcula que a poluição do ar em ambientes fechados foi relacionada a mais de 4,3 milhões de mortes. Os casos estavam ligados ao uso de fogões de biomassa, carvão e madeira para cozinhar.

No caso da poluição em áreas abertas, o levantamento da OMS fala em 3,7 milhões de mortes em áreas rurais e urbanas.

Como a maioria das pessoas está exposta ao ar poluído em locais internos e abertos, as taxas de mortalidade não podem ser somadas e por isso, a OMS chegou à média de 7 milhões de mortes em 2012.

Coração e Pulmão

Os países do sudeste asiático e do Pacífico tiveram os maiores números de mortes relacionadas à poluição do ar, com quase 6 milhões de casos.

Em todo o mundo, 40% das pessoas que morreram pela poluição do ar em ambientes abertos sofreram doenças do coração; outros 40% tiveram derrame. Entre as outras causas de mortes, estão doença pulmonar obstrutiva crônica, câncer de pulmão e infecção respiratória aguda em crianças.

Transportes

Já os pacientes que morreram como consequência da poluição do ar em ambientes fechados tiveram principalmente derrame (34%), doenças do coração (26%), e do pulmão (22%).

Segundo a diretora do Departamento de Saúde Pública da OMS, Maria Neira, os riscos do ar poluído são bem maiores do que o previsto, em especial nos casos de doenças do coração e derrames. Para Neira, a evidência mostra a necessidade de ação combinada para a limpeza do ar que respiramos.

A OMS lembra que a poluição excessiva do ar geralmente está ligada a políticas insustentáveis nos setores de transportes, energia, gestão de resíduos e indústrias.

* Publicado originalmente no site Rádio ONU e retirado do site CarbonoBrasil.

Réguas do clima no campo (Fapesp)

Estações meteorológicas de São Paulo com séries históricas mais longas surgiram em Campinas e Piracicaba

NELDSON MARCOLIN | Edição 217 – Março de 2014

Livros de registros da estação da Esalq de 1917

A coleta sistemática de dados climáticos no Brasil começou a ser feita na primeira metade do século XIX no Imperial Observatório do Rio de Janeiro, atual Observatório Nacional. Em São Paulo, o Instituto Agronômico de Campinas (IAC) instalou sua primeira estação meteorológica em 1890, no interior paulista, com um objetivo mais específico do que conhecer o comportamento do tempo: realizar pesquisas sobre a influência do clima nas culturas agrícolas. “Os técnicos observadores anotavam cinco vezes por dia, em folhas de um metro de largura, informações sobre temperatura, umidade do ar, radiação solar e nebulosidade”, diz Orivaldo Brunini, coordenador do Centro Integrado de Informações Agrometeorológicas do IAC, órgão ligado à Secretaria Estadual de Agricultura e Abastecimento.

A estação mecânica pioneira começou a funcionar três anos depois da fundação do IAC. Três técnicos se revezavam na leitura dos dados durante todos os dias, sem exceção. “Os equipamentos, os mais modernos da época, vieram da Alemanha”, diz Brunini. Os dados eram analisados posteriormente pelos engenheiros agrônomos, mas as informações demoravam a chegar aos agricultores. Com o tempo, outras cidades do interior ganharam suas estações. Em 1956, o instituto começou a fazer anuários meteorológicos agronômicos e, em seguida, boletins mensais. Hoje há 150 estações que funcionam com sensores automáticos, que não dependem de observadores e fornecem informações em tempo real via internet. O IAC recebe 120 mil consultas por mês – 4 mil por dia. Os dados são usados para orientar os agricultores e também a Defesa Civil contra enchentes ou incêndios.

“O material histórico acumulado fornece séries que ajudam na análise de mudanças climáticas e é parte da história da região por guardar o registro de grandes estiagens ou geadas, por exemplo”, diz Brunini. Segundo ele,
há registro de apenas duas interrupções do serviço. Elas ocorreram durante a Revolução de 1932, quando as tropas paulistas estacionaram na fazenda do IAC, em julho, onde ficava a estação, e quando as forças federais estiveram no mesmo local, em outubro.

Estação da Esalq nos anos 1930

Em 1917 iniciaram-se as observações que originaram a segunda série mais antiga de São Paulo na estação instalada na então Escola Agrícola Prática de Piracicaba, hoje Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP). “As leituras eram realizadas quatro vezes por dia e uma delas seguia por telégrafo para a Diretoria de Meteorologia e Astronomia do Observatório Nacional, hoje Instituto Nacional de Meteorologia, o Inmet, para compor as informações meteorológicas diárias e de previsão de tempo de todo o país”, conta Luiz Roberto Angelocci, professor sênior do Departamento de Engenharia de Biossistemas da Esalq. A partir da década de 1960, os estudos se tornaram mais específicos para análise das relações clima-agricultura e, desde o final de 1996, foi instalada a coleta automatizada de dados, sem desativação da coleta convencional. Os dados estão disponíveis na internet.

Angelocci trabalha na análise das séries históricas geradas nos 97 anos de registro. “O que se pretende é uma reanálise completa da série, além de uma melhor exploração dos dados”, diz ele. Séries longas são fundamentais para o entendimento do clima e das causas de sua variabilidade. São importantes, também, para mostrar o que pode ser meramente uma anomalia climática ou uma tendência. “Aliás, certas anomalias não são tão raras como parecem. A situação atual de período seco no estado de São Paulo, por exemplo, ocorreu de forma análoga em outros anos”, conta Angelocci. Ele observou que em cinco anos da série, o primeiro deles em 1935, a chuva ficou abaixo de 40% da média de toda a série para o mês de janeiro. “Não dá para ser categórico e afirmar que a seca atual é resultado ou não de mudanças climáticas recentes quando sabemos que nos últimos 97 anos ocorreram períodos semelhantes ao atual”, conclui o pesquisador.

Stengers on emergence (BioSocieties)

BioSocieties (2014) 9, 99–104. doi:10.1057/biosoc.2013.43

Isabelle Stengers. Cosmopolitics. Minneapolis, London: University of Minnesota Press, 299 pp., US$25, £18.50, ISBN: 9780816656868; 9780816656875

Reviewed by Graham Harman

American University, Cairo, Egypt. E-mail: gharman@aucegypt.edu

Cosmopolitics, the major work of Belgian philosopher Isabelle Stengers, has been available in English since 2011 in a lucid two-volume translation by Robert Bononno. In the Anglophone world Stengers is already known as a formidable interpreter of Alfred North Whitehead, a thinker she has done so much to disseminate in the French-speaking world (Stengers, 2011). But in the present work we encounter Stengers’ own philosophical voice even more directly. Originally published in the 1990’s in seven slim French volumes, Cosmopolitics should be regarded as one of the most unique works of continental philosophy in the past several decades.

For many years, continental philosophy was attacked for its focus on purely literary and social science texts, far from the stunningly successful labors of the natural sciences. Cosmopolitics is one of several prominent recent works that have begun to reverse this trend. Karen Barad’s Meeting the Universe Halfway also comes to mind (Barad, 2007), as does Manuel DeLanda’s Intensive Science and Virtual Philosophy(DeLanda, 2002), along with several books on neuroplasticity by Cathérine Malabou (2008) All of these works have had considerable influence, and they may look in retrospect like a collective turning point. Yet Cosmopolitics differs from the others in at least two respects. First, Stengers gives us a long historical narrative filled with a roster of heroes barely familiar to her philosophy readership: Lagrange, Carnot, Hamilton, Duhem, Poincaré, and de Donder among them. Second, Stengers writes as someone personally invested in this history, since she worked as a close associate of Ilya Prigogine, the celebrated Russian-born Belgian chemist. Despite receiving a Nobel Prize in 1977, Prigogine ended his career as a somewhat marginalized figure, accused of ‘delusions of grandeur’ for reasons described in haunting fashion by Stengers herself.1

What will become of Stengers’ detailed history of dynamics among her philosophically minded readers? Gilles Deleuze launched an unexpected fashion for the Stoics and Duns Scotus, to name just two of his ‘minor’ favorites. Alain Badiou has spurred a generation of young readers to learn set theory and idolize the madman-genius Cantor. Will Stengers’ Cosmopolitics provoke a comparable wave of enthusiasm for the history of dynamics? Or will it remain an intriguing dark horse of a book, left by the wayside as different paths are followed? As Stengers demonstrates in her approach to the history of physics, there is no way to predict which human works will become events that produce a tangible line of heirs. Just as Prigogine’s scientific breakthrough in 1972 could have rewritten the history of physics,2 Stengers’ lengthy treatise could lead to a new style of continental philosophy: steeped in Deleuze and Whitehead, while closely tracking the shift from Lagrangians to Hamiltonians to Niels Bohr’s model of the atom. While this may sound unlikely in view of the meager past relations between science and continental philosophy, who would have expected Cantor to become a favorite of young French philosophers? It is at least conceivable that Stengers has opened a door that other talented thinkers will enter, and this gives Cosmopolitics the refreshing air of a possible future, no matter what eventually becomes of the book.

What must now be asked is whether the elegance and historical thoroughness of Cosmopolitics go hand-in-hand with a compelling philosophical position. In her remarkably calm and even-tempered book, Stengers nonetheless shows considerable impatience with philosophers of the old style, who brandish their arrogant certainties about how the world really is. She argues instead for what she calls an “ecology of practices.” Yet this ecological program turns out to be an ontology in its own right, as open to counter-argument as any other. To zero in on Stengers’ ontology, I will focus on her concept of emergence. This is both a central philosophical theme of Cosmpolitics and a topic where she differentiates her views equally from the ‘reductionists’ and the ‘holists,’ who are presented as sharing the same basic flaw. Though it may seem difficult to extract isolated themes from such a densely interwoven work, the brief format of the present review requires that we make the attempt. Ignoring for now her critique of the notion of physical ‘states,’ and her important passing salute to Gilbert Simondon’s dismissal of fully formed individuals, we can find the core of Stengers’ concept of emergence in Chapters 13 and 14 of Cosmopolitics II. These chapters are entitled ‘The Question of Emergence’ and “The Practices of Emergence,”3 and together total just under thirty pages.

Before considering Stengers’ own views, we should place the question of emergence in philosophical context. How does something new emerge irreversibly from the old? This was a central concern of Henri Bergson a century ago, and Francophone thought since the 1960’s has often been nearly obsessed with the question of the new.4 Beyond this theme of the new arising from the old, emergence can also be framed as the question of how the large emerges from the small or the more composite from the more simple. If this never happens, if mid-sized entities are always mere aggregates of tinier authentic things, then we are left with a reductionist or even eliminativist approach to the world in which a privileged ultimate layer is treated as the sole authentic reality. Thinking would thereby become a permanent exercise isundermining: debunking illusory macroscopic beings in favor of underlying subcomponents or perhaps even a barely articulate, gelatinous mass (See Harman, 2011). Particle physics would become the chosen discipline of the gods; all others would have to accept a subordinate local status, ruled by the ultimate primacy of physics.5

Yet we must also beware of a kind of reduction that moves upwards rather than downwards – namely, the kind that I have called overmining. Instead of dissolving a thing into its constituents, we might dissolve it upward into appearances, effects, manifestations, or events, while mocking the ‘naïve realism’ that posits discrete individuals hiding behind their tangible manifestations. Or we might play the double game of doing both at once, duomining the world by appealing sometimes to ultimate particles or indeterminate flux as the bedrock of reality, and other times to an uppermost layer of the visible, the evental, or the determinate that float without a bedrock.6 What is lost through this two-faced process is the middle kingdom: the robust reality of specific things that are more than the inner relations of their parts, but less than their outer relations with their environment. Object-oriented philosophy insists on the rights of the middle kingdom, with objects protected from reduction in two directions rather than just one. From an object-oriented standpoint, how does Stengers look when it comes to the question of emergence? Is she an underminer, an overminer, a duominer, or an ally? Or does she somehow escape all of these categories, which through her act of escape would be exposed as artificial or at least non-exhaustive? Whatever the answer, this will not be an exercise in name-calling or empty labelling. Each of the terms just mentioned (undermining, overmining, duomining, object-oriented) has a precise meaning and definite philosophical consequences.

Stengers is aware that the problem of emergence has ancient metaphysical roots: “Aristotle’s disciples were already arguing about composite bodies endowed with new qualities that arose from the elements that composed them. How could these new qualitative properties be explained?” (p. 208) The standard reductive approach is exemplified by today’s most zealous materialists, who “signal a future in which, from psychology to the social sciences and therapeutic practices, all forms of knowledge concerning human behavior will be understood in terms of neuronal interactions.” (p. 209) Such materialists, of course, do not even treat neurons as the fundamental basis of the world, since they too can be explained through the workings of even tinier constituents. Neurons for them are simply a convenient, provisional, local supply base for reductive explanations of the human realm. Undermining is treated as the very business of thought, the sole legitimate method for assaulting all that is supposedly mysterious.

All resistance to such undermining must hold that something new emerges at levels higher than the physically ultimate. This approach need not come from outside the sciences. Stengers notes that the anti-mechanistic chemists of the eighteenth century “claimed there was a difference between composition, which was their problem, and the simple aggregation of physicists” (p. 209). The quarrel between reduction and anti-reduction thus became a disciplinary dispute between physicists and chemists. Here the chemists are joined by Leibniz, one of Aristotle’s greatest heirs, who “pointed out the foolishness of those who dreamed of explaining sensation, perception, and consciousness in terms of inert matter,” and in doing so “he seems to have been taking part in a quarrel that continues today with the unfortunately celebrated mind-body problem.” (p. 208) Of course, there are several different intellectual camps that might view the celebration of the mind-body problem as ‘unfortunate.’ One of these camps is that of the hardcore materialists mentioned in the previous paragraph. For them there is no mind-body problem simply because body is destined to win; mind will eventually cave in to advancing physical explanations of the brain. For a hardcore idealist such as Berkeley, by contrast, there can be no mind-body problem because mind has already won; to be is to be perceived, and there is no autonomous ‘body’ outside the configurations it displays for some human or divine mind. Against these two options, seekers in the realm of the mind-body problem at least mark a place of uncertainty, a temporary bastion against quick reductions in either direction. Given that Stengers views this bastion as ‘unfortunate’ (as I do, but for very different reasons) we will need to see how she hopes to outflank all three positions simultaneously.

A point of especial interest in Stengers’ story is the changing status of clocks, one of the most useful and earliest-perfected machines of the modern era. “The clock is a weapon against Aristotelian thought, for which matter is unintelligible as such but requires a form, with which are associated both the existence of individual beings, each of which is endowed with its own end, and the possibility of knowing them.” (p. 210) However, “in the case of the clock, matter and finality can be understood separately: consisting of inert parts, and as such subject to the laws of mechanics, it owes its clocklike existence to the genius of the maker, who has subjected those parts to their own ends, who has incorporated them into a coherent mechanism defined by a finality – telling time.” (p. 210) The question of emergence is thereby conflated with the question of purpose or final causation: “The question of finality designates the stronghold that must be defended or conquered.” (p. 210) This appeal to finality proves to be a bad move for the anti-mechanists, since Darwinian natural selection allows Richard Dawkins to replace the purposeful timekeeper with the “blind watchmaker” whose living creatures have no internal finality, but simply survive or fail to survive in the environment they happen to confront. (p. 210) By the same token, it allows Jacques Monod to dismiss final causes and say that living creatures are merely “teleonomic,” meaning that we can describe them on the basis of their aim of self-reproduction, but without metaphysical commitment to an actual finality inherent in these beings themselves. (p. 210)

And here we encounter Stengers’ impatience with both the reductionist and vitalist sides of the dispute. Locked in mutual polemic, each adopts self-defeating strategies that open up vulnerable paths to their mortal enemy. “What I want to emphasize here is that understanding the challenge to which the living being exposes the biologist is barred to the vitalist biologist just as it is to the believer in neo-Darwinism. In both cases, the polemical position is expressed by the production of an identity that is substituted for practical requirements and obligations the way a solution is substituted for a problem.” (p. 211) In other words, the neo-Darwinist defends inert mechanical matter and the vitalist defends non-mechanistic purposes, but these are both ‘identities’ that ought to give way to ‘practical requirements and obligations.’ This is the pragmatist gist of Stengers’ call for an “ecology of practices”: disputes over the nature of reality are pointless polemics that ought to be re-inscribed in the practical soil that enables the two opposite positions in the first place. We are led not to an ambiguous real world in which everything is both mechanistic and purposive, but to an ultimate human practical context in which things are neither mechanistic nor purposive, apart from the ‘requirements and obligations’ following from how the problem is posed at any given time.

Stengers cites the cases of Pasteur demonstrating the autonomy of the microorganism, Körner displaying the hexagonal structure of benzene, and Nirenberg using an artificial DNA molecule to synthesize a protein. (p. 213) Stengers’ ontological conclusions about these events might be called ‘deflationary,’ since they neither add real autonomous microorganisms, benzene molecules, and proteins to the world, nor do they shatter these things reductively into tinier components. As she puts it, “events of this kind mark the creation of new laboratory beings and the new laboratories that correspond to them. But they do not pose the problem of emergence and do not allow any reduction to occur. They mark the success of an operation of delegation.” (p. 213) The understated tone of the passage cannot mask its radical philosophical claim. For it is not just that Pasteur, Körner, and Nirnberg happened not to brush against the philosophical question of reduction and emergence. Instead, for Stengers, reduction and emergence are not legitimate philosophical problems at all. They are pseudo-problems that ought to be replaced by the true problem of how successful and unsuccessful ‘delegations’ are made. Instead of disputing over the criteria for what would or would not count as an ‘emergent’ being immune to mechanistic reduction, “it is much more interesting to point out how the operations of experimental delegation that have treated bacteria as targets or actors have been possible.” (p. 213) Is Stengers’ theory of delegation simply ‘much more interesting’ than ontological disputes over emergence, or are there more convincing grounds for dissolving those disputes into her own pragmatic theory? I for one do not share her lack of ‘interest’ in emergence, nor can I accept the concluding lesson of her Section 13: “all the confrontations that serve as ecology in the modern sciences converge around the question of emergence. Therefore, it is from this field of battle that we must escape… a practical, constructivist sense must be given to the issues covered by [the term ‘emergence’].” (p. 218; emphasis added)

We can now move to Stengers’ attempted coup de grâce in Section 14. “It is not often,” she reports, “that I have the opportunity to speak well of the work of philosophers of science.” (p. 219) Yet she now sees opportunity for praise when referring to the three-tiered model of emergence proclaimed by J.K. Feibleman. Though he starts with “a conventional definition of emergence, which associates the relation between a whole and its parts to the relation between ends and means,” (p. 219) he seems to add an extra layer to the problem. In Feibleman’s own words: “For an organization at any given level, its mechanism lies at the level below, and its purpose at the level above. This law states that for the analysis of any organization three levels are required: its own, the one below, and the one above.”7 For Stengers, the value of this model lies in its implication that “the purpose of an organization is not found in itself but is always seen from the point of view of something else.” (p. 219) This gives ammunition to her claim that the identities of whole and part must be determined in terms of “the practices that allowed those identities to be defined.” (p. 220) In the case of water, for instance, we can actually speak of two waters: “one of its identities corresponds to the chemist’s purpose in understanding it as a molecule that will interact with other molecules; the other corresponds to the purpose of understanding it as a solvent that is a liquid.” (p. 220; emphasis added) The purposes of the understanding are always what is central, hence my added italics in the passage. But even more surprising is Stengers’ brazen rewriting of “emergence” so that it dwells within the understanding itself. As she puts it, ‘ “water” had to emerge twice: as a molecule composed of ‘parts’ and as a liquid with specific properties, composed of molecules.’ (p. 220) The scare-quotes around ‘water’ and ‘parts’ in this passage should not distract us from what is happening to the non-scare-quoted “emergence.” For Stengers, the term “emergence” no longer pertains to levels of reality where something new happens independently of our understanding; instead, it is produced by that very understanding.

It certainly looks as though Stengers is simply replacing the part/whole dualism of classical disputes over emergence with a new and unimproved twofold in which a non-articulate or semi-articulate world is confronted by human scientists whose practical purposes serve to cut the world into neatly defined sections for the first time.8 Here, Stengers might answer that she does not advocate a two-leveled theory of emergence, but something more like Feibleman’s three-leveled model. Let’s consider how such a model might operate in the framework ofComsopolitics.

Stengers briefly develops her own three-level approach with the example of chemical elements. “Ever since Mendeleev,” she recounts, “the element has been a part of the chemical definition of molecules and reactions, but it presents no problem for emergence.” (p. 220) From there, Stengers goes on to describe an asymmetry between elements/molecules on the one hand and atoms on the other; I will treat ‘elements/molecules’ as a pair only because Stengers does not distinguish between them in this passage. As concerns elements/ molecules: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) We will discuss this again shortly. But the case of the atom is apparently quite different: “On the other hand, the atom claims to explain the molecule the way the part explains the whole. It owes its scientific existence to practices of a very different kind, which do not address it as a chemical actor; therefore it can, unlike the element, claim a separable identity.” (p. 220) Along with elements/molecules and atoms, we also find the anticipated third level: “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220)

Though Stengers does not do all the work for us of mapping her threefold schema onto Feibleman’s triad, it is not difficult to see how she proposes to do so. Stengers’ Feiblemanian analysis runs as follows:

  1. We must consider the element/molecule on its own level. According to Stengers, this level is reminiscent of Aristotelian matter, having no properties in its own right but serving as a kind of amorphous receptacle that gains its qualities only from the levels below and above it. We should note in passing that this first level is both dubious and surprisingly innovative. It is dubious because it is by no means clear that the properties of a chemical element can be reduced either to the properties of its atoms or the uses one makes of the element. Indeed, this is one of the chief recurrent arguments of partisans of real emergence. Yet Stengers simply declares their argument irrelevant by her fiat of comparing chemical elements to ‘Aristotelian matter’ lacking intrinsic properties of their own. Yet in another sense her model is also quite innovative, since normally the defenders of matter-without-qualities place it at the very bottom of the cosmos, rather than at an intermediate level as Stengers does.
  2. Following Feibleman’s threefold method (which Stengers endorses), we must now consider the element/molecule at the level below it. In the present example, atoms are the level just below molecules. “Unlike the element,” Stengers already told us, atoms ‘[can] claim a separable identity.’ Obviously Stengers does not take this to be a permanent special feature of atoms, which (as the scientist Stengers knows even better than the chemical layman) can be analyzed downward into quarks and electrons just as easily as molecules can be analyzed into atoms. What she evidently means is that, given our momentary interest in the element/molecule as a chemical agent, and given the sub-chemical status of atoms, we can treat atoms for the moment as explanatory agents or ‘black boxes’ lacking internal articulations of their own. Certainly, we could always change our question and focus on the composition of atoms instead. But the ‘practices’ relevant to our current question allows us to treat the atom (for now) as an explainer that does not need to be explained in turn.
  3. Finally, we must consider the element/molecule at the level above it. For Stengers (there is no evidence that Feibleman would see it this way) this third level is the most important, since it is not just one among equals, but governs the very production of the difference between the other two. For as we saw, “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220) There may be three layers, but practice is the layer that rules them all.

In short, Stengers does not argue for a three-leveled theory at all, but for precisely the sort of twofold theory of which we were complaining a few pages ago. First, given that Stengers shows no traces of frank Berkeleyan idealism, she seems to concede that there is a world out there that resists our conceptions and allows for some negotiations to succeed and others to fail. That’s the first level: a world that is not just an image in our minds. And second, there is the dominant layer of praxis and negotiation that allows for the very articulation between parts and wholes in the first place. And what of the additional level that Feibleman requires – the consideration of the element/molecule (or anything else) ‘on its own level’? We recall Stengers’ rather noncommittal description of this level: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) The upshot is that nothing has any qualities in its own right (here we are speaking of elements/molecules, but the same would hold for atoms, horses, balloons, persons, nations – for anything at all). A thing gains its properties either from the explanations provided by its own parts, or the ‘purposes’ that articulate it in one way rather than another.

In a word, from the standpoint of object-oriented philosophy, Stengers is a classic duominer who reduces entities simultaneously both to lower-level atoms and higher-level scientific purposes, while reserving for entities themselves nothing but the amorphous status of inarticulate Arisotelian matter, fit only to be shaped by our ‘ecology of practices.’ Reality becomes a hot potato, passed either downward to tiny pieces or upward to all-encompassing practices, but is never stationed wherever we happen to be searching for it. This is the philosophical pitfall of duomining, and I hope that the unfamiliarity of the term does not overshadow the seriousness with which I use it. For all her claims to surpass all the stale old dualistic polemics, Stengers simply shows us the most classic reflex of Western philosophy: a simultaneous reduction of the world in two separate directions rather than one, with each reduction providing an alibi for the other.


Notes

1 For Stengers’ treatment of Prigogine see Cosmopolitics II, Chapter V, Life and Artifice, pp. 105–204. For a more detailed earlier collaboration between the two, (see Prigogine and Stengers, 1984).

2 Stengers makes this claim about Prigogine in Cosmopolitics II, p. 151.

3 Stengers, Cosmopolitics II, pp. 207–233.

4 For an intriguing account of this phenomenon, see the treatment of Badiou and structuralism in Bryant (2011), p. 243 ff.

5 I have criticized this tendency in the work of James Ladyman and Ross, among others. See Harman (2010).

6 I borrow the term ‘duomining’ from the credit card industry, where it refers to the simultaneous use of data and text mining. See Harman (2013).

7 Stengers is quoting here from page 61 of Feibleman (1954).

8 The ‘human scientists’ part is slightly unfair, of course, since Stengers like Latour tries to reinterpret words such as ‘negotiate’ in non-anthropocentric terms (see her remarks on the body’s twofold treatment of water in Cosmopolitics II, p. 221). But the same ontological problems occur even if we allow non-humans to join humans in using their own purposes to carve a largely inarticulate world into pieces. See my remarks about how a global ‘relationism’ is only marginally better than a human-centered ‘correlationism’ in Harman (2009).


References

  1. Barad, K. (2007) Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham, NC: Duke University Press.
  2. Bryant, L.R. (2011) The Democracy of Objects. Ann Arbor, MI: Open Humanities Press.
  3. DeLanda, M. (2002) Intensive Science and Virtual Philosophy. London: Continuum.
  4. Feibleman, J.K. (1954) Theory of integrative levels. British Journal for the Philosophy of Science 17: 59–66. | Article |
  5. Harman, G. (2009) Prince of Networks: Bruno Latour and Metaphysics. Melbourne: re.press.
  6. Harman, G. (2010) I am also of the opinion that materialism must be destroyed. Environment and Planning D: Society and Space 28(5): 772–790. | Article |
  7. Harman, G. (2011) On the undermining of objects: Grant, Bruno, and radical philosophy. In: L.R. Bryant, N. Srnicek and G. Harman (eds.)The Speculative Turn: Continental Materialism and Realism. Melbourne: re.press.
  8. Harman, G. (2013) Undermining, overmining, and duomining: A critique. In: J. Sutela (ed.) ADD Metaphysics. Aalto Finland: Aalto University Design Research Laboratory, pp. 40–51.
  9. Malabou, C. (2008) What Should We Do With Our Brain? Trans. S. Rand. New York: Fordham Univ. Press.
  10. Prigogine, I. and Stengers, I. (1984) Order Out of Chaos. New York: Bantam.
  11. Stengers, I. (2011) Thinking with Whitehead: A Free and Wild Creation of Concepts. Trans. M. Chase. Cambridge, MA: Harvard Univ. Press.

About the Author

Graham Harman is Distinguished University Professor at the American University in Cairo. He is the author of numerous books, most recently Bells and Whistles: More Speculative Realism (2013).

Horizonte árido (OESP)

‘Questão de natureza política, a água deve ter agenda própria com leis, infraestrutura e campanhas para consumo consciente’, diz engenheiro

22 de março de 2014 | 16h 00

Juliana Sayuri

Secou. Desta vez, faltaram as águas de março fechando o verão. O Cantareira, principal reservatório a hidratar a Grande São Paulo, marcou 14,5% de volume armazenado na sexta-feira, cravando novo recorde negativo desde 1974. São Pedro não colaborou desde dezembro, o cidadão abusou, o político tergiversou e, no fim, São Paulo poderá amargar dias mais secos neste outono.

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia - Anupam Nath/AP

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia. Anupam Nath/AP

“Política é a arte de firmar compromissos. Nesse campos ambientais, isso é muito difícil – Kyoto está aí pra não desmentir ninguém”, afirma Benedito Braga, engenheiro civil, Ph.D. por Stanford e professor da Escola Politécnica da Universidade de São Paulo. “No limite, é competência da cidade. Está na Constituição: prover água é prerrogativa constitucional das prefeituras. Seria do governo do Estado se estivéssemos discutindo obras. Mas agora, para resgatar o Cantareira, nem adianta correr atrás de obras, que ficariam prontas em talvez três anos – e até lá já teríamos morrido de sede”, critica. Que fazer? “Racionar. É a única saída. Não me refiro ao rodízio, que fique claro: racionar é consumir menos que o usual.”

Ex-diretor da Agência Nacional de Águas, Braga preside desde 2012 o World Water Council, um think tank que reúne Nações Unidas, scholars, técnicos, políticos, executivos e ativistas. “Precisamos compreender que água é uma questão de ordem política. Para mudar e melhorar essa situação, é preciso discutir alternativas, ideias inovadoras, soluções inteligentes”, diz. Que essa fonte não seque.

A questão da água está sendo muito discutida nos últimos dias, com a situação do Cantareira. Água é uma pauta política?

Fiz uma palestra nessa semana e, num dos últimos slides, mostrei três caracteres chineses. O primeiro simboliza “rio”. O segundo, “dique”. E o terceiro, que seria a soma dos dois? Logo se imagina que seria “reservatório” ou algo assim, mas não. É “ordem política”. Nossos governantes já notaram isso. No Nordeste, todo político considera a questão da água. No Sudeste, até estes tempos, só discutíamos as inundações. Agora, diante desse quadro do Cantareira… Os políticos precisam compreender que a água deve estar na pauta, com orçamento e tudo mais, pois isso pode lhes custar as eleições. Política é a arte de firmar compromissos, formar consensos, resolver problemas. É muito difícil formar consensos nesses campos – Kyoto está aí pra não desmentir ninguém. A água permeia diferentes setores, como agricultura e energia, mas precisa de uma agenda própria – senão, cada setor faz o que bem entende, desperdiça recursos hídricos cá e lá, falta água… E aí? É uma questão de natureza política. O cidadão pode ajudar? Certamente. Elegendo políticos que tenham uma plataforma coerente. E, francamente, o único sinal que políticos realmente entendem é o voto. Se o cidadão compreender que a água é um tema tão importante quanto a saúde e a educação, o político também deverá compreender.

Cantareira é um bom sistema?

Sim. Foi idealizado por Eduardo Yassuda, professor brilhante da Poli. No início da década de 1970, ele disse: “São Paulo não pode resolver o problema da água com soluções pequeninas. Precisa de soluções de gente grande”. Aí começou a procurar mananciais, Guarapiranga, Tietê, Taiaçupeba, Paraitinga, Ponte Nova. E viu que precisaríamos trazer água do outro lado da serra. Construíram esse sistema, que tem 800 milhões de metros cúbicos de armazenamento, uma vazão que, à época, supria toda a água de São Paulo. Foi uma boa ideia. Mas agora a situação é grave. Não interessa a quem culpar – a variabilidade do clima, o político, a Lua e o planeta Saturno. É tudo junto. Há uma falha na oferta – São Pedro não foi generoso neste verão. E uma falha na demanda – as pessoas não notaram a gravidade da situação e continuaram consumindo como sempre. E a infraestrutura não acompanhou o crescimento da demanda. Agora estão considerando usar o tal volume morto. O que é isso? Se você construir uma obstrução para armazenar água, esse volume contém sedimentos em suspensão. Reservamos um espaço no fundo do reservatório para depositar esse sedimento – e o sistema continua funcionando. O que a Sabesp tem? Tomadas de água, em diferentes alturas. Quando o nível do reservatório está alto, as duas tomadas funcionam. Vem a seca, uma das tomadas não funciona mais. No limite do volume morto, não há mais nada. O nível baixa e baixa, até que uma hora só há sedimentos e não dá para tirar mais nada. É uma alternativa viável do ponto de vista técnico. Mas não é a solução. A solução é parar de usar tanta água.

Racionar.

Racionar, mas não como a maioria imagina. Racionar é consumir menos que o usual. Há duas formas para isso. Primeiro, um rodízio, fechando e abrindo registros em diferentes setores das cidades. Segundo, um racionamento com medidas não estruturais, com bônus para quem economizar, multas para quem extrapolar. Isso deve ser feito por uma lei municipal.

Isso não é responsabilidade do governo do Estado?

Não. A competência legal é do município, nas esferas do Executivo e do Legislativo. Está na Constituição: prover água potável e saneamento é uma prerrogativa constitucional das prefeituras. Se estivéssemos discutindo obras, seria o governo do Estado. Neste momento, nem adianta correr atrás de obras. Eles estimam 18 meses, mas na verdade só ficariam prontas em dois, talvez três anos – e até lá já teríamos morrido de sede. O Estado dá concessão à Sabesp. Mas São Carlos, no interior, não usa Sabesp – e sim o Serviço Autônomo de Água e Esgoto São Carlos (SAAE); Limeira, também no interior, não usa Sabesp, mas a Foz do Brasil/Odebrecht. Diante de qualquer problema, a responsabilidade primeiro é da companhia, mas, no fim, é do prefeito. Que poderia passar uma lei municipal dizendo o seguinte: estamos vivendo uma situação muito grave e, por isso, cada domicílio terá um limite de consumo de 20 metros cúbicos por mês, com tarifa de R$ 10. Se ultrapassar, a tarifa passa a R$ 100. É uma forma de regular o uso, pois o cidadão que estava acostumado a pagar R$ 90 e vê a conta saltar para R$ 500 certamente freará o consumo. No mês seguinte, pode apostar que todas as torneiras vão estar fechadas, o cara não vai mais lavar calçada e não vai demorar no banho. Esse é o racionamento que deveria ser feito, obviamente acompanhado por uma campanha de conscientização para dizer: “Meu amigo, você não será pego de surpresa. Preste atenção, economize água”. É melhor que o rodízio.

Por quê?

Imagine uma tubulação, com juntas para outras tubulações. Quando os tubos estão cheios, ainda há perda de água na linha – eram 35%, agora são 25%. Quer dizer que há vazamentos no sistema. Quando o sistema está pressurizado, a água corre. Quando despressuriza, a água para e entra no solo, misturando-se e voltando às tubulações uma água de qualidade desconhecida. Por isso, o rodízio não é bom. Ainda dá tempo de racionar, mas nossos governantes precisam agir. Na seca, acontecerá o racionamento por rodízio, pois não haverá mais tempo hábil para o outro tipo. A Austrália também passou por uma situação grave. Ali foram dez anos de seca, só agora voltou a chover forte. Os australianos fizeram várias usinas de dessalinização e cortaram a água antes usada para irrigação. No nosso caso, o que poderia ser feito? O governo – alçada estadual no caso dos rios Jaguari e Jacareí, com o Departamento de Águas e Energia Elétrica (DAEE); e federal no rio Piracicaba, com a Agência Nacional de Águas – deveria visitar os lugares de irrigação e dizer: “Meu caro, o que você cultiva aí? Tomate? Pago sua safra, mas você não vai tirar nem um litro a mais de água do rio”. Assim, a água deixa de ser destinada a um uso “menos nobre”, e fica disponível para o consumo dos cidadãos.

Há um modelo de gestão hídrica no mundo?

Não há um país nota 10 em todos os quesitos. Em termos de uso de água no ambiente urbano, diria Cingapura, que reaproveita quase a totalidade de seus esgotos para consumo doméstico. Cingapura dependia da Malásia e, num esforço para se tornar mais autônoma, investiu num programa de reúso de água fantástico, mas muito caro, da ordem de bilhões de dólares. A Namíbia também tem um sistema de reúso de água potável há 40 anos. Talvez, no futuro, tenhamos que fazer isso em São Paulo: reaproveitar e beber o que era nosso esgoto. Em termos de gestão no ambiente agrícola, Espanha e Israel se destacam. Em termos de gestão de recursos hídricos, a França é um bom exemplo. É só lembrar o Sena, muito sujo há 50 anos, limpo agora. Muito dinheiro já foi investido para despoluir o Tietê – mas sinceramente, nem eu nem meus netos nem meus bisnetos veremos esse rio 100% limpo.

Do ponto de vista cultural, o que precisaria mudar para valorizar esse recurso?

A situação que vivemos agora é exemplar. Pense: quando o brasileiro começou a se preocupar em economizar energia? Em 2001, no tal apagão elétrico. Na ocasião, usamos um método de racionamento melhor, com multa. Na época, eu morava em Brasília. Gastava 1.200 quilowatts/hora por mês, passei para 400. E continuei vivendo da mesma forma, só com mais precauções: lembrar de apagar a luz, tirar a tomada, tomar banhos mais breves. Foi uma situação extrema, mas hoje aprendi: sei meus gastos de energia todo mês. Quem sabe agora o paulistano aprenderá o consumo consciente de água?

Qual é a maior agressão à água?

Poluição, sem dúvida. As metas do milênio estabelecidas pelas Nações Unidas em 2000, para serem cumpridas até 2015, previam reduzir à metade o número de pessoas sem acesso à água potável e ao saneamento improved, quer dizer, “melhorado”. Essa expressão foi escolhida propositalmente, pois à época não tínhamos elementos para avaliar os custos para oferecer saneamento para todos. Além da coleta e da disposição de resíduos, precisamos discutir o tratamento do esgoto. Aí realmente a água é agredida. Por exemplo, não podemos viver num ambiente urbano, como nesta região paulistana com um dos metros quadrados mais caros do Brasil, onde o sujeito abre a janela e se depara com o cheiro fétido do Pinheiros. É inadmissível.

Um dia a água valerá mais que o petróleo?

Já vale em certos lugares, como na Arábia Saudita. Ali eles dessalinizam a água do mar – e gastam uma nota, queimando petróleo para poder cultivar trigo no meio do deserto. Há substituto para o petróleo (fontes como a energia hidroelétrica e a nuclear), mas absolutamente nada substitui a água. É um valor capital. A água é muito generosa, pois nos ajuda a crescer: é elemento essencial para sermos cidadãos mais igualitários, pois aumenta nosso desenvolvimento, nossa produção de energia e de grãos. É fundamental para as necessidades essenciais humanas, para o desenvolvimento econômico, para a sustentabilidade ambiental e, certamente, para melhorar a qualidade de vida dos cidadãos.

O sr. se considera otimista ou pessimista?

Um otimista inveterado. Um dia, haverá água para todos, desde que sejamos suficientemente inteligentes para gerenciá-la. Há água na região metropolitana de São Paulo, mas contaminada e poluída. Logo, precisamos de gestão e tecnologia adequadas. Muitos ambientalistas criticam os engenheiros, vistos como “destruidores” da natureza. É a falsa ideia de que a tecnologia é má. Graças à tecnologia, nossa expectativa de vida saltou de 50 para 70, 80 anos. Quem, como Malthus, previu cataclismos, até agora deu com os burros n’água. Há, sim, diversas questões a resolver. E, para resolvê-las, acredito na tecnologia e, principalmente, no ser humano.

Roteiro Meteorológico no Museu Catavento (Fapesp)

19/03/2014

Agência FAPESP – A fim de marcar o Dia Mundial da Meteorologia, o museu Catavento Cultural e Educacional programou, para o dia 23 de março, um “Roteiro Meteorológico”, por meio do qual o visitante poderá saber um pouco mais sobre temas como efeito estufa, poluição atmosférica, (falta de) chuva e incidência de raios.

O roteiro inclui uma visita à estação medidora da Companhia Ambiental do Estado de São Paulo (Cetesb), situada no Parque Dom Pedro II, com entrada pelo pátio interno do Catavento. A seção Engenho conta com instalações como a “Fábrica de Raios” e o “Tornado de Água”, nos quais se explicam como se formam raios, tornados, tufões e furacões.

Ao final, os visitantes poderão conferir a exposição Momento Único, com fotos de raios feitas no Brasil.

A visitação ocorrerá em três horários (11h; 13h30 e 15h), na Praça São Vito, Parque Dom Pedro II, em São Paulo.

Mais informações sobre o museu: www.cataventocultural.org.br/home.

Desenvolvimento portuário gera progresso e vítimas no Brasil (IPS)

Inter Press Service – Reportagens
21/3/2014 – 11h00

por Mario Osava, da IPS

Brasil chica 629x472 Desenvolvimento portuário gera progresso e vítimas no Brasil

Parte do porto Ponta da Madeira, no nordeste do Brasil, de onde saem os navios carregados com o ferro de Carajás, incluídos os meganavios Valemax. Foto: Mario Osava/IPS

São Luís, Brasil, 21/3/2014 – “Somos vítimas do progresso”, lamenta Osmar Santos Coelho, conhecido como Santico. Sua comunidade pesqueira desapareceu, desalojada para a construção de um porto na baía de São Marcos, na parte ocidental da capital do Estado do Maranhão, São Luís, no Nordeste do país. O terminal marítimo de Ponta da Madeira, em operação desde 1986, fortificou a influência de sua proprietária, a mineradora Vale, na cidade de São Luís.

Por esse terminal são exportados atualmente mais de 110 milhões de toneladas anuais de minério de ferro, consolidando um corredor logístico decisivo para o desenvolvimento econômico local. Ali chegam os trens da companhia. A função primordial do porto é transportar a produção de Carajás, gigantesca província mineral da Amazônia oriental que converteu a Vale em líder mundial em ferro. Dali também sai boa parte da soja colhida no centro-norte do Brasil. Ao lado, uma unidade da Vale transforma em pelotas parte do minério.

Essas atividades geram milhares de empregos, especialmente em sua área de influência direta, Itaqui-Bacanga, um conjunto de 58 bairros no sudoeste da capital maranhense. Os jovens sonham com a transnacional Vale pela boa remuneração e por sua política de recursos humanos, herdada de sua longa vida como empresa pública (1942-1997), que assegura estabilidade aos seus trabalhadores. Um empregado “só é demitido se fizer muitas bobagens”, disse um executivo.

Além disso, a empresa multiplicou a oferta de empregos temporários na ampliação do porto e duplicação da ferrovia, para dobrar as exportações minerais a partir de 2018. Por esses e outros projetos locais, a economia do conjunto de bairros vizinhos está em auge, disse George Pereira, secretário da Associação Comunitária Itaqui-Bacanga (Acib). Entre outras iniciativas, estão sendo instaladas aqui três fábricas – de cimento, celulose e fertilizantes –, junto com uma central termoelétrica movida a carvão.

A 55 quilômetros ao sul, a Petrobras construirá, no município de Bacabeira, a Refinaria Premium I, que, quando for inaugurada em 2018, será a maior do Brasil. A obra será licitada em abril e em seu apogeu empregará 25 mil trabalhadores, segundo a companhia.

O auge de empregos ativa o consumo, o comércio e os serviços, “mas não é o desenvolvimento que queremos, com mais dinheiro no bolso, mas sem água para beber, por causa dos rios contaminados”, ressaltou Pereira. Faltam saneamento, água potável, transporte, professores e médicos, enquanto sobram violência, drogas e prostituição nos bairros, cuja população aumentou rapidamente, acrescentou, lembrando que já são cerca de 200 mil habitantes, e que serão mais com dois novos bairros em construção.

Diante dessa realidade, a Vale “faz boas ações, mas isoladas, sem programas transformadores de desenvolvimento territorial”, criticou Pereira. As prioridades são educação e saneamento, afirmou.

Ironicamente, a associação que critica e pressiona a Vale é sua criação. Surgiu por um investimento social da empresa, exigida pelo Banco Nacional de Desenvolvimento Econômico e Social (BNDES) como condição para financiar as unidades de pelotas. A Acib, dirigida por representantes dos cinco setores que compõem Itaqui-Bacanga, foi criada há dez anos para mobilizar a população em favor de um projeto de limpeza urbana. Seu funcionamento e sua sede, um prédio de dois andares, são financiados com contribuições da Vale, explicou Pereira.

Entre as numerosas ações sociais da companhia, algumas se destacam por seus efeitos, como a ampliação do Centro de Educação Profissional de Itaqui-Bacanga, uma escola do Serviço Nacional de Aprendizagem Industrial (Senai). Este ano o centro dá educação técnica a dez mil alunos, o dobro de 2013, e cinco vezes mais do que em 2010, graças a 14 novas salas de aula e cinco laboratórios.

Uma associação semelhante entre Vale e Senai sustenta outros três centros ao longo do corredor entre Carajás e São Luís, disse à IPS a gerente de recursos humanos da mineradora, Janaína Pinheiro. Em 2013, o Senai capacitou 65 mil alunos no Maranhão, contra dez mil há uma década, disse à IPS seu diretor estadual, Marco Moura.

Em São Luís, a industrialização se concentra em torno dos portos da baía de São Marcos. Vizinho de Ponta da Madeira, opera, desde a década de 1970, Itaqui, um porto estatal para todo tipo de carga, que este ano acrescentará seu Terminal de Grãos para exportação de soja e milho produzidos nas novas fronteiras agrícolas do centro e do norte.

Alguns novos portos brasileiros nasceram com vocação de polos industriais. Assim ocorre com Suape e Pecém, respectivamente em Pernambuco e Ceará, planejados como complexos portuário-industriais e que impulsionam a economia local desde a última década. Em ambos há refinarias da Petrobras, além de uma unidade petroquímica e oito estaleiros, isto em Suape, e uma siderúrgica e centrais elétricas, em Pecém. Além disso, muitas empresas estão se instalando nas imensas zonas industriais atrás dos portos.

Brasil chica 2 Desenvolvimento portuário gera progresso e vítimas no Brasil

Osmar Santos Coelho, o Santico, diante da cabana onde guarda suas redes e outros equipamentos de pesca, em uma estreita praia que escapou da invasão do terminal portuário da mineradora Vale, em São Luis, Estado do Maranhão, na região Nordeste do Brasil. Foto: Mario Osava/IPS

Em São Luís, os portos surgiram alheios a essa onda de industrialização, por ficarem na região brasileira mais atrasada em relação a outros polos do Nordeste. A grande profundidade de suas águas, apta para navios de grande calado, sua localização voltada para o Atlântico norte e a conexão com a ferrovia Carajás foram vantagens para instalar o terminal.

Mas, por trás há vítimas, recordou Santico à IPS. Por exemplo, “entre 80 e cem” pescadores artesanais de Boqueirão, que foram expulsos de sua praia e reassentados em diferentes bairros. Alguns anos depois, muitos deles voltaram a pescar em São Marcos, apesar da proibição, e usam como base uma ponta de praia não ocupada pelo porto, explicou.

“Não tínhamos outro ofício e passávamos fome”, afirmou Santico. Terminaram por construir nesse lugar oito precárias cabanas de paus e folha de palmeira, umas poucas para residência e outras apenas para as tralhas de pesca. Santico, de 73 anos, tem sua casa em um bairro próximo e uma cabana na praia, para suas esporádicas pescas noturnas.

“Os peixes quase acabaram, restaram uns poucos camarões”, depois da construção de novos molhes, contou Santico. Por isso negociaram com a Vale, três anos atrás, conseguiram uma canasta de alimentos para 52 pescadores, de entre US$ 308 e US$ 725 dólares. “Com isso sobrevivemos”, reconheceu.

Milhares de outras famílias também foram desalojadas para a construção de atracadouros e instalações portuárias. Itaqui, na verdade, era o nome de um bairro desaparecido. E agora mais bairros estão ameaçados pela zona industrial, em construção à margem da estrada. Vila Maranhão teme sua extinção, cercada pela ferrovia e pelo novo polo, e a poucos quilômetros de uma central elétrica a carvão, uma grande indústria de alumínio e depósitos minerais.

“Ainda não há nada oficial, mas é questão de tempo nos tirarem daqui”, afirmou Lamartine de Moura, diretor da Acib, de 71 anos, 23 deles em Vila Maranhão. “Se eles não nos tirarem de nossas casas, a contaminação o fará”, disse à IPS. Um estudo universitário identificou metais pesados no riacho local, e o pó mineral do ar suja as casas e dissemina enfermidades respiratórias, explicou.

Navios muito grandes para a China

Os 23 metros de profundidade de Ponta da Madeira permitem fundear os Valemax, os maiores navios mineraleiros do mundo, com capacidade para 400 mil toneladas, em operação desde 2011. A China, principal cliente do ferro da Vale, seria o principal destino dessas megaembarcações, mas as proibiu em seus portos por excesso de tamanho. Isso apesar de um estaleiro chinês estar construindo 12 desses navios para o líder mundial em extração de ferro. A Coreia fábrica outros sete.

A meta da Vale é ter 35 Valemax, 16 alugados. Sua grande escala barateia custos e ajuda a competir com a Austrália, outra potência em mineração e mais perto do grande mercado asiático. Além disso, esses navios gigantes reduzem em 35% a emissão de gases-estufa para cada tonelada de minério transportado, destaca a segunda transnacional da mineração do mundo.

Para enfrentar a proibição chinesa, a Vale usa estações de transferência nas Filipinas e logo contará com um centro de distribuição na Malásia, de transbordo para navios menores. Dois portos brasileiros e seis estrangeiros recebem os Valemax atualmente. Envolverde/IPS

(IPS)