Arquivo da categoria: Uncategorized

Do viruses make us smarter? (Science Daily)

Date: January 12, 2015

Source: Lund University

Summary: Inherited viruses that are millions of years old play an important role in building up the complex networks that characterize the human brain, researchers say. They have found that retroviruses seem to play a central role in the basic functions of the brain, more specifically in the regulation of which genes are to be expressed, and when.

Retroviruses seem to play a central role in the basic functions of the brain, more specifically in the regulation of which genes are to be expressed, and when, researchers say. Credit: © Sergey Bogdanov / Fotolia

A new study from Lund University in Sweden indicates that inherited viruses that are millions of years old play an important role in building up the complex networks that characterise the human brain.

Researchers have long been aware that endogenous retroviruses constitute around five per cent of our DNA. For many years, they were considered junk DNA of no real use, a side-effect of our evolutionary journey.

In the current study, Johan Jakobsson and his colleagues show that retroviruses seem to play a central role in the basic functions of the brain, more specifically in the regulation of which genes are to be expressed, and when. The findings indicate that, over the course of evolution, the viruses took an increasingly firm hold on the steering wheel in our cellular machinery. The reason the viruses are activated specifically in the brain is probably due to the fact that tumours cannot form in nerve cells, unlike in other tissues.

“We have been able to observe that these viruses are activated specifically in the brain cells and have an important regulatory role. We believe that the role of retroviruses can contribute to explaining why brain cells in particular are so dynamic and multifaceted in their function. It may also be the case that the viruses’ more or less complex functions in various species can help us to understand why we are so different,” says Johan Jakobsson, head of the research team for molecular neurogenetics at Lund University.

The article, based on studies of neural stem cells, shows that these cells use a particular molecular mechanism to control the activation processes of the retroviruses. The findings provide us with a complex insight into the innermost workings of the most basal functions of the nerve cells. At the same time, the results open up potential for new research paths concerning brain diseases linked to genetic factors.

“I believe that this can lead to new, exciting studies on the diseases of the brain. Currently, when we look for genetic factors linked to various diseases, we usually look for the genes we are familiar with, which make up a mere two per cent of the genome. Now we are opening up the possibility of looking at a much larger part of the genetic material which was previously considered unimportant. The image of the brain becomes more complex, but the area in which to search for errors linked to diseases with a genetic component, such as neurodegenerative diseases, psychiatric illness and brain tumours, also increases.”


Journal Reference:

  1. Liana Fasching, Adamandia Kapopoulou, Rohit Sachdeva, Rebecca Petri, Marie E. Jönsson, Christian Männe, Priscilla Turelli, Patric Jern, Florence Cammas, Didier Trono, Johan Jakobsson. TRIM28 Represses Transcription of Endogenous Retroviruses in Neural Progenitor CellsCell Reports, 2015; 10 (1): 20 DOI: 10.1016/j.celrep.2014.12.004

Eliane Brum: Antiautoajuda para 2015 (El Pais)

Em defesa do mal-estar para nos salvar de uma vida morta e de um planeta hostil. Chega de viver no modo avião

 

22 DIC 2014 – 10:54 BRST

Não tenho certeza se esse ano vai acabar. Tenho uma convicção crescente de que os anos não acabam mais. Não há mais aquela zona de transição e a troca de calendário, assim como de agendas, é só mais uma convenção que, se é que um dia teve sentido, reencena-se agora apenas como gesto esvaziado. Menos a celebração de uma vida que se repactua, individual e coletivamente, mais como farsa. E talvez, pelo menos no Brasil, poderíamos já afirmar que 2013 começou em junho e não em janeiro, junto com as manifestações, e continua até hoje. Mas esse é um tema para outra coluna, ainda por ser escrita. O que me interessa aqui é que nossos rituais de fim e começo giram cada vez mais em falso, e não apenas porque há muito foram apropriados pelo mercado. Há algo maior, menos fácil de perceber, mas nem por isso menos dolorosamente presente. Algo que pressentimos, mas temos dificuldade de nomear. Algo que nos assusta, ou pelo menos assusta a muitos. E, por nos assustar, em vez de nos despertar, anestesia. Talvez para uma época de anos que, de tão acelerados, não terminam mais, o mais indicado seja não resoluções de ano-novo nem manuais sobre ser feliz ou bem sucedido, mas antiautoajuda.

Quando as pessoas dizem que se sentem mal, que é cada vez mais difícil levantar da cama pela manhã, que passam o dia com raiva ou com vontade de chorar, que sofrem com ansiedade e que à noite têm dificuldade para dormir, não me parece que essas pessoas estão doentes ou expressam qualquer tipo de anomalia. Ao contrário. Neste mundo, sentir-se mal pode ser um sinal claro de excelente saúde mental. Quem está feliz e saltitante como um carneiro de desenho animado é que talvez tenha sérios problemas. É com estes que deveria soar uma sirene e por estes que os psiquiatras maníacos por medicação deveriam se mobilizar, disparando não pílulas, mas joelhaços como os do Analista de Bagé, do tipo “acorda e se liga”. É preciso se desconectar totalmente da realidade para não ser afetado por esse mundo que ajudamos a criar e que nos violenta. Não acho que os felizes e saltitantes sejam mais reais do que o Papai Noel e todas as suas renas, mas, se existissem, seriam estes os alienados mentais do nosso tempo.

Olho ao redor e não todos, mas quase, usam algum tipo de medicamento psíquico. Para dormir, para acordar, para ficar menos ansioso, para chorar menos, para conseguir trabalhar, para ser “produtivo”. “Para dar conta” é uma expressão usual. Mas será que temos de dar conta do que não é possível dar conta? Será que somos obrigados a nos submeter a uma vida que vaza e a uma lógica que nos coisifica porque nos deixamos coisificar? Será que não dar conta é justamente o que precisa ser escutado, é nossa porção ainda viva gritando que algo está muito errado no nosso cotidiano de zumbi? E que é preciso romper e não se adequar a um tempo cada vez mais acelerado e a uma vida não humana, pela qual nos arrastamos com nossos olhos mortos, consumindo pílulas de regulação do humor e engolindo diagnósticos de patologias cada vez mais mirabolantes? E consumindo e engolindo produtos e imagens, produtos e imagens, produtos e imagens?

Neste mundo, sentir-se mal é sinônimo de excelente saúde mental

A resposta não está dada. Se estivesse, não seria uma resposta, mas um dogma. Mas, se a resposta é uma construção de cada um, talvez nesse momento seja também uma construção coletiva, na medida em que parece ser um fenômeno de massa. Ou, para os que medem tudo pela inscrição na saúde, uma das marcas da nossa época, estaríamos diante de uma pandemia de mal-estar. Quero aqui defender o mal-estar. Não como se ele fosse um vírus, um alienígena, um algo que não deveria estar ali, e portanto tornar-se-ia imperativo silenciá-lo. Defendo o mal-estar – o seu, o meu, o nosso – como aquilo que desde as cavernas nos mantém vivos e fez do homo sapiens uma espécie altamente adaptada – ainda que destrutiva e, nos últimos séculos, também autodestrutiva. É o mal-estar que nos diz que algo está errado e é preciso se mover. Não como um gesto fácil, um preceito de autoajuda, mas como uma troca de posição, o que custa, demora e exige os nossos melhores esforços. Exige que, pela manhã, a gente não apenas acorde, mas desperte.

Anos atrás eu escreveria, como escrevi algumas vezes, que o mal-estar desta época, que me parece diferente do mal-estar de outras épocas históricas, se dá por várias razões relacionadas à modernidade e a suas criações concretas e simbólicas. Se dá inclusive por suas ilusões de potência e fantasias de superação de limites. Mas em especial pela nossa redução de pessoas a consumidores, pela subjugação de nossos corpos – e almas – ao mercado e pela danação de viver num tempo acelerado.

Sobre essa particularidade, a psicanalista Maria Rita Kehl escreveu um livro muito interessante, chamado O Tempo e o Cão (Boitempo), em que reflete de forma original sobre o que as depressões expressam sobre o nosso mundo também como sintoma social. Logo no início, ela conta a experiência pessoal de atropelar um cachorro na estrada – e a experiência aqui não é uma escolha aleatória de palavra. Kehl viu o cachorro, mas a velocidade em que estava a impedia de parar ou desviar completamente dele. Conseguiu apenas não matá-lo. Logo, o animal, cambaleando rumo ao acostamento, ficou para trás no espelho retrovisor. É isso o que acontece com as nossas experiências na velocidade ditada por essa época em que o tempo foi rebaixado a dinheiro – uma brutalidade que permitimos, reproduzimos e com a qual compactuamos sem perceber o quanto de morte há nessa conversão.

Defendo o mal-estar como aquilo que nos mantém vivos desde as cavernas

Sobre a aceleração, diz a psicanalista: “Mal nos damos conta dela, a banal velocidade da vida, até que algum mau encontro venha revelar a sua face mortífera. Mortífera não apenas contra a vida do corpo, em casos extremos, mas também contra a delicadeza inegociável da vida psíquica. (…) Seu esquecimento (do cão) se somaria ao apagamento de milhares de outras percepções instantâneas às quais nos limitamos a reagir rapidamente para em seguida, com igual rapidez, esquecê-las. (…) Do mau encontro, que poderia ter acabado com a vida daquele cão, resultou uma ligeira mancha escura no meu para-choque. (…) O acidente da estrada me fez refletir a respeito da relação entre as depressões e a experiência do tempo, que na contemporaneidade praticamente se resume à experiência da velocidade”. O que acontece com as manchas escuras, com o sangue deixado para trás, dentro e fora de nós? Não são elas que nos assombram nas noites em que ofegamos antes de engolir um comprimido? Como viver humanamente num tempo não humano? E como aceitamos ser submetidos à bestialidade de uma vida não viva?

Hoje me parece que algo novo se impõe, intimamente relacionado a tudo isso, mas que empresta uma concretude esmagadora e um sentido de urgência exponencial a todas as questões da existência. E, apenas nesse sentido, algo fascinante. A mudança climática, um fato ainda muito mais explícito na mente de cientistas e ambientalistas do que da sociedade em geral é esse algo. A evidência de que aquele que possivelmente seja o maior desafio de toda a história humana ainda não tenha se tornado a preocupação maior do que se chama de “cidadão comum” é não uma mostra de sua insignificância na vida cotidiana, mas uma prova de sua enormidade na vida cotidiana. É tão grande que nos tornamos cegos e surdos.

Como nos submetemos a viver num tempo acelerado e não humano?

Em uma entrevista recente, aqui publicada como “Diálogos sobre o fim do mundo”, o antropólogo Eduardo Viveiros de Castro evoca o pensador alemão Günther Anders (1902-1992) para explicar essa alienação. Anders afirmava que a arma nuclear era uma prova de que algo tinha acontecido com a humanidade no momento em que se mostrou incapaz de imaginar os efeitos daquilo que se tornou capaz de fazer. Reproduzo aqui esse trecho da entrevista: “É uma situação antiutópica. O que é um utopista? Um utopista é uma pessoa que consegue imaginar um mundo melhor, mas não consegue fazer, não conhece os meios nem sabe como. E nós estamos virando o contrário. Nós somos capazes tecnicamente de fazer coisas que não somos nem capazes de imaginar. A gente sabe fazer a bomba atômica, mas não sabe pensar a bomba atômica. O Günther Anders usa uma imagem interessante, a de que existe essa ideia em biologia da percepção de fenômenos subliminares, abaixo da linha de percepção. Tem aquela coisa que é tão baixinha, que você ouve mas não sabe que ouviu; você vê, mas não sabe que viu; como pequenas distinções de cores. São fenômenos literalmente subliminares, abaixo do limite da sua percepção. Nós, segundo ele, estamos criando uma outra coisa agora que não existia, o supraliminar. Ou seja, é tão grande, que você não consegue ver nem imaginar. A crise climática é uma dessas coisas. Como é que você vai imaginar um troço que depende de milhares de parâmetros, que é um transatlântico que está andando e tem uma massa inercial gigantesca? As pessoas ficam paralisadas, dá uma espécie de paralisia cognitiva”.

O fato de se alienar – ou, como fazem alguns, chamar aqueles que apontam para o óbvio de “ecochatos”, a piada ruim e agora também velha – nem impede a corrosão acelerada do planeta nem a corrosão acelerada da vida cotidiana e interna de cada um. O que quero dizer é que, como todos os nossos gritos existenciais, o fato de negá-los não impede que façam estragos dentro de nós. Acredito que o mal-estar atual – talvez um novo mal-estar da civilização – é hoje visceralmente ligado ao que acontece com o planeta. E que nenhuma investigação da alma humana desse momento histórico, em qualquer campo do conhecimento, possa prescindir de analisar o impacto da mudança climática em curso.

De certo modo, na acepção popular do termo “clima”, referindo-se ao estado de espírito de um grupo ou pessoa, há também uma “mudança climática”. Mesmo que a maioria não consiga nomear o mal-estar, desconfio que a fera sem nome abra seus olhos dentro de nós nas noites escuras, como o restante dos pesadelos que só temos quando acordados. Há esse bicho que ainda nos habita que pressente, mesmo que tenha medo de sentir no nível mais consciente e siga empurrando o que o apavora para dentro, num esforço quase comovente por ignorância e anestesia. E a maior prova, de novo, é a enormidade da negação, inclusive pelo doping por drogas compradas em farmácias e “autorizadas” pelo médico, a grande autoridade desse curioso momento em que o que é doença está invertido.

O novo mal-estar da civilização está hoje ligado à mudança climática

São Paulo é, no Brasil, a vitrine mais impressionante dessa monumental alienação. A maior cidade do país vem se tornando há anos, décadas, um cenário de distopia em que as pessoas evoluem lentamente entre carros e poluição, encurraladas e cada vez mais violentas nos mínimos atos do dia a dia. No último ano, a seca e a crise da água acentuaram e aceleraram a corrosão da vida, mas nem por isso a mudança climática e todas as questões socioambientais relacionadas a ela tiveram qualquer impacto ou a mínima relevância na eleição estadual e principalmente na eleição presidencial. Nada. A maioria, incluindo os governantes, sequer parece perceber que a catástrofe paulista, que atinge a capital e várias cidades do interior, é ligada também à devastação da Amazônia. O tal “mundo como o conhecemos” ruindo e os zumbis evolucionando por ruas incompatíveis com a vida sem qualquer espanto. Nem por isso, ouso acreditar, deixam sequer por um momento de ser roídos por dentro pela exterioridade de sua condição. A vida ainda resiste dentro de nós, mesmo na Zumbilândia. E é o mal-estar que acusa o que resta de humano em nossos corpos.

É de um cientista, Antonio Nobre, um texto fundamental. Ler “O futuro climático da Amazônia” não é uma opção. Faça um favor a si mesmo e reserve uma hora ou duas do seu dia, o tempo de um filme, entre na internet e leia as 40 páginas escritas numa linguagem acessível, que faz pontes com vários campos do conhecimento. Há trechos de grande beleza sobre a maior floresta tropical do planeta, território concreto e simbólico sobre o qual o senso comum, no Brasil alimentado pela propaganda da ditadura civil-militar, construiu uma ideia de exploração e de nacionalismos que só vigora até hoje por total desconhecimento. É também por ignorância nossa que o atual governo, reeleito para mais um mandato, comanda na Amazônia seu projeto megalômano de grandes hidrelétricas com escassa resistência. E causa, agora, neste momento, um desastre ambiental de proporções não mensuradas em vários rios amazônicos e o etnocídio dos povos indígenas da bacia do Xingu.

A Amazônia sobreviveu por 50 milhões de anos a meteoros e glaciações, mas em menos de 50 anos está ameaçada por ação humana

Antonio Nobre mostra como uma floresta com um papel – insubstituível – na regulação do clima do Brasil e do planeta teve, nos últimos 40 anos, 762.979 quilômetros quadrados desmatados: o equivalente a três estados de São Paulo ou duas Alemanhas. Ou o equivalente a mais de 12 mil campos de futebol desmatados por dia, mais de 500 por hora, quase nove por minuto. Somando-se a área de desmatamento corte raso com a área degradada, alcançamos a estimativa aterradora de que, até 2013, 47% da floresta amazônica pode ter sido impactada diretamente por atividade humana desestabilizadora do clima. “A floresta sobreviveu por mais de 50 milhões de anos a vulcanismos, glaciações, meteoros, deriva do continente”, escreve Nobre. “Mas em menos de 50 anos está ameaçada pela ação de humanos.” A Amazônia dá forma ao momento da História em que a humanidade deixa de temer a catástrofe para se tornar a catástrofe.

Como é possível que isso aconteça bem aqui, agora, e tão poucos se importem? Se não despertarmos do nosso torpor assustado, nossos filhos e netos poderão viver e morrer não com a Amazônia transformada em savana, mas sim em deserto, com gigantesco impacto sobre o clima do planeta e a vida de todas as espécies. Para se ter uma ideia da magnitude do que estamos fazendo, por ação ou por omissão, por alienação, anestesia ou automatismo, alguns dados. Uma árvore grande transpira mais de mil litros de água por dia. A cada 24 horas a floresta amazônica lança na atmosfera, pela transpiração, 20 bilhões de toneladas de água – ou 20 trilhões de litros de água. Para se ter uma ideia comparativa, o rio Amazonas lança menos que isso – cerca de 17 bilhões de toneladas de água por dia– no oceano Atlântico. Não é preciso ser um cientista para imaginar o que acontecerá com o planeta sem a floresta.

Nobre defende que já não basta zerar o desmatamento. Alcançamos um nível de destruição em que é preciso regenerar a Amazônia. A floresta não é o “pulmão do mundo”, ela é muito mais do que isso: é o seu coração. Não como uma frase ultrapassada e clichê, mas como um fato científico. É o mundo e não só o Brasil que precisa se engajar nessa luta: o cientista defende que, se não quisermos alcançar o ponto de não retorno, deveríamos empreender – já, agora – um esforço de guerra: começando por uma guerra contra a ignorância. Fazer uma campanha tão forte e eficaz como aquela contra o tabaco. Isso, claro, se quisermos continuar a viver.

Se não quisermos alcançar um ponto de não retorno, é preciso deixar de viver no modo avião

Nessa época de tanta conexão, em que a maioria passa quase todo o tempo de vigília conectado na internet, há essa desconexão mortífera com a realidade do planeta – e de si. Como cidadão, a maioria no máximo recicla o seu lixo, achando que está fazendo um enorme esforço, mas não se informa nem participa dos debates e das decisões sobre as questões do clima, da Amazônia e do meio ambiente. Neste e em vários sentidos, é como existir no “modo avião” do celular. Um estar pela metade, o suficiente apenas para cumprir o mínimo e não se desligar por completo. Um contato sem contato, um toque que não toca nem se deixa tocar. Um viver sem vida.

É preciso sentir o mal-estar. Sentir mesmo – e não silenciá-lo das mais variadas maneiras, inclusive com medicação. Ou, como diz a pensadora americana Donna Haraway: “É preciso viver com terror e alegria”.

Só o mal-estar pode nos salvar.

Eliane Brum é escritora, repórter e documentarista. Autora dos livros de não ficção Coluna Prestes – o Avesso da Lenda, A Vida Que Ninguém vê, O Olho da Rua, A Menina Quebrada, Meus Desacontecimentos e do romance Uma Duas. Site: elianebrum.com Email: elianebrum.coluna@gmail.com Twitter: @brumelianebrum

Climatologists Balk as Brazil Picks Skeptic for Key Post (New York Times)

RIO DE JANEIRO — Calling Aldo Rebelo a climate-change skeptic would be putting it mildly. In his days as a fiery legislator in the Communist Party of Brazil, he railed against those who say human activity is warming the globe and called the international environmental movement “nothing less, in its geopolitical essence, than the bridgehead of imperialism.”

Though many Brazilians have grown used to such pronouncements from Mr. Rebelo, 58, his appointment this month as minister of science by President Dilma Rousseff is causing alarm among climate scientists and environmentalists here, a country that has been seeking to assert leadership in global climate talks.

“At first I thought this was some sort of mistake, that he was playing musical chairs and landed in the wrong chair,” said Márcio Santilli, a founder of Instituto Socioambiental, one of Brazil’s leading environmental groups. “Unfortunately, there he is, overseeing Brazilian science at a very delicate juncture when Brazil’s carbon emissions are on the rise again.”

Brazil won plaudits for lowering its annual emissions from 2004 to 2012, largely by slowing the rate of deforestation in the Amazon. But emissions jumped 7.8 percent in 2013, according to the Climate Observatory, a network of environmental organizations. Several factors were to blame, the observatory said: deforestation on the rise again, growing use of power plants that burn fossil fuels, and increased consumption of gasoline and diesel.

Ms. Rousseff, a leader of the leftist Workers Party, has been speaking strongly about the need to reduce carbon emissions around the world, raising hopes that Brazil will work harder to preserve much of its Amazon rain forest. The destruction of tropical forests is viewed as a major contributor to climate change.

But Mr. Rebelo’s appointment comes as some scientists are questioning Brazil’s commitment to reducing deforestation and emissions. Environmentalists have also expressed concern over Ms. Rousseff’s new minister of agriculture, Kátia Abreu, a combative supporter of industrial-scale farming who worked with Mr. Rebelo on a recent overhaul of Brazil’s forest protection laws.

“Old-line Communist Rebelo is on exactly the same page on climate science as the hardest of the hard-core Tea Partiers,” Stephan Schwartzman, director of tropical forest policy at the United States-based Environmental Defense Fund, said in a blog post.

Before the international climate talks that were held in Lima, Peru, in December, the Brazilian government said that the rate of deforestation in the Amazon had declined by 18 percent in the period from August 2013 to August 2014. But analysts said the government had tailored its announcement to exclude a recent resurgence in deforestation. Imazon, a Brazilian institute that uses satellite imagery to track the issue, saw a fourfold increase in November compared with the same month in 2013.

Mr. Rebelo, who was sports minister during Ms. Rousseff’s first term as president, has not distanced himself from his earlier statements about climate science, including his assertion that “there is no scientific proof of the projections of global warming, much less that it is occurring because of human action.”

But in a speech last week at his swearing-in ceremony, he said the science ministry would be guided by the government’s established positions on climate change. “The controversy in relation to global warming exists independent of my view,” he told reporters. “I follow the debate, as is my duty as a public figure.”

Em plena crise hídrica, Cobra Coral pode deixar o Brasil (Terra Brasil)

05 de janeiro de 2015 • 15h46 • atualizado às 17h05

Entidade exotérica que controlaria chuvas por meio de uma médium, que diz incorporar espírito do Cacique Cobra Coral, estuda proposta para trabalho exclusivo na Austrália

André Naddeo
Direto do Rio de Janeiro
Imagem de divulgação do site da Fundação Cacique Cobra Coral: anos de “consultoria” para suposto controle de chuvas e tempestades Foto: Divulgação

Em tempos de crise hídrica, em que se discute possibilidades de racionamento de água em função da falta de chuvas em reservatórios do sudeste, principalmente em São Paulo e no Rio de Janeiro, a Fundação Cacique Cobra Coral pode deixar o Brasil e ir trabalhar, literalmente, do outro lado do mundo.

Conhecida entidade exotérica que supostamente controla as incertezas meteorológicas mediante a médium Adelaide Scritori, que incorpora o espírito do cacique, a FCCC estuda uma proposta de um grupo do agronegócio da Austrália para um contrato exclusivo de controle de tempestades no país da Oceania.

“Eles querem uma maior atenção por lá”, confirmou o porta-voz da FCCC, Osmar Santos, que diz que a entidade atende 17 países de três continentes – no Brasil, os principais clientes são a prefeitura e governo do Rio de Janeiro, além do ministério das Minas e Energia, cujo contrato, de acordo com Santos, está vencido.

A Cacique Cobra Coral já foi motivo de diversas polêmicas, principalmente na capital fluminense – o ex-prefeito César Maia tinha exposto em sua sala de almoço um quadro do cacique, com quem sempre manteve contratos sem nenhum tipo de pagamento. Quando deixou o cargo, Maia se disse temeroso pelo não prosseguimento da “consultoria espiritual”.

Coincidentemente ou não, após as fortes chuvas que arrasaram o Rio de Janeiro em 2010, o contrato foi retomado e segue até hoje, após uma pequena interrupção em 2012. Temeroso com chuvas fortes que pudessem comprometer as apresentações das bandas, o Rock in Rio também já usufruiu dos trabalhos do cacique.

O porta-voz do FCCC afirma que ainda não é certo que a entidade exotérica dará exclusividade aos australianos. “Vamos viajar para lá na segunda quinzena deste mês e avaliar todos os pontos do contrato”, explica, sem poder revelar valores, ou mesmo detalhes do possível acordo de exclusividade. “Claro que tudo isso só vai ser acertado com o aval do cacique”, esclarece ainda, finalizando que o anúncio oficial sairá apenas após o Carnaval.

What Can a Popular Pope Do About Climate Change? (The Atlantic)

The pontiff plans to issue a rare and controversial plea for Catholics to consider the environment. Recent polls show his message just might resonate.

Alessandra Tarantino/AP

Pope Francis has ambitious environmental plans for 2015. Come March, he will deliver a 50 to 60-page edict urging his 1.2 billion Catholic followers to take action against climate change. The Pontiff will make his announcement during his visit to the Philippine city of Tacloban, which was ravaged by typhoon Haiyan, which killed thousands in 2013.

But within his global congregation, many conservative Catholics are expected to oppose the pope’s environmental views.

The message comes months in advance of the next United Nations climate meeting, which is slated to begin November 2015 in Paris. The pope’s lead scientific adviser Bishop Marcelo Sorondo, said that the pope’s message to his bishops, called an encyclical, is supposed to influence world leaders as they make their final recommendations after 20 years of negotiating how to reduce global carbon emissions, The Guardian reported. “The idea is to convene a meeting with leaders of the main religions to make all people aware of the state of our climate,” Sorondo said to Cafod, the Catholic development agency, of the pope’s plans.

Francis has previously pointed to the environment as being “one of the greatest challenges of our time,” and he says that Catholics have a moral and scientific obligation to protect it. But the move to publish an encyclical goes beyond offering a soundbite. “A papal encyclical is rare. It is among the highest levels of a pope’s authority,” Dan Misleh, director of the Catholic climate covenant, said to The Guardian. The pope will distribute the lengthy document to 5,000 Catholic bishops and 400,000 priests, who will then share the message with their congregations in churches across the world.

In the United States, where climate change is a controversial topic, the majority of Catholics agree that the Earth is getting warmer, about a third of that group did not believe that the change is due to human activity, according to a 2012 survey by the Public Religion Research Institute. The same poll found that about 82 percent of Republicans doubt that humans cause climate change. Among the climate deniers include some influential Republicans like House Speaker John Boehner.

Pope Francis also faces fierce opposition from U.S. evangelicals. According to the  Public Religion Research Institute, 69 percent of evangelicals do not believe in anthropogenic climate change, and many vehemently oppose its existence. Calvin Beisner, the spokesman for the conservative Cornwall Alliance, believes that the idea of human-caused climate change is “un-biblical.” “The pope should back off,” he said to The Guardian. “The Catholic church is correct on the ethical principles but has been misled on the science.”

Globally only 11 percent of people see the pope unfavorably, and 60 percent approve of him, according to a 2014 poll by the Pew Research Center. Pope Francis is overwhelmingly accepted by heavily Catholic countries: 84 in percent Europe; 78 percent in the U.S., and 72 percent in Latin America. Now, with the pope’s environmental encyclical forthcoming, and his global support at astronomical levels, it’s still uncertain how much influence his environmental push will have with the most devout deniers of climate change.

Aquecimento global é inevitável e 6 bi morrerão, diz cientista (Rolling Stone)

Edição 14 – Novembro de 2007

James Lovelock, renomado cientista, diz que o aquecimento global é irreversível – e que mais de 6 bilhões de pessoas vão morrer neste século
por POR JEFF GOODELL

Aos 88 anos, depois de quatro filhos e uma carreira longa e respeitada como um dos cientistas mais influentes do século 20, James Lovelock chegou a uma conclusão desconcertante: a raça humana está condenada. “Gostaria de ser mais esperançoso”, ele me diz em uma manhã ensolarada enquanto caminhamos em um parque em Oslo (Noruega), onde o estudioso fará uma palestra em uma universidade. Lovelock é baixinho, invariavelmente educado, com cabelo branco e óculos redondos que lhe dão ares de coruja. Seus passos são gingados; sua mente, vívida; seus modos, tudo menos pessimistas. Aliás, a chegada dos Quatro Cavaleiros do Apocalipse – guerra, fome, pestilência e morte – parece deixá-lo animado. “Será uma época sombria”, reconhece. “Mas, para quem sobreviver, desconfio que vá ser bem emocionante.”

Na visão de Lovelock, até 2020, secas e outros extremos climáticos serão lugar-comum. Até 2040, o Saara vai invadir a Europa, e Berlim será tão quente quanto Bagdá. Atlanta acabará se transformando em uma selva de trepadeiras kudzu. Phoenix se tornará um lugar inabitável, assim como partes de Beijing (deserto), Miami (elevação do nível do mar) e Londres (enchentes). A falta de alimentos fará com que milhões de pessoas se dirijam para o norte, elevando as tensões políticas. “Os chineses não terão para onde ir além da Sibéria”, sentencia Lovelock. “O que os russos vão achar disso? Sinto que uma guerra entre a Rússia e a China seja inevitável.” Com as dificuldades de sobrevivência e as migrações em massa, virão as epidemias. Até 2100, a população da Terra encolherá dos atuais 6,6 bilhões de habitantes para cerca de 500 milhões, sendo que a maior parte dos sobreviventes habitará altas latitudes – Canadá, Islândia, Escandinávia, Bacia Ártica.

Até o final do século, segundo o cientista, o aquecimento global fará com que zonas de temperatura como a América do Norte e a Europa se aqueçam quase 8 graus Celsius – quase o dobro das previsões mais prováveis do relatório mais recente do Painel Intergovernamental sobre a Mudança Climática, a organização sancionada pela ONU que inclui os principais cientistas do mundo. “Nosso futuro”, Lovelock escreveu, “é como o dos passageiros em um barquinho de passeio navegando tranqüilamente sobre as cataratas do Niagara, sem saber que os motores em breve sofrerão pane”. E trocar as lâmpadas de casa por aquelas que economizam energia não vai nos salvar. Para Lovelock, diminuir a poluição dos gases responsáveis pelo efeito estufa não vai fazer muita diferença a esta altura, e boa parte do que é considerado desenvolvimento sustentável não passa de um truque para tirar proveito do desastre. “Verde”, ele me diz, só meio de piada, “é a cor do mofo e da corrupção.”

Se tais previsões saíssem da boca de qualquer outra pessoa, daria para rir delas como se fossem devaneios. Mas não é tão fácil assim descartar as idéias de Lovelock. Na posição de inventor, ele criou um aparelho que ajudou a detectar o buraco crescente na camada de ozônio e que deu início ao movimento ambientalista da década de 1970. E, na posição de cientista, apresentou a teoria revolucionária conhecida como Gaia – a idéia de que nosso planeta é um superorganismo que, de certa maneira, está “vivo”. Essa visão hoje serve como base a praticamente toda a ciência climática. Lynn Margulis, bióloga pioneira na Universidade de Massachusetts (Estados Unidos), diz que ele é “uma das mentes científicas mais inovadoras e rebeldes da atualidade”. Richard Branson, empresário britânico, afirma que Lovelock o inspirou a gastar bilhões de dólares para lutar contra o aquecimento global. “Jim é um cientista brilhante que já esteve certo a respeito de muitas coisas no passado”, diz Branson. E completa: “Se ele se sente pessimista a respeito do futuro, é importante para a humanidade prestar atenção.”

Lovelock sabe que prever o fim da civilização não é uma ciência exata. “Posso estar errado a respeito de tudo isso”, ele admite. “O problema é que todos os cientistas bem intencionados que argumentam que não estamos sujeitos a nenhum perigo iminente baseiam suas previsões em modelos de computador. Eu me baseio no que realmente está acontecendo.”

Quando você se aproxima da casa de Lovelock em Devon, uma área rural no sudoeste da Inglaterra, a placa no portão de metal diz, claramente: “Estação Experimental de Coombe Mill. Local de um novo hábitat. Por favor, não entre nem incomode”.
Depois de percorrer algumas centenas de metros em uma alameda estreita, ao lado de um moinho antigo, fica uma casinha branca com telhado de ardósia onde Lovelock mora com a segunda mulher, Sandy, uma norte-americana, e seu filho mais novo, John, de 51 anos e que tem incapacidade leve. É um cenário digno de conto de fadas, cercado de 14 hectares de bosques, sem hortas nem jardins com planejamento paisagístico. Parcialmente escondida no bosque fica uma estátua em tamanho natural de Gaia, a deusa grega da Terra, em homenagem à qual James Lovelock batizou sua teoria inovadora.

A maior parte dos cientistas trabalha às margens do conhecimento humano, adicionando, aos poucos, nova informações para a nossa compreensão do mundo. Lovelock é um dos poucos cujas idéias fomentaram, além da revolução científica, também a espiritual. “Os futuros historiadores da ciência considerarão Lovelock como o homem que inspirou uma mudança digna de Copérnico na maneira como nos enxergamos no mundo”, prevê Tim Lenton, pesquisador de clima na Universidade de East Anglia, na Inglaterra. Antes de Lovelock aparecer, a Terra era considerada pouco mais do que um pedaço de pedra aconchegante que dava voltas em torno do Sol. De acordo com a sabedoria em voga, a vida evoluiu aqui porque as condições eram adequadas: não muito quente nem muito frio, muita água. De algum modo, as bactérias se transformaram em organismos multicelulares, os peixes saíram do mar e, pouco tempo depois, surgiu Britney Spears.

Na década de 1970, Lovelock virou essa idéia de cabeça para baixo com uma simples pergunta: Por que a Terra é diferente de Marte e de Vênus, onde a atmosfera é tóxica para a vida? Em um arroubo de inspiração, ele compreendeu que nossa atmosfera não foi criada por eventos geológicos aleatórios, mas sim devido à efusão de tudo que já respirou, cresceu e apodreceu. Nosso ar “não é meramente um produto biológico”, James Lovelock escreveu. “É mais provável que seja uma construção biológica: uma extensão de um sistema vivo feito para manter um ambiente específico.” De acordo com a teoria de Gaia, a vida é participante ativa que ajuda a criar exatamente as condições que a sustentam. É uma bela idéia: a vida que sustenta a vida. Também estava bem em sintonia com o tom pós-hippie dos anos 70. Lovelock foi rapidamente adotado como guru espiritual, o homem que matou Deus e colocou o planeta no centro da experiência religiosa da Nova Era. O maior erro de sua carreira, aliás, não foi afirmar que o céu estava caindo, mas deixar de perceber que estava. Em 1973, depois de ser o primeiro a descobrir que os clorofluocarbonetos (CFCs), um produto químico industrial, tinham poluído a atmosfera, Lovelock declarou que a acumulação de CFCs “não apresentava perigo concebível”. De fato, os CFCs não eram tóxicos para a respiração, mas estavam abrindo um buraco na camada de ozônio. Lovelock rapidamente revisou sua opinião, chamando aquilo de “uma das minhas maiores bolas fora”, mas o erro pode ter lhe custado um prêmio Nobel.

No início, ele também não considerou o aquecimento global como uma ameaça urgente ao planeta. “Gaia é uma vagabunda durona”, ele explica com freqüência, tomando emprestada uma frase cunhada por um colega. Mas, há alguns anos, preocupado com o derretimento acelerado do gelo no Ártico e com outras mudanças relacionadas ao clima, ele se convenceu de que o sistema de piloto automático de Gaia está seriamente desregulado, tirado dos trilhos pela poluição e pelo desmatamento. Lovelock acredita que o planeta vai recuperar seu equilíbrio sozinho, mesmo que demore milhões de anos. Mas o que realmente está em risco é a civilização. “É bem possível considerar seriamente as mudanças climáticas como uma resposta do sistema que tem como objetivo se livrar de uma espécie irritante: nós, os seres humanos”, Lovelock me diz no pequeno escritório que montou em sua casa. “Ou pelo menos fazer com que diminua de tamanho.”

Se você digitar “gaia” e “religion” no Google, vai obter 2,36 milhões de páginas – praticantes de wicca, viajantes espirituais, massagistas e curandeiros sexuais, todos inspirados pela visão de Lovelock a respeito do planeta. Mas se você perguntar a ele sobre cultos pagãos, ele responde com uma careta: não tem interesse na espiritualidade desmiolada nem na religião organizada, principalmente quando coloca a existência humana acima de tudo o mais. Em Oxford, certa vez ele se levantou e repreendeu Madre Teresa por pedir à platéia que cuidasse dos pobres e “deixasse que Deus tomasse conta da Terra”. Como Lovelock explicou a ela, “se nós, as pessoas, não respeitarmos a Terra e não tomarmos conta dela, podemos ter certeza de que ela, no papel de Gaia, vai tomar conta de nós e, se necessário for, vai nos eliminar”.
Gaia oferece uma visão cheia de esperança a respeito de como o mundo funciona. Afinal de contas, se a Terra é mais do que uma simples pedra que gira ao redor do sol, se é um superorganismo que pode evoluir, isso significa que existe certa quantidade de perdão embutida em nosso mundo – e essa é uma conclusão que vai irritar profundamente estudiosos de biologia e neodarwinistas de absolutamente todas as origens.

Para Lovelock, essa é uma idéia reconfortante. Considere a pequena propriedade que ele tem em Devon. Quando ele comprou o terreno, há 30 anos, era rodeada por campos aparados por mil anos de ovelhas pastando. E ele se empenhou em devolver a seus 14 hectares um caráter mais próximo do natural. Depois de consultar um engenheiro florestal, plantou 20 mil árvores – amieiros, carvalhos, pinheiros. Infelizmente, plantou muitas delas próximas demais, e em fileiras. Agora, as árvores estão com cerca de 12 metros de altura, mas em vez de ter ar “natural”, partes do terreno dele parecem simplesmente um projeto de reflorestamento mal executado. “Meti os pés pelas mãos”, Lovelock diz com um sorriso enquanto caminhamos no bosque. “Mas, com o passar dos anos, Gaia vai dar um jeito.”

Até pouco tempo atrás, Lovelock achava que o aquecimento global seria como sua floresta meia-boca – algo que o planeta seria capaz de corrigir. Então, em 2004, Richard Betts, amigo de Lovelock e pesquisador no Centro Hadley para as Mudanças Climáticas – o principal instituto climático da Inglaterra -, convidou-o para dar uma passada lá e bater um papo com os cientistas. Lovelock fez reunião atrás de reunião, ouvindo os dados mais recentes a respeito do gelo derretido nos pólos, das florestas tropicais cada vez menores, do ciclo de carbono nos oceanos. “Foi apavorante”, conta.

“Mostraram para nós cinco cenas separadas de respostas positivas em climas regionais – polar, glacial, floresta boreal, floresta tropical e oceanos -, mas parecia que ninguém estava trabalhando nas conseqüências relativas ao planeta como um todo.” Segundo ele, o tom usado pelos cientistas para falar das mudanças que testemunharam foi igualmente de arrepiar: “Parecia que estavam discutindo algum planeta distante ou um universo-modelo, em vez do lugar em que todos nós, a humanidade, vivemos”.

Quando Lovelock estava voltando para casa em seu carro naquela noite, a compreensão lhe veio. A capacidade de adaptação do sistema se perdera. O perdão fora exaurido. “O sistema todo”, concluiu, “está em modo de falha.” Algumas semanas depois, ele começou a trabalhar em seu livro mais pessimista, A Vingança de Gaia, publicado no Brasil em 2006. Na sua visão, as falhas nos modelos climáticos computadorizados são dolorosamente aparentes. Tome como exemplo a incerteza relativa à projeção do nível do mar: o IPCC, o painel da ONU sobre mudanças climáticas, estima que o aquecimento global vá fazer com que a temperatura média da Terra aumente até 6,4 graus Celsius até 2100. Isso fará com que geleiras em terra firme derretam e que o mar se expanda, dando lugar à elevação máxima do nível de mar de apenas pouco menos de 60 centímetros. A Groenlândia, de acordo com os modelos do IPCC, demorará mil anos para derreter.

Mas evidências do mundo real sugerem que as estimativas do IPCC são conservadoras demais. Para começo de conversa, os cientistas sabem, devido aos registros geológicos, que há 3 milhões de anos, quando as temperaturas subiram cinco graus acima dos níveis atuais, os mares subiram não 60 centímetros, mas 24 metros. Além do mais, medidas feitas por satélite recentemente indicam que o Ártico está derretendo com tanta rapidez que a região pode ficar totalmente sem gelo até 2030. “Quem elabora os modelos não tem a menor noção sobre derretimento de placas de gelo”, desdenha o estudioso, sem sorrir.

Mas não é apenas o gelo que invalida os modelos climáticos. Sabe-se que é difícil prever corretamente a física das nuvens, e fatores da biosfera, como o desmatamento e o derretimento da Tundra, raramente são levados em conta. “Os modelos de computador não são bolas de cristal”, argumenta Ken Caldeira, que elabora modelos climáticos na Universidade de Stanford, cuja carreira foi profundamente influenciada pelas idéias de Lovelock. “Ao observar o passado, fazemos estimativas bem informadas em relação ao futuro. Os modelos de computador são apenas uma maneira de codificar esse conhecimento acumulado em apostas automatizadas e bem informadas.”

Aqui, em sua essência supersimplificada, está o cenário pessimista de Lovelock: o aumento da temperatura significa que mais gelo derreterá nos pólos, e isso significa mais água e terra. Isso, por sua vez, faz aumentar o calor (o gelo reflete o sol, a terra e a água o absorvem), fazendo com que mais gelo derreta. O nível do mar sobe. Mais calor faz com que a intensidade das chuvas aumente em alguns lugares e com que as secas se intensifiquem em outros. As florestas tropicais amazônicas e as grandes florestas boreais do norte – o cinturão de pinheiros e píceas que cobre o Alasca, o Canadá e a Sibéria – passarão por um estirão de crescimento, depois murcharão até desaparecer. O solo permanentemente congelado das latitudes do norte derrete, liberando metano, um gás que contribui para o efeito estufa e que é 20 vezes mais potente do que o CO2… e assim por diante. Em um mundo de Gaia funcional, essas respostas positivas seriam moduladas por respostas negativas, sendo que a maior de todas é a capacidade da Terra de irradiar calor para o espaço. Mas, a certa altura, o sistema de regulagem pára de funcionar e o clima dá um salto – como já aconteceu muitas vezes no passado – para uma nova situação, mais quente. Não é o fim do mundo, mas certamente é o fim do mundo como o conhecemos.

O cenário pessimista de Lovelock é desprezado por pesquisadores de clima de renome, sendo que a maior parte deles rejeita a idéia de que haja um único ponto de desequilíbrio para o planeta inteiro. “Ecossistemas individuais podem falhar ou as placas de gelo podem entrar em colapso”, esclarece Caldeira, “mas o sistema mais amplo parece ser surpreendentemente adaptável.” No entanto, vamos partir do princípio, por enquanto, de que Lovelock esteja certo e que de fato estejamos navegando por cima das cataratas do Niagara. Simplesmente vamos acenar antes de cair? Na visão de Lovelock, reduções modestas de emissões de gases que contribuem para o efeito estufa não vão nos ajudar – já é tarde demais para deter o aquecimento global trocando jipões a diesel por carrinhos híbridos. E a idéia de capturar a poluição de dióxido de carbono criada pelas usinas a carvão e bombear para o subsolo? “Não há como enterrar quantidade suficiente para fazer diferença.” Biocombustíveis? “Uma idéia monumentalmente idiota.” Renováveis? “Bacana, mas não vão nem fazer cócegas.” Para Lovelock, a idéia toda do desenvolvimento sustentável é equivocada: “Deveríamos estar pensando em retirada sustentável”.

A retirada, na visão dele, significa que está na hora de começar a discutir a mudança do lugar onde vivemos e de onde tiramos nossos alimentos; a fazer planos para a migração de milhões de pessoas de regiões de baixa altitude, como Bangladesh, para a Europa; a admitir que Nova Orleans já era e mudar as pessoas para cidades mais bem posicionadas para o futuro. E o mais importante de tudo é que absolutamente todo mundo “deve fazer o máximo que pode para sustentar a civilização, de modo que ela não degenere para a Idade das Trevas, com senhores guerreiros mandando em tudo, o que é um perigo real. Assim, podemos vir a perder tudo”.

Até os amigos de Lovelock se retraem quando ele fala assim. “Acho que ele está deixando nossa cota de desespero no negativo”, diz Chris Rapley, chefe do Museu de Ciência de Londres, que se empenhou com afinco para despertar a consciência mundial sobre o aquecimento global. Outros têm a preocupação justificada de que as opiniões de Lovelock sirvam para dispersar o momento de concentração de vontade política para impor restrições pesadas às emissões de gases poluentes que contribuem para o efeito estufa. Broecker, o paleoclimatologista de Columbia, classifica a crença de Lovelock de que reduzir a poluição é inútil como “uma bobagem perigosa”.

“Eu gostaria de poder dizer que turbinas de vento e painéis solares vão nos salvar”, Lovelock responde. “Mas não posso. Não existe nenhum tipo de solução possível. Hoje, há quase 7 bilhões de pessoas no planeta, isso sem falar nos animais. Se pegarmos apenas o CO2 de tudo que respira, já é 25% do total – quatro vezes mais CO2 do que todas as companhias aéreas do mundo. Então, se você quer diminuir suas emissões, é só parar de respirar. É apavorante. Simplesmente ultrapassamos todos os limites razoáveis em números. E, do ponto de vista puramente biológico, qualquer espécie que faz isso tem que entrar em colapso.”

Mas isso não é sugerir, no entanto, que Lovelock acredita que deveríamos ficar tocando harpa enquanto assistimos o mundo queimar. É bem o contrário. “Precisamos tomar ações ousadas”, ele insiste. “Temos uma quantidade enorme de coisas a fazer.” De acordo com a visão dele, temos duas escolhas: podemos retornar a um estilo de vida mais primitivo e viver em equilíbrio com o planeta como caçadores-coletores ou podemos nos isolar em uma civilização muito sofisticada, de altíssima tecnologia. “Não há dúvida sobre que caminho eu preferiria”, diz certa manhã, em sua casa, com um sorriso aberto no rosto enquanto digita em seu computador. “Realmente, é uma questão de como organizamos a sociedade – onde vamos conseguir nossa comida, nossa água. Como vamos gerar energia.”

Em relação à água, a resposta é bem direta: usinas de dessalinização, que são capazes de transformar água do mar em água potável. O suprimento de alimentos é mais difícil: o calor e a seca vão acabar com a maior parte das regiões de plantações de alimentos hoje existentes. Também vão empurrar as pessoas para o norte, onde vão se aglomerar em cidades. Nessas áreas, não haverá lugar para quintais ajardinados. Como resultado, Lovelock acredita, precisaremos sintetizar comida – teremos que criar alimentos em barris com culturas de tecidos de carnes e vegetais. Isso parece muito exagerado e profundamente desagradável, mas, do ponto de vista tecnológico, não será difícil de realizar.
O fornecimento contínuo de eletricidade também será vital, segundo ele. Cinco dias depois de visitar o centro Hadley, Lovelock escreveu um artigo opinativo polêmico, intitulado: “Energia nuclear é a única solução verde”. Lovelock argumentava que “devemos usar o pequeno resultado dos renováveis com sensatez”, mas que “não temos tempo para fazer experimentos com essas fontes de energia visionárias; a civilização está em perigo iminente e precisa usar a energia nuclear – a fonte de energia mais segura disponível – agora ou sofrer a dor que em breve será infligida a nosso planeta tão ressentido”.

Ambientalistas urraram em protesto, mas qualquer pessoa que conhecia o passado de Lovelock não se surpreendeu com sua defesa à energia nuclear. Aos 14 anos, ao ler que a energia do sol vem de uma reação nuclear, ele passou a acreditar que a energia nuclear é uma das forças fundamentais no universo. Por que não aproveitá-la? No que diz respeito aos perigos – lixo radioativo, vulnerabilidade ao terrorismo, desastres como o de Chernobyl – Lovelock diz que este é dos males o menos pior: “Mesmo que eles tenham razão a respeito dos perigos, e não têm, continua não sendo nada na comparação com as mudanças climáticas”.

Como último recurso, para manter o planeta pelo menos marginalmente habitável, Lovelock acredita que os seres humanos podem ser forçados a manipular o clima terrestre com a construção de protetores solares no espaço ou instalando equipamentos para enviar enormes quantidades de CO2 para fora da atmosfera. Mas ele considera a geoengenharia em larga escala como um ato de arrogância – “Imagino que seria mais fácil um bode se transformar em um bom jardineiro do que os seres humanos passarem a ser guardiões da Terra”. Na verdade, foi Lovelock que inspirou seu amigo Richard Branson a oferecer um prêmio de US$ 25 milhões para o “Virgin Earth Challenge” (Desafio Virgin da Terra), que será concedido à primeira pessoa que conseguir criar um método comercialmente viável de remover os gases responsáveis pelo efeito estufa da atmosfera. Lovelock é juiz do concurso, por isso não pode participar dele, mas ficou intrigado com o desafio. Sua mais recente idéia: suspender centenas de milhares de canos verticais de 18 metros de comprimento nos oceanos tropicais, colocar uma válvula na base de cada cano e permitir que a água das profundezas, rica em nutrientes, seja bombeada para a superfície pela ação das ondas. Os nutrientes das águas das profundezas aumentariam a proliferação das algas, que consumiriam o dióxido de carbono e ajudariam a resfriar o planeta. “É uma maneira de contrabalançar o sistema de energia natural da Terra usando ele próprio”, Lovelock especula. “Acho que Gaia aprovaria.”

Oslo é o tipo perfeito de cidade para Lovelock. Fica em latitudes do norte, que ficarão mais temperadas na medida em que o clima for esquentando; tem água aos montes; graças a suas reservas de petróleo e gás, é rica; e lá já há muito pensamento criativo relativo à energia, incluindo, para a satisfação de Lovelock, discussões renovadas a respeito da energia nuclear. “A questão principal a ser discutida aqui é como manejar as hordas de pessoas que chegarão à cidade”, Lovelock avisa. “Nas próximas décadas, metade da população do sul da Europa vai tentar se mudar para cá.”

Nós nos dirigimos para perto da água, passando pelo castelo de Akershus, uma fortaleza imponente do século 13 que funcionou como quartel-general nazista durante a ocupação da cidade na Segunda Guerra Mundial. Para Lovelock, os paralelos entre o que o mundo enfrentou naquela época e o que enfrenta hoje são bem claros. “Em certos aspectos, é como se estivéssemos de novo em 1939”, ele afirma. “A ameaça é óbvia, mas não conseguimos nos dar conta do que está em jogo. Ainda estamos falando de conciliação.”

Naquele tempo, como hoje, o que mais choca Lovelock é a ausência de liderança política. Apesar de respeitar as iniciativas de Al Gore para conscientizar as pessoas, não acredita que nenhum político tenha chegado perto de nos preparar para o que vem por aí. “Em muito pouco tempo, estaremos vivendo em um mundo desesperador, comenta Lovelock. Ele acredita que está mais do que na hora para uma versão “aquecimento global” do famoso discurso que Winston Churchill fez para preparar a Grã-Bretanha para a Segunda Guerra Mundial: “Não tenho nada a oferecer além de sangue, trabalho, lágrimas e suor”. “As pessoas estão prontas para isso”, Lovelock dispara quando passamos sob a sombra do castelo. “A população entende o que está acontecendo muito melhor do que a maior parte dos políticos.”

Independentemente do que o futuro trouxer, é provável que Lovelock não esteja por aí para ver. “O meu objetivo é viver uma vida retangular: longa, forte e firme, com uma queda rápida no final”, sentencia. Lovelock não apresenta sinais de estar se aproximando de seu ponto de queda. Apesar de já ter passado por 40 operações, incluindo ponte de safena, continua viajando de um lado para o outro no interior inglês em seu Honda branco, como um piloto de Fórmula 1. Ele e Sandy recentemente passaram um mês de férias na Austrália, onde visitaram a Grande Barreira de Corais. O cientista está prestes a começar a escrever mais um livro sobre Gaia. Richard Branson o convidou para o primeiro vôo do ônibus espacial Virgin Galactic, que acontecerá no fim do ano que vem – “Quero oferecer a ele a visão de Gaia do espaço”, diz Branson. Lovelock está ansioso para fazer o passeio, e planeja fazer um teste em uma centrífuga até o fim deste ano para ver se seu corpo suporta as forças gravitacionais de um vôo espacial. Ele evita falar de seu legado, mas brinca com os filhos dizendo que quer ver gravado na lápide de seu túmulo: “Ele nunca teve a intenção de ser conciliador”.

Em relação aos horrores que nos aguardam, Lovelock pode muito bem estar errado. Não por ter interpretado a ciência erroneamente (apesar de isso certamente ser possível), mas por ter interpretado os seres humanos erroneamente. Poucos cientistas sérios duvidam que estejamos prestes a viver uma catástrofe climática. Mas, apesar de toda a sensibilidade de Lovelock para a dinâmica sutil e para os ciclos de resposta no sistema climático, ele se mostra curiosamente alheio à dinâmica sutil e aos ciclos de resposta no sistema humano. Ele acredita que, apesar dos nossos iPhones e dos nossos ônibus espaciais, continuamos sendo animais tribais, amplamente incapazes de agir pelo bem maior ou de tomar decisões de longo prazo que garantam nosso bem-estar. “Nosso progresso moral”, diz Lovelock, “não acompanhou nosso progresso tecnológico.”

Mas talvez seja exatamente esse o motivo do apocalipse que está por vir. Uma das questões que fascina Lovelock é a seguinte: A vida vem evoluindo na Terra há mais de 3 bilhões de anos – e por que motivo? “Gostemos ou não, somos o cérebro e o sistema nervoso de Gaia”, ele explica. “Agora, assumimos responsabilidade pelo bem-estar do planeta. Como vamos lidar com isso?”
Enquanto abrimos caminho no meio dos turistas que se dirigem para o castelo, é fácil olhar para eles e ficar triste. Mais difícil é olhar para eles e ter esperança. Mas quando digo isso a Lovelock, ele argumenta que a raça humana passou por muitos gargalos antes – e que talvez sejamos melhores por causa disso. Então ele me conta a história de um acidente de avião, anos atrás, no aeroporto de Manchester. “Um tanque de combustível pegou fogo durante a decolagem”, recorda. “Havia tempo de sobra para todo mundo sair, mas alguns passageiros simplesmente ficaram paralisados, sentados nas poltronas, como tinham lhes dito para fazer, e as pessoas que escaparam tiveram que passar por cima deles para sair. Era perfeitamente óbvio o que era necessário fazer para sair, mas eles não se mexiam. Morreram carbonizados ou asfixiados pela fumaça. E muita gente, fico triste em dizer, é assim. E é isso que vai acontecer desta vez, só que em escala muito maior.”

Lovelock olha para mim com olhos azuis muito firmes. “Algumas pessoas vão ficar sentadas na poltrona sem fazer nada, paralisadas de pânico. Outras vão se mexer. Vão ver o que está prestes a acontecer, e vão tomar uma atitude, e vão sobreviver. São elas que vão levar a civilização em frente.”

*   *   *

[Denialist view]

BREAKING: James Lovelock backs down on climate alarm (What’s up with that?)

MSNBC reports that the lack of temperature rise in the last 12 years has convinced environmentalist James Lovelock ( The Gaia Hypothesis) that the climate alarmism wasn’t warranted.

From his Wikipedia entry: Writing in the British newspaper The Independent in January 2006, Lovelock argues that, as a result of global warming, “billions of us will die and the few breeding pairs of people that survive will be in the Arctic where the climate remains tolerable” by the end of the 21st century. 

He has been quoted in The Guardian that 80% of humans will perish by 2100 AD, and this climate change will last 100,000 years. According to James Lovelock, by 2040, the world population of more than six billion will have been culled by floods, drought and famine. Indeed “[t]he people of Southern Europe, as well as South-East Asia, will be fighting their way into countries such as Canada, Australia and Britain”.

What he has said to MSNBC is a major climb down. MSNBC reports in this story:

James Lovelock, the maverick scientist who became a guru to the environmental movement with his “Gaia” theory of the Earth as a single organism, has admitted to being “alarmist” about climate change and says other environmental commentators, such as Al Gore, were too.

Lovelock, 92, is writing a new book in which he will say climate change is still happening, but not as quickly as he once feared.

He previously painted some of the direst visions of the effects of climate change. In 2006, in an article in the U.K.’s Independent newspaper, he wrote that “before this century is over billions of us will die and the few breeding pairs of people that survive will be in the Arctic where the climate remains tolerable.”

However, the professor admitted in a telephone interview with msnbc.com that he now thinks he had been “extrapolating too far”…

“The problem is we don’t know what the climate is doing. We thought we knew 20 years ago. That led to some alarmist books – mine included – because it looked clear-cut, but it hasn’t happened,” Lovelock said.

“The world has not warmed up very much since the millennium. Twelve years is a reasonable time… it (the temperature) has stayed almost constant, whereas it should have been rising — carbon dioxide is rising, no question about that.”

This won’t sit well with many. McKibben has a whole movement based on alarm for example. Watch the true believers now trash him in the “doddering old man” style we’ve seen before.

hat tip to Steve Milloy at junkscience.com

(Tradução de Ana Ban)

Can science prove the existence of God? (Starts with a bang!)

What it means if there’s no life anywhere else in the Universe, and what we know so far.

Ethan Siegel on Dec 30, 2014

“Men occasionally stumble over the truth, but most of them pick themselves up and hurry off as if nothing had happened.” –Winston Churchill

This past weekend, Eric Metaxas lit up the world with his bold article in the Wall Street Journal, Science Increasingly Makes the Case for God. What he argues, specifically is that to the best of our knowledge, this is our planet:

Image credit: ISS expedition 25, via http://earthobservatory.nasa.gov/IOTD/view.php?id=46820.

while this is every other planet out there.

Image credit: Mars Spirit Rover, NASA/JPL/Cornell.

Which is to say, we live in a particularly privileged place. We live on a planet that has all the right ingredients for life, including:

  • We’re at the right distance from our Sun so that temperatures are conducive to life.
  • We have the right atmospheric pressure for liquid water at our surface.
  • We have the right ingredients — the right balance of heavy elements and organic molecules — for life to arise.
  • We have the right amount of water so that our world has both oceans and continents.
  • And life started on our world very early, sustained itself for our planet’s entire history, and gave rise to us: sentient, self-aware creatures.

This, he argues, is incredibly rare. In fact, he goes beyond arguing that it’s just a rare occurrence in our Universe, claiming instead that it’s so outlandishly unexpected, given all the factors that needed to occur in just the right confluence of circumstances, that our Universe must have been designed specifically to give rise to us, otherwise the odds of us coming to be would be so infinitesimally small that it’s unreasonable to believe it could have happened by chance.

Image credit: Cosmos (1980) / Carl Sagan.

This is a very compelling argument for many people, but it’s important to ask ourselves three questions to make sure we’re approaching this honestly. We’ll go through them one at a time, but here are the three, so we know what we’re getting into.

  1. What are, scientifically, the conditions that we need for life to arise?
  2. How rare or common are these conditions elsewhere in the Universe?
  3. And finally, if we don’t find life in the places and under the conditions where we expect it, can that prove the existence of God?

These are all big questions, so let’s give them the care they deserve.

Image credit: NOAA/PMEL Vents Program, via http://www.pmel.noaa.gov/eoi/.

1.) What are, scientifically, the conditions that we need for life to arise? In other words, things did occur in a very specific way here on Earth, but how many of them does life-as-we-know-it require, versus how many of them happened in a particular way here, but could have easily happened under different conditions elsewhere?

The things I listed earlier are based on the assumption that any life that’s out there is going to be like us in the sense that it will be based on the chemistry of atoms and molecules, occur with liquid water as a basic requirement of its functioning, and won’t be in an environment that we know to be toxic to all terrestrial life.

For those criteria alone, we already know there are billions of planets in our galaxy alone that fit the bill.

Image credit: NASA/Ames/JPL-Caltech, via http://kepler.arc.nasa.gov/news/nasakeplernews/index.cfm?FuseAction=ShowNews&NewsID=165.

Our studies of exoplanets — of worlds around stars beyond our own — have shown us that there’s a huge variety of rocky planets orbiting at the right distance from their central stars to have liquid water on their surfaces if they have anything akin to atmospheres like our own. We are starting to approach the technological capabilities of detecting exo-atmospheres and their compositions around worlds as small as our own; currently, we can get down to about Neptune-sized worlds, although the James Webb Space Telescope will advance that further in under a decade.

Image credit: David A. Aguilar, CFA.

But aren’t there other things we need to worry about? What if we were too close to the galactic center; wouldn’t the high rate of supernovae fry us, and sterilize life? What if we didn’t have a planet like Jupiter to clear out the asteroid belt; wouldn’t the sheer number of asteroids flying our way wipe any life that manages to form out? And what about the fact that we’re here now, when the Universe is relatively young? Many stars will live for trillions of years, but we’ve only got about another billion or two before our Sun gets hot enough to boil our oceans. When the Universe was too young, there weren’t enough heavy elements. Did we come along at just the right time, to not only make it in our Universe, but to witness all the galaxies before dark energy pushes them away?

Image credit: Midcourse Space Experiment (MSX) composite, via http://coolcosmos.ipac.caltech.edu/image_galleries/MSX/galactic_center.html.

Probably not, to all of these questions! Metaxas throws these out there to illustrate how unlikely it is that we would have come into existence, but none of these points say what he uses them to mean. If we were closer to the galactic center, yes: the star formation rate is higher and the rate of supernovae is higher. But the main thing that means is that large numbers of heavy elements are created faster there, giving complex life an opportunity starting from earlier times. Here in the outskirts, we have to wait longer!

And as for sterilizing a planet, you’d have to be very close to a supernova for that to happen — far closer than stars typically are to one another near the galactic center — or else in the direct path of a hypernova beam. But even in this latter case, which would still be incredibly rare, you’re likely to only sterilize half your world at once, because these beams are short-lived!

Image credit: NASA / JPL.

Their atmospheres wouldn’t be blown off entirely, deep-ocean life should still survive, and there’s every reason to believe that no matter how bad it got, the conditions would be ripe for complex life to make a comeback.

Once life takes hold on a world, or gets “under its skin” as some biologists say, it’s very hard to annihilate it entirely. And this simply won’t do.

Image credit: NASA/ESA/A. Feild, STScI.

Same deal for asteroids. Yes, a solar system without a Jupiter-like planet would have many more asteroids, but without a Jupiter-like planet, would their orbits ever get perturbed to fling them into the inner solar system? Would it make extinction events more common, or rarer? Moreover, even if there were increased impacts, would that even make complex/intelligent life less likely, or would the larger number of extinction events accelerate the differentiation of life, making intelligence more likely?

The evidence that we need a Jupiter for life is specious at best, just like the evidence that we need to be at this location in our galaxy is also sparse. But even if those things were true, we’d still have huge numbers of worlds — literally tens-to-hundreds of millions — that met those criteria in our galaxy alone.

And finally, we did come along relatively early, but the ingredients for stars and solar systems like our own were present in large abundances in galaxies many billions of years before our own star system formed. We’re even finding potentially habitable worlds where life may be seven-to-nine billion years old! So no, we’re probably not first. The conditions that we need for life to arise, to the best we can measure, seem to exist all over the galaxy, and hence probably all over the Universe as well.

Image credit: © Lisa Kaltenegger (MPIA).

2.) How rare or common are these conditions elsewhere in the Universe?

Scientists didn’t help themselves with overly optimistic estimates of the Drake equation: the equation that is most commonly used to estimate the number of intelligent civilizations in our galaxy. Of all the science presented in Carl Sagan’s original Cosmos series, his estimates of the Drake equation represented possibly the worst science in the series.

So let’s run through the actual numbers to the best that science knows — complete with realistic uncertainties — and see what we come up with.

Image credit: Christian Joore of http://kindaoomy.com/ (L), NASA (R).

As best as we can tell — extrapolating what we’ve discovered to what we haven’t yet looked at or been able to see — there ought to be around one-to-ten trillion planets in our galaxy that orbit stars, and somewhere around forty to eighty billion of them are candidates for having all three of the following properties:

  • being rocky planets,
  • located where they’ll consistently have Earth-like temperatures,
  • and that ought to support and sustain liquid water on their surfaces!

So the worlds are there, around stars, in the right places! In addition to that, we need them to have the right ingredients to bring about complex life. What about those building blocks; how likely are they to be there?

Image credit: NASA / ESA and R. Humphreys (University of Minnesota).

Believe it or not, these heavy elements — assembled into complex molecules — are unavoidable by this point in the Universe. Enough stars have lived and died that all the elements of the periodic table exist in fairly high abundances all throughout the galaxy.

But are they assembled correctly? Taking a look towards the heart of our own galaxy is molecular cloud Sagittarius B, shown at the top of this page. In addition to water, sugars, benzene rings and other organic molecules that just “exist” in interstellar space, we find surprisingly complex ones.

Image credit: Oliver Baum, University of Cologne.

Like ethyl formate (left) and n-propyl cyanide (right), the former of which is responsible for the smell of raspberries! Molecules just as complex as these are literally in every molecular cloud, protoplanetary disk and stellar outflow that we’ve measured. So with tens of billions of chances in our galaxy alone, and the building blocks already in place, you might think — as Fermi did — that the odds of intelligent life arising many times in our own galaxy is inevitable.

Image credit: NASA / JPL-Caltech.

But first, we need to make life from non-lifeThis is no small feat, and is one of the greatest puzzles around for natural scientists in all disciplines: the problem of abiogenesis. At some point, this happened for us, whether it happened in space, in the oceans, or in the atmosphere, it happened, as evidenced by our very planet, and its distinctive diversity of life.

But thus far, we’ve been unable to create life from non-life in the lab. So it’s not yet possible to say how likely it is, although we’ve taken some amazing steps in recent decades. It could be something that happens on as many as 10–25% of the possible worlds, which means up to 20 billion planets in our galaxy could have life on them. (Including — past or present — others in our own Solar System, like Mars, Europa, Titan or Enceladus.) That’s our optimistic estimate.

But it could be far fewer than that as well. Was life on Earth likely? In other words, if we performed the chemistry experiment of forming our Solar System over and over again, would it take hundreds, thousands, or even millions of chances to get life out once? Conservatively, let’s say it’s only one-in-a-million, which still means, given the pessimistic end of 40 billion planets with the right temperature, there are still at least 40,000 planets out there in our galaxy alone with life on them.

Image credit: © 2002, ReefNews, Inc.

But we want something even more than that; we’re looking for large, specialized, multicellular, tool-using creatures. So while, by many measures, there are plenty of intelligent animals, we are interested in a very particular type of intelligence. Specifically, a type of intelligence that can communicate with us, despite the vast distances between the stars!

So how common is that? From the first, self-replicating organic molecule to something as specialized and differentiated as a human being, we know we need billions of years of (roughly) constant temperatures, the right evolutionary steps, and a whole lot of luck. What are the odds that such a thing would have happened? One-in-a-hundred? Well, optimistically, maybe. That might be how many of these planets stay at constant temperatures, avoid 100% extinction catastrophes, evolve multicellularity, gender, become differentiated and encephalized enough to eventually learn to use tools.

Or, there could be plentyof life out there, but it could all look like this. Image credit: BURGESS SHALE FAUNA (1989) Carel Brest van Kempen.

But it could be far fewer; we are not an inevitable consequence of evolution so much as a happy accident of it. Even one-in-a-million seems like it might be too optimistic for the odds of human-like animals evolving on an Earth-like world with the right ingredients for life; I could easily imagine that it would take a billion Earths (or more) to get something like human beings out just once.

Image credit: Original source Dennis Davidson for http://www.nss.org/, retrieved from Brian Shiro at Astronaut For Hire.

If we take the optimistic estimate of the optimistic estimate above, perhaps 200 million worlds are out there capable of communicating with us, in our galaxy alone. But if we take the pessimistic estimate about both life arising and the odds of it achieving intelligence, there’s only a one-in-25,000 chance that our galaxy would have even one such civilization.

In other words, life is a fantastic bet, but intelligent life may not be. And that’s according to reasonable scientific estimates, but it assumes we’re being honest about our uncertainties here, too. So the conditions for life are definitely everywhere, but life itself could be common or rare, and what we consider intelligent life could be common, rare or practically non-existent in our galaxy. As science finds out more, we’ll learn more about that.

And finally…

Image credit: Victor Bobbett.

3.) If we don’t find life in the places and under the conditions where we expect it, can that prove the existence of God?

Certainly, there are people that will argue that it does. But to me, that’s a terrible way to place your faith. Consider this:

Do you want or need your belief in a divine or supernatural origin to the Universe to be based in something that could be scientifically disproven?

I am very open about not being a man of faith myself, but of having tremendous respect for those who are believers. The wonderful thing about science is that it is for everybody who’s willing to look to the Universe itself to find out more information about it.

Why would your belief in God require that science give a specific answer to this question that we don’t yet know the answer to? Will your faith be shaken if we find that, hey, guess what, chemistry works to form life on other worlds the same way it worked in the past on this one? Will you feel like you’ve achieved some sort of spiritual victory if we scour the galaxy and find that human beings are the most intelligent species on all the worlds of the Milky Way?

Image credit: Serge Brunier of The World At Night, viahttp://twanight.org/newTWAN/photos.asp?ID=3001467.

Or, can your beliefs — whatever they are — stand up to whatever scientific truths the Universe reveals about itself, regardless of what they are?

In the professional opinion of practically all scientists who study the Universe, it is very likely that there is life on other worlds, and that there’s a very good chance — if we invest in looking for it — that we’ll be able to find the first biological signatures on other worlds within a single generation. Whether there’s intelligent life beyond Earth, or more specifically, intelligent life beyond Earth in our galaxy that’s still alive right now, is a more dubious proposition, but the outcome of this scientific question in no way favors or disfavors the existence of God, any more than the order of whether fish or birds evolved first on Earth favors or disfavors a deity’s existence.

Image credit: Wikimedia Commons / Lucianomendez.

The truths of the Universe are written out there, on the Universe itself, and are accessible to us all through the process of inquiry. To allow an uncertain faith to stand in as an answer where scientific knowledge is required does us all a disservice; the illusion of knowledge — or reaching a conclusion before obtaining the evidence — is a poor substitute for what we might actually come to learn, if only we ask the right questions. Science can never prove or disprove the existence of God, but if we use our beliefs as an excuse to draw conclusions that scientifically, we’re not ready for, we run the grave risk of depriving ourselves of what we might have come to truly learn.

So as this year draws to a close and a new one begins, I implore you: don’t let your faith close you off to the joys and wonders of the natural world. The joys of knowing — of figuring out the answers to questions for ourselves — is one that none of us should be cheated out of. May your faith, if you have one, only serve to enhance and enrich you, not take the wonder of science away!

Do we need “the Anthropocene?” (Inhabiting the Anthropocene)

Zev Trachtenberg | January 5, 2015 at 7:00 am

As 2014 came to a close I received a wonderfully provocative e-mail from my friend and colleague in the Environmental Political Theory community John Meyer. He wrote that he has been led to

ask — out loud — a question that may seem either naive or cynical, but is not meant as either: so what’s the big deal about the Anthropocene? . . . To be clear, I get why it’s a big deal in geological terms. But what I’m wondering is: in what ways does it alter our understanding/approach/argument as philosophers, political theorists, political ecologists, environmental humanists, etc., that have already been working on environmental/sustainability concerns?

Does it add to or modify established critiques of “nature”? Does it convey an urgency that might otherwise be lacking? Does it alter our sense of human/more-than-human relations? Is it primarily a vehicle that might convey a set of concerns to a broader public? I know that none of these questions are original, but I pose them b/c I’m fascinated with the explosion of attention to the concept over the past couple years and yet genuinely struggling to make sense of the impetus/es for it.

This strikes me as a really good question. So as 2015 begins, here are some (I hope) seasonally appropriate reflections–not direct answers to John–on whether speaking about the Anthropocene adds some distinctive value to preexisting conversations about anthropogenic environmental change.

An immediate issue has to do with the status of the word as a term in Geology; in that context of course the Anthropocene is a proposed period in the geological time-scale, and it is an open question as to whether or not it will be formally adopted by the International Commission on Stratigraphy (the “ICS”—the decision is anticipated in 2016; here is the website for the working group handling the proposal). But the “explosion of attention” John mentions is due to the usage of the term in an informal way to refer to the massive transformation of Earth systems by human beings. Reference to the Anthropocene lends a kind of scientific prestige; it may be that work in the Humanities (my own area) is particularly prone to the urge to bolster its relevance and credibility by affiliating itself with a scientific endorsement of the project of discussing human-induced environmental change. And that appeal (made explicitly or implicitly) to Geology seems to vindicate the sense that anthropogenic change is really happening.

There is, no doubt, a degree of “wow factor” to the idea that humanity has become a force of nature, akin to geological phenomena like volcanoes and earthquakes, and potentially just as cataclysmic. Reference to the Anthropocene seems to ground this amazing thought in the sober authority of dispassionate geologists attuned to processes that shape the Earth itself. To speak of the Anthropocene is thus to hitch one’s claims to a fundamental understanding of nature, which can help justify one’s own demands on one’s audience for belief, and for action. It is not impossible, therefore, that we are experiencing a bandwagon effect–that the term “Anthropocene” is functioning as a buzzword in what will turn out to be a passing wave of academic fashion. Its passage might be accelerated if people find that, after all, adding the term to studies of particular examples of anthropogenic environmental change does not in fact add any value. And I can’t help but wonder what would happen if the ICS ends up rejecting the term next year. Will that deflate an academic bubble? Or will there be an intensification of C.P. Snow’s split between two cultures?

My own sense is that the “buzzier” sense of “Anthropocene” in fact does have some value—though I want to acknowledge that it is probably not be the best word for the job I want to approve. As a geological term “Anthropocene” refers to a hypothesized condition or set of facts about the Earth; it is the task of the ICS to decide whether that hypothesis is, in it sbest scientific judgment, true. But the informal usage of the word seems to connote a meaning over and above the idea that the present condition of the Earth has been profoundly shaped by human activity. On this additional meaning the word refers not to a condition, but to a broad intellectual approach. In this sense “Anthropocene” can be taken to name something like a paradigm: an intellectual framework which provides a consistent way for understanding diverse phenomena. The framework brings together a range of ideas and outlooks which harmonize around the theme that human activity has led to a distinctive condition of the Earth; it might therefore be called “Anthropocenism.” Thankfully I’ve not see that word before—and hope never to again. But the absence of a viable name leaves the imprecise usage—of the name for the condition—in place as the label for the approach, i.e. for the cluster of views that overlap by attending to anthropogenic environmental change.

In other words, the recent “explosion of attention” to the Anthropocene John notices might reflect the emergence of a consensus across a fairly wide range of disciplines on how to think about the relationship between human beings and the physical environment. The concept may not add any new information to any given field—many of which have well established traditions of examining that relationship. But, by redescribing ideas that are already available it facilitates the recognition that disparate fields indeed address a common theme. The shared term holds out at least the potential that researchers with profoundly different interests can see in each other’s work ideas that can advance their own. At the risk of sounding Pollyannaish, I believe that the possibility that the Anthropocene proposal might facilitate disciplinary cross-fertilization means that the value it adds to existing work is not negligible.

What I’ve said so far is pretty general; I have not given much detail about the content of the “paradigm” I’ve suggested the term the Anthropocene should be taken to name. One hope for this blog is that that content might emerge out the readings we are presenting in our reading posts. But I will conclude with a highly compressed (and too general) statement of what I take to be the core notions.

As the name of an outlook, the Anthropocene articulates the idea that human beings are natural: human life is embedded in the natural world. I draw two key implications from this starting point. First, while it is a commonplace of environmental thinking that our embeddedness means that human beings are essentially dependent on the causal processes at work in natural world, embeddedness equally means that human actions have effects in the natural world; this fact is also essential to our status as natural beings. The causal continuity here points to a systemic understanding, whereby there is no clear conceptual distinction between human and natural domains. Second, the humancharacter of the causal processes by which human beings affect the world is associated with technology. An image from the beginning of Stanley Kubrick’s 2001 conveys my point here. The proto-human creature becomes human by using a tool—the bone it uses as a weapon. It then tosses the bone in the air, and we next see a space craft. But the human character of human causality is at the same time social—and technology can only be understood in terms of the social and economic structures and processes through which it is developed and deployed.

As a matter of shorthand I interpret the Anthropocene (in the precise sense of a condition of the Earth) as the consequence of these two implications of naturalism: the socially organized deployment of technology so amplifies and concentrates human causal power that human activity can redirect or disrupt planetary-scale Earth system processes, yielding a state of the system best characterized by reference to human influence. But I am suggesting that we also use the term Anthropocene in a less precise way, to point to something like a paradigm. In that sense it gathers together empirical research that describes and explains the socially and technologically mediated effects human beings have on the world. Within this paradigm the project of understanding observations involves interpreting them in terms of the traces of human causal influence they might reveal. And that is why, I believe, this paradigm can successfully link normative inquiries to descriptive ones. For, by attending centrally to the structure and dynamics of human causal power within the natural world, it keeps in clear focus the issue of moral responsibility.

The Surprising Link Between Gut Bacteria And Anxiety (Huff Post)

 |  By

Posted: 01/04/2015 10:05 am EST 

GUT BACTERIA

In recent years, neuroscientists have become increasingly interested in the idea that there may be a powerful link between the human brain and gut bacteria. And while a growing body of research has provided evidence of the brain-gut connection, most of these studies so far have been conducted on animals.

Now, promising new research from neurobiologists at Oxford University offers some preliminary evidence of a connection between gut bacteria and mental health in humans. The researchers found that supplements designed to boost healthy bacteria in the gastrointestinal tract (“prebiotics”) may have an anti-anxiety effect insofar as they alter the way that people process emotional information.

While probiotics consist of strains of good bacteria, prebiotics are carbohydrates that act as nourishment for those bacteria. With increasing evidence that gut bacteria may exert some influence on brain function and mental health, probiotics and prebiotics are being increasingly studied for the potential alleviation of anxiety and depression symptoms.

“Prebiotics are dietary fibers (short chains of sugar molecules) that good bacteria break down, and use to multiply,” the study’s lead author, Oxford psychiatrist and neurobiologist Dr. Philip Burnet, told The Huffington Post. “Prebiotics are ‘food’ for good bacteria already present in the gut. Taking prebiotics therefore increases the numbers of all species of good bacteria in the gut, which will theoretically have greater beneficial effects than [introducing] a single species.”

To test the efficacy of prebiotics in reducing anxiety, the researchers asked 45 healthy adults between the ages of 18 and 45 to take either a prebiotic or a placebo every day for three weeks. After the three weeks had passed, the researchers completed several computer tests assessing how they processed emotional information, such as positive and negatively-charged words.

The results of one of the tests revealed that subjects who had taken the prebiotic paid less attention to negative information and more attention to positive information, compared to the placebo group, suggesting that the prebiotic group had less anxiety when confronted with negative stimuli. This effect is similar to that which has been observed among individuals who have taken antidepressants or anti-anxiety medication.

The researchers also found that the subjects who took the prebiotics had lower levels of cortisol — a stress hormone which has been linked with anxiety and depression — in their saliva when they woke up in the morning.

While previous research has documented that altering gut bacteria has a similarly anxiety-reducing effect in mice, the new study is one of the first to examine this phenomenon in humans. As of now, research on humans is in its early stages. A study conducted last year at UCLA found that women who consumed probiotics through regularly eating yogurt exhibited altered brain function in both a resting state and when performing an emotion-recognition task.

“Time and time again, we hear from patients that they never felt depressed or anxious until they started experiencing problems with their gut,” Dr. Kirsten Tillisch, the study’s lead author, said in a statement. “Our study shows that the gut–brain connection is a two-way street.”

So are we moving towards a future in which mental illness may be able to be treated (or at least managed) using targeted probiotic cocktails? Burnet says it’s possible, although they’re unlikely to replace conventional treatment.

“I think pre/probiotics will only be used as ‘adjuncts’ to conventional treatments, and never as mono-therapies,” Burnet tells HuffPost. “It is likely that these compounds will help to manage mental illness… they may also be used when there are metabolic and/or nutritional complications in mental illness, which may be caused by long-term use of current drugs.”

The findings were published in the journal Psychopharmacology.

How Mathematicians Used A Pump-Action Shotgun to Estimate Pi (The Physics arXiv Blog)

The Physics arXiv Blog

If you’ve ever wondered how to estimate pi using a Mossberg 500 pump-action shotgun, a sheet of aluminium foil and some clever mathematics, look no further

Imagine the following scenario. The end of civilisation has occurred, zombies have taken over the Earth and all access to modern technology has ended. The few survivors suddenly need to know the value of π and, being a mathematician, they turn to you. What do you do?

If ever you find yourself in this situation, you’ll be glad of the work of Vincent Dumoulin and Félix Thouin at the Université de Montréal in Canada. These guys have worked out how to calculate an approximate value of π using the distribution of pellets from a Mossberg 500 pump-action shotgun, which they assume would be widely available in the event of a zombie apocalypse.

The principle is straightforward. Imagine a square with sides of length 1 and which contains an arc drawn between two opposite corners to form a quarter circle. The area of the square is 1 while the area of the quarter circle is π/4.

Next, sprinkle sand or rice over the square so that it is covered with a random distribution of grains. Then count the number of grains inside the quarter circle and the total number that cover the entire square.

The ratio of these two numbers is an estimate of the ratio between the area of the quarter circle and the square, in other words π/4.

So multiplying this ratio by 4 gives you π, or at least an estimate of it. And that’s it.

This technique is known as a Monte Carlo approximation (after the casino where the uncle of the physicist who developed it used to gamble). And it is hugely useful in all kinds of simulations.

Of course, the accuracy of the technique depends on the distribution of the grains on the square. If they are truly random, then a mere 30,000 grains can give you an estimate of π which is within 0.07 per cent of the actual value.

Dumoulin and Thouin’s idea is to use the distribution of shotgun pellets rather than sand or rice (which would presumably be in short supply in the post-apocalyptic world). So these guys set up an experiment consisting of a 28-inch barrel Mossberg 500 pump-action shotgun aimed at a sheet of aluminium foil some 20 metres away.

They loaded the gun with cartridges composed of 3 dram equivalent of powder and 32 grams of #8 lead pellets. When fired from the gun, these pellets have an average muzzle velocity of around 366 metres per second.

Dumoulin and Thouin then fired 200 shots at the aluminium foil, peppering it with 30,857 holes. Finally, they used the position of these holes in the same way as the grains of sand or rice in the earlier example, to calculate the value of π.

They immediately have a problem, however. The distribution of pellets is influenced by all kinds of factors, such as the height of the gun, the distance to the target, wind direction and so on. So this distribution is not random.

To get around this, they are able to fall back on a technique known as importance sampling. This is a trick that allows mathematicians to estimate the properties of one type of distribution while using samples generated by a different distribution.

Of their 30,000 pellet holes, they chose 10,000 at random to perform this estimation trick. They then use the remaining 20,000 pellet holes to get an estimate of π, safe in the knowledge that importance sampling allows the calculation to proceed as if the distribution of pellets had been random.

The result? Their value of π is 3.131, which is just 0.33 per cent off the true value. “We feel confident that ballistic Monte Carlo methods constitute reliable ways of computing mathematical constants should a tremendous civilization collapse occur,” they conclude.

Quite! Other methods are also available.

Ref: arxiv.org/abs/1404.1499 : A Ballistic Monte Carlo Approximation of π

Quantum Experiment Shows How Time ‘Emerges’ from Entanglement (The Physics arXiv Blog)

Time is an emergent phenomenon that is a side effect of quantum entanglement, say physicists. And they have the first experimental results to prove it

The Physics arXiv Blog

When the new ideas of quantum mechanics spread through science like wildfire in the first half of the 20th century, one of the first things physicists did was to apply them to gravity and general relativity. The results were not pretty.

It immediately became clear that these two foundations of modern physics were entirely incompatible. When physicists attempted to meld the approaches, the resulting equations were bedeviled with infinities making it impossible to make sense of the results.

Then in the mid-1960s, there was a breakthrough. The physicists John Wheeler and Bryce DeWitt successfully combined the previously incompatible ideas in a key result that has since become known as the Wheeler-DeWitt equation. This is important because it avoids the troublesome infinites—a huge advance.

But it didn’t take physicists long to realise that while the Wheeler-DeWitt equation solved one significant problem, it introduced another. The new problem was that time played no role in this equation. In effect, it says that nothing ever happens in the universe, a prediction that is clearly at odds with the observational evidence.

This conundrum, which physicists call ‘the problem of time’, has proved to be a thorn in flesh of modern physicists, who have tried to ignore it but with little success.

Then in 1983, the theorists Don Page and William Wootters came up with a novel solution based on the quantum phenomenon of entanglement. This is the exotic property in which two quantum particles share the same existence, even though they are physically separated.

Entanglement is a deep and powerful link and Page and Wootters showed how it can be used to measure time. Their idea was that the way a pair of entangled particles evolve is a kind of clock that can be used to measure change.

But the results depend on how the observation is made. One way to do this is to compare the change in the entangled particles with an external clock that is entirely independent of the universe. This is equivalent to god-like observer outside the universe measuring the evolution of the particles using an external clock.

In this case, Page and Wootters showed that the particles would appear entirely unchanging—that time would not exist in this scenario.

But there is another way to do it that gives a different result. This is for an observer inside the universe to compare the evolution of the particles with the rest of the universe. In this case, the internal observer would see a change and this difference in the evolution of entangled particles compared with everything else is an important a measure of time.

This is an elegant and powerful idea. It suggests that time is an emergent phenomenon that comes about because of the nature of entanglement. And it exists only for observers inside the universe. Any god-like observer outside sees a static, unchanging universe, just as the Wheeler-DeWitt equations predict.

Of course, without experimental verification, Page and Wootter’s ideas are little more than a philosophical curiosity. And since it is never possible to have an observer outside the universe, there seemed little chance of ever testing the idea.

Until now. Today, Ekaterina Moreva at the Istituto Nazionale di Ricerca Metrologica (INRIM) in Turin, Italy, and a few pals have performed the first experimental test of Page and Wootters’ ideas. And they confirm that time is indeed an emergent phenomenon for ‘internal’ observers but absent for external ones.

The experiment involves the creation of a toy universe consisting of a pair of entangled photons and an observer that can measure their state in one of two ways. In the first, the observer measures the evolution of the system by becoming entangled with it. In the second, a god-like observer measures the evolution against an external clock which is entirely independent of the toy universe.

The experimental details are straightforward. The entangled photons each have a polarisation which can be changed by passing it through a birefringent plate. In the first set up, the observer measures the polarisation of one photon, thereby becoming entangled with it. He or she then compares this with the polarisation of the second photon. The difference is a measure of time.

In the second set up, the photons again both pass through the birefringent plates which change their polarisations. However, in this case, the observer only measures the global properties of both photons by comparing them against an independent clock.

In this case, the observer cannot detect any difference between the photons without becoming entangled with one or the other. And if there is no difference, the system appears static. In other words, time does not emerge.

“Although extremely simple, our model captures the two, seemingly contradictory, properties of the Page-Wootters mechanism,” say Moreva and co.

That’s an impressive experiment. Emergence is a popular idea in science. In particular, physicists have recently become excited about the idea that gravity is an emergent phenomenon. So it’s a relatively small step to think that time may emerge in a similar way.

What emergent gravity has lacked, of course, is an experimental demonstration that shows how it works in practice. That’s why Moreva and co’s work is significant. It places an abstract and exotic idea on firm experimental footing for the first time.

Perhaps most significant of all is the implication that quantum mechanics and general relativity are not so incompatible after all. When viewed through the lens of entanglement, the famous ‘problem of time’ just melts away.

The next step will be to extend the idea further, particularly to the macroscopic scale. It’s one thing to show how time emerges for photons, it’s quite another to show how it emerges for larger things such as humans and train timetables.

And therein lies another challenge.

Ref: arxiv.org/abs/1310.4691 :Time From Quantum Entanglement: An Experimental Illustration

Why Physicists Are Saying Consciousness Is A State Of Matter, Like a Solid, A Liquid Or A Gas (The Physics arXiv Blog)

Why Physicists Are Saying Consciousness Is A State Of Matter, Like a Solid, A Liquid Or A Gas

A new way of thinking about consciousness is sweeping through science like wildfire. Now physicists are using it to formulate the problem of consciousness in concrete mathematical terms for the first time

The Physics arXiv Blog

There’s a quiet revolution underway in theoretical physics. For as long as the discipline has existed, physicists have been reluctant to discuss consciousness, considering it a topic for quacks and charlatans. Indeed, the mere mention of the ‘c’ word could ruin careers.

That’s finally beginning to change thanks to a fundamentally new way of thinking about consciousness that is spreading like wildfire through the theoretical physics community. And while the problem of consciousness is far from being solved, it is finally being formulated mathematically as a set of problems that researchers can understand, explore and discuss.

Today, Max Tegmark, a theoretical physicist at the Massachusetts Institute of Technology in Cambridge, sets out the fundamental problems that this new way of thinking raises. He shows how these problems can be formulated in terms of quantum mechanics and information theory. And he explains how thinking about consciousness in this way leads to precise questions about the nature of reality that the scientific process of experiment might help to tease apart.

Tegmark’s approach is to think of consciousness as a state of matter, like a solid, a liquid or a gas. “I conjecture that consciousness can be understood as yet another state of matter. Just as there are many types of liquids, there are many types of consciousness,” he says.

He goes on to show how the particular properties of consciousness might arise from the physical laws that govern our universe. And he explains how these properties allow physicists to reason about the conditions under which consciousness arises and how we might exploit it to better understand why the world around us appears as it does.

Interestingly, the new approach to consciousness has come from outside the physics community, principally from neuroscientists such as Giulio Tononi at the University of Wisconsin in Madison.

In 2008, Tononi proposed that a system demonstrating consciousness must have two specific traits. First, the system must be able to store and process large amounts of information. In other words consciousness is essentially a phenomenon of information.

And second, this information must be integrated in a unified whole so that it is impossible to divide into independent parts. That reflects the experience that each instance of consciousness is a unified whole that cannot be decomposed into separate components.

Both of these traits can be specified mathematically allowing physicists like Tegmark to reason about them for the first time. He begins by outlining the basic properties that a conscious system must have.

Given that it is a phenomenon of information, a conscious system must be able to store in a memory and retrieve it efficiently.

It must also be able to to process this data, like a computer but one that is much more flexible and powerful than the silicon-based devices we are familiar with.

Tegmark borrows the term computronium to describe matter that can do this and cites other work showing that today’s computers underperform the theoretical limits of computing by some 38 orders of magnitude.

Clearly, there is so much room for improvement that allows for the performance of conscious systems.

Next, Tegmark discusses perceptronium, defined as the most general substance that feels subjectively self-aware. This substance should not only be able to store and process information but in a way that forms a unified, indivisible whole. That also requires a certain amount of independence in which the information dynamics is determined from within rather than externally.

Finally, Tegmark uses this new way of thinking about consciousness as a lens through which to study one of the fundamental problems of quantum mechanics known as the quantum factorisation problem.

This arises because quantum mechanics describes the entire universe using three mathematical entities: an object known as a Hamiltonian that describes the total energy of the system; a density matrix that describes the relationship between all the quantum states in the system; and Schrodinger’s equation which describes how these things change with time.

The problem is that when the entire universe is described in these terms, there are an infinite number of mathematical solutions that include all possible quantum mechanical outcomes and many other even more exotic possibilities.

So the problem is why we perceive the universe as the semi-classical, three dimensional world that is so familiar. When we look at a glass of iced water, we perceive the liquid and the solid ice cubes as independent things even though they are intimately linked as part of the same system. How does this happen? Out of all possible outcomes, why do we perceive this solution?

Tegmark does not have an answer. But what’s fascinating about his approach is that it is formulated using the language of quantum mechanics in a way that allows detailed scientific reasoning. And as a result it throws up all kinds of new problems that physicists will want to dissect in more detail.

Take for example, the idea that the information in a conscious system must be unified. That means the system must contain error-correcting codes that allow any subset of up to half the information to be reconstructed from the rest.

Tegmark points out that any information stored in a special network known as a Hopfield neural net automatically has this error-correcting facility. However, he calculates that a Hopfield net about the size of the human brain with 10^11 neurons, can only store 37 bits of integrated information.

“This leaves us with an integration paradox: why does the information content of our conscious experience appear to be vastly larger than 37 bits?” asks Tegmark.

That’s a question that many scientists might end up pondering in detail. For Tegmark, this paradox suggests that his mathematical formulation of consciousness is missing a vital ingredient. “This strongly implies that the integration principle must be supplemented by at least one additional principle,” he says. Suggestions please in the comments section!

And yet the power of this approach is in the assumption that consciousness does not lie beyond our ken; that there is no “secret sauce” without which it cannot be tamed.

At the beginning of the 20th century, a group of young physicists embarked on a quest to explain a few strange but seemingly small anomalies in our understanding of the universe. In deriving the new theories of relativity and quantum mechanics, they ended up changing the way we comprehend the cosmos. These physcists, at least some of them, are now household names.

Could it be that a similar revolution is currently underway at the beginning of the 21st century?

Ref:arxiv.org/abs/1401.1219: Consciousness as a State of Matter

Futuro gestor da Sabesp diz que Estado tem de estar ‘preparado para o pior’ (Folha de S.Paulo)

ARTUR RODRIGUES

DE SÃO PAULO

02/01/2015 02h00

Escolhido pela gestão de Geraldo Alckmin para dirigir a Sabesp, o ex-presidente da ANA (Agência Nacional de Águas) Jerson Kelman afirma que o Estado tem de estar “preparado para o pior”.

“A situação é preocupante, é grave, e nós temos que torcer pelo melhor, mas estar preparados para o pior”, disse à Folha.

Em novembro, em entrevista ao jornal “Brasil Econômico”, ele havia dito que o governo não atuou da melhor maneira possível e não foi transparente como a gestão Fernando Henrique Cardoso (PSDB) em 2001, época do racionamento de energia. Kelman foi presidente da ANA entre 2001 e 2004.

“O Alckmin deve ter tido suas razões, porque em 2002 quem ganhou as eleições foi o Lula, não o Serra. Esse deve ter sido o raciocínio dele. Mas do ponto de vista de governo, de interesse público, a atuação não foi a melhor, desperdiçou-se água e os reservatórios estão mais vazios que deveriam”, disse na entrevista.

Após ser reeleito, Alckmin passou a adotar medidas mais duras para diminuir o consumo, como a sobretaxa para quem aumentar o consumo.

O novo secretário de Saneamento e Recursos Hídricos, Benedito Braga, afirma que vai avaliar o resultado da taxa extra e cogita até adotar medidas adicionais.

Os nomes de Kelman e de Ricardo Borsari, como superintendente do Daee (Departamento de Águas e Energia Elétrica), foram anunciados nesta quinta (1º) por Braga.

A nova equipe vai enfrentar a maior crise hídrica da história do sistema Cantareira. Nesta quinta, o sistema permaneceu estável, com 7,2% de sua capacidade.

Oficiamente, o nome de Kelman ainda tem de passar por um conselho da Sabesp antes de ele assumir o cargo.

Ele deve ser o substituto de Dilma Pena, que se desgastou com a crise.

Kelman é professor de Recursos Hídricos da COPPE-UFRJ. Também foi presidente do grupo Light e diretor-geral da Aneel (Agência Nacional de Energia Elétrica).

A seguir, a conversa dele com a Folha.

Folha – Em uma entrevista anterior, o senhor falou da necessidade de se dar mais transparência à questão da crise hídrica.
Jorge Kelman – O conceito de transparência é um conceito universal, que eu sempre defendo, não vai aí nenhuma crítica. Eu penso que a população do Estado de São Paulo sabe compreender as condições hidrológicas do momento. A melhor política é de absoluta transparência, de compartilhar com a população da forma mais clara possível.

O senhor também disse que talvez pudesse ter sido melhor a condução da crise pelo governo, que a questão eleitoral atrapalhou.
Eu estou aceitando esse cargo olhando para a frente, não quero ficar aqui atirando pedras para o passado. Olhando para a frente, a situação de São Paulo é preocupante, é grave, e temos que torcer pelo melhor, mas estar preparados para o pior.

O senhor chega no período de chuva, mas se preparando para a estiagem. Como vamos chegar a esse período?
Nesse período de chuvas agora, que às vezes tem tempestades muito fortes, é preciso deixar claro para manter sempre esclarecida a população de que essas chuvas intensas e curtas não resolvem o problema.
O abastecimento depende do estoque de água do sistema Cantareira.
O que poderia acontecer de ruim é você ter uma enchente, carros boiarem, essas coisas que acontecem no verão, e ter um efeito colateral indesejável que seria a população imaginar que o problema está resolvido e relaxar na postura que está tendo de uso econômico da água.

Partículas telepáticas (Folha de S.Paulo)

CASSIO LEITE VIEIRA

ilustração JOSÉ PATRÍCIO

28/12/2014 03h08

RESUMO Há 50 anos, o físico norte-irlandês John Bell (1928-90) chegou a um resultado que demonstra a natureza “fantasmagórica” da realidade no mundo atômico e subatômico. Seu teorema é hoje visto como a arma mais eficaz contra a espionagem, algo que garantirá, num futuro talvez próximo, a privacidade absoluta das informações.

*

Um país da América do Sul quer manter a privacidade de suas informações estratégicas, mas se vê obrigado a comprar os equipamentos para essa tarefa de um país bem mais avançado tecnologicamente. Esses aparelhos, porém, podem estar “grampeados”.

Surge, então, a dúvida quase óbvia: haverá, no futuro, privacidade 100% garantida? Sim. E isso vale até mesmo para um país que compre a tecnologia antiespionagem do “inimigo”.
O que possibilita a resposta afirmativa acima é o resultado que já foi classificado como o mais profundo da ciência: o teorema de Bell, que trata de uma das perguntas filosóficas mais agudas e penetrantes feitas até hoje e que alicerça o próprio conhecimento: o que é a realidade? O teorema -que neste ano completou seu 50º aniversário- garante que a realidade, em sua dimensão mais íntima, é inimaginavelmente estranha.

José Patricio

A história do teorema, de sua comprovação experimental e de suas aplicações modernas tem vários começos. Talvez, aqui, o mais apropriado seja um artigo publicado em 1935 pelo físico de origem alemã Albert Einstein (1879-1955) e dois colaboradores, o russo Boris Podolsky (1896-1966) e o americano Nathan Rosen (1909-95).

Conhecido como paradoxo EPR (iniciais dos sobrenomes dos autores), o experimento teórico ali descrito resumia uma longa insatisfação de Einstein com os rumos que a mecânica quântica, a teoria dos fenômenos na escala atômica, havia tomado. Inicialmente, causou amargo no paladar do autor da relatividade o fato de essa teoria, desenvolvida na década de 1920, fornecer apenas a probabilidade de um fenômeno ocorrer. Isso contrastava com a “certeza” (determinismo) da física dita clássica, a que rege os fenômenos macroscópicos.

Einstein, na verdade, estranhava sua criatura, pois havia sido um dos pais da teoria quântica. Com alguma relutância inicial, o indeterminismo da mecânica quântica acabou digerido por ele. Algo, porém, nunca lhe passou pela garganta: a não localidade, ou seja, o estranhíssimo fato de algo aqui influenciar instantaneamente algo ali -mesmo que esse “ali” esteja muito distante. Einstein acreditava que coisas distantes tinham realidades independentes.

Einstein chegou a comparar -vale salientar que é só uma analogia- a não localidade a um tipo de telepatia. Mas a definição mais famosa dada por Einstein a essa estranheza foi “fantasmagórica ação a distância”.

EMARANHADO

A essência do argumento do paradoxo EPR é o seguinte: sob condições especiais, duas partículas que interagiram e se separaram acabam em um estado denominado emaranhado, como se fossem “gêmeas telepáticas”. De forma menos pictórica, diz-se que as partículas estão conectadas (ou correlacionadas, como preferem os físicos) e assim seguem, mesmo depois da interação.

A estranheza maior vem agora: se uma das partículas desse par for perturbada -ou seja, sofrer uma medida qualquer, como dizem os físicos-, a outra “sente” essa perturbação instantaneamente. E isso independe da distância entre as duas partículas. Podem estar separadas por anos-luz.

Os autores do paradoxo EPR diziam que era impossível imaginar que a natureza permitisse a conexão instantânea entre os dois objetos. E, por meio de argumentação lógica e complexa, Einstein, Podolsky e Rosen concluíam: a mecânica quântica tem que ser incompleta. Portanto, provisória.

SUPERIOR À LUZ?

Uma leitura apressada (porém, muito comum) do paradoxo EPR é dizer que uma ação instantânea (não local, no vocabulário da física) é impossível, porque violaria a relatividade de Einstein: nada pode viajar com velocidade superior à da luz no vácuo, 300 mil km/s.

No entanto, a não localidade atuaria apenas na dimensão microscópica -não pode ser usada, por exemplo, para mandar ou receber mensagens. No mundo macroscópico, se quisermos fazer isso, teremos que usar sinais que nunca viajam com velocidade maior que a da luz no vácuo. Ou seja, relatividade é preservada.

A não localidade tem a ver com conexões persistentes (e misteriosas) entre dois objetos: interferir com (alterar, mudar etc.) um deles interfere com (altera, muda etc.) o outro. Instantaneamente. O simples ato de observar um deles interfere no estado do outro.

Einstein não gostou da versão final do artigo de 1935, que só viu impressa -a redação ficou a cargo de Podolsky. Ele havia imaginado um texto menos filosófico. Pouco meses depois, viria a resposta do físico dinamarquês Niels Bohr (1885-1962) ao EPR -poucos anos antes, Einstein e Bohr haviam protagonizado o que para muitos é um dos debates filosóficos mais importantes da história: o tema era a “alma da natureza”, nas palavras de um filósofo da física.

Em sua resposta ao EPR, Bohr reafirmou tanto a completude da mecânica quântica quanto sua visão antirrealista do universo atômico: não é possível dizer que uma entidade quântica (elétron, próton, fóton etc.) tenha uma propriedade antes que esta seja medida. Ou seja, tal propriedade não seria real, não estaria oculta à espera de um aparelho de medida ou qualquer interferência (até mesmo o olhar) do observador. Quanto a isso, Einstein, mais tarde, ironizaria: “Será que a Lua só existe quando olhamos para ela?”.

AUTORIDADE

Um modo de entender o que seja uma teoria determinista é o seguinte: é aquela na qual se pressupõe que a propriedade a ser medida está presente (ou “escondida”) no objeto e pode ser determinada com certeza. Os físicos denominam esse tipo de teoria com um nome bem apropriado: teoria de variáveis ocultas.

Em uma teoria de variáveis ocultas, a tal propriedade (conhecida ou não) existe, é real. Daí, por vezes, os filósofos classificarem esse cenário como realismo -Einstein gostava do termo “realidade objetiva”: as coisas existem sem a necessidade de serem observadas.

Mas, na década de 1930, um teorema havia provado que seria impossível haver uma versão da mecânica quântica como uma teoria de variáveis ocultas. O feito era de um dos maiores matemáticos de todos os tempos, o húngaro John von Neumann (1903-57). E, fato não raro na história da ciência, valeu o argumento da autoridade em vez da autoridade do argumento.

O teorema de Von Neumann era perfeito do ponto de vista matemático, mas “errado, tolo” e “infantil” (como chegou a ser classificado) no âmbito da física, pois partia de uma premissa equivocada. Sabe-se hoje que Einstein desconfiou dessa premissa: “Temos que aceitar isso como verdade?”, perguntou a dois colegas. Mas não foi além.

O teorema de Von Neumann serviu, porém, para praticamente pisotear a versão determinista (portanto, de variáveis ocultas) da mecânica quântica feita em 1927 pelo nobre francês Louis de Broglie (1892-1987), Nobel de Física de 1929, que acabou desistindo dessa linha de pesquisa.

Por exatas duas décadas, o teorema de Von Neumann e as ideias de Bohr -que formou em torno dele uma influente escola de jovens notáveis- dissuadiram tentativas de buscar uma versão determinista da mecânica quântica.

Mas, em 1952, o físico norte-americano David Bohm (1917-92), inspirado pelas ideias de De Broglie, apresentou uma versão de variáveis ocultas da mecânica quântica -hoje, denominada mecânica quântica bohmiana, homenagem ao pesquisador que trabalhou na década de 1950 na Universidade de São Paulo (USP), quando perseguido nos EUA pelo macarthismo.

A mecânica quântica bohmiana tinha duas características em sua essência: 1) era determinista (ou seja, de variáveis ocultas); 2) era não local (isto é, admitia a ação a distância) -o que fez com que Einstein, localista convicto, perdesse o interesse inicial nela.

PROTAGONISTA

Eis que entra em cena a principal personagem desta história: o físico norte-irlandês John Stewart Bell, que, ao tomar conhecimento da mecânica bohmiana, teve uma certeza: o “impossível havia sido feito”. Mais: Von Neumann estava errado.

A mecânica quântica de Bohm -ignorada logo de início pela comunidade de físicos- acabava de cair em terreno fértil: Bell remoía, desde a universidade, como um “hobby”, os fundamentos filosóficos da mecânica quântica (EPR, Von Neumann, De Broglie etc.). E tinha tomado partido nesses debates: era um einsteiniano assumido e achava Bohr obscuro.

Bell nasceu em 28 de junho de 1928, em Belfast, em uma família anglicana sem posses. Deveria ter parado de estudar aos 14 anos, mas, por insistência da mãe, que percebeu os dotes intelectuais do segundo de quatro filhos, foi enviado a uma escola técnica de ensino médio, onde ele aprendeu coisas práticas (carpintaria, construção civil, biblioteconomia etc.).

Formado, aos 16, tentou empregos em escritórios, mas o destino quis que terminasse como técnico preparador de experimentos no departamento de física da Queen’s University, também em Belfast.

Os professores do curso logo perceberam o interesse do técnico pela física e passaram a incentivá-lo, com indicações de leituras e aulas. Com uma bolsa de estudos, Bell se formou em 1948 em física experimental e, no ano seguinte, em física matemática. Em ambos os casos, com louvor.

De 1949 a 1960, Bell trabalhou no Aere (Estabelecimento para a Pesquisa em Energia Atômica), em Harwell, no Reino Unido. Lá conheceria sua futura mulher, a física Mary Ross, sua interlocutora em vários trabalhos sobre física. “Ao olhar novamente esses artigos, vejo-a em todo lugar”, disse Bell, em homenagem recebida em 1987, três anos antes de morrer, de hemorragia cerebral.

Defendeu doutorado em 1956, após um período na Universidade de Birmingham, sob orientação do físico teuto-britânico Rudolf Peierls (1907-95). A tese inclui uma prova de um teorema muito importante da física (teorema CPT), que havia sido descoberto pouco antes por um contemporâneo seu.

O TEOREMA

Por discordar dos rumos das pesquisas no Aere, o casal decidiu trocar empregos estáveis por posições temporárias no Centro Europeu de Pesquisas Nucleares (Cern), em Genebra (Suíça). Ele na divisão de física teórica; ela, na de aceleradores.

Bell passou 1963 e 1964 trabalhando nos EUA. Lá, encontrou tempo para se dedicar a seu “hobby” intelectual e gestar o resultado que marcaria sua carreira e lhe daria, décadas mais tarde, fama.

Ele se fez a seguinte pergunta: será que a não localidade da teoria de variáveis ocultas de Bohm seria uma característica de qualquer teoria realista da mecânica quântica? Em outras palavras, se as coisas existirem sem serem observadas, elas terão que necessariamente estabelecer entre si aquela fantasmagórica ação a distância?

O teorema de Bell, publicado em 1964, é também conhecido como desigualdade de Bell. Sua matemática não é complexa. De forma muito simplificada, podemos pensar nesse teorema como uma inequação: x ≤ 2 (x menor ou igual a dois), sendo que “x” representa, para nossos propósitos aqui, os resultados de um experimento.

As consequências mais interessantes do teorema de Bell ocorreriam se tal experimento violasse a desigualdade, ou seja, mostrasse que x > 2 (x maior que dois). Nesse caso, teríamos de abrir mão de uma das duas suposições: 1) realismo (as coisas existem sem serem observadas); 2) da localidade (o mundo quântico não permite conexões mais velozes que a luz).

O artigo do teorema não teve grande repercussão -Bell havia feito outro antes, fundamental para ele chegar ao resultado, mas, por erro do editor do periódico, acabou publicado só em 1966.

REBELDIA A retomada das ideias de Bell -e, por conseguinte, do EPR e de Bohm- ganhou momento com fatores externos à física. Muitos anos depois do agitado final dos anos 1960, o físico americano John Clauser recordaria o período: ”A Guerra do Vietnã dominava os pensamentos políticos da minha geração. Sendo um jovem físico naquele período revolucionário, eu naturalmente queria chacoalhar o mundo”.

A ciência, como o resto do mundo, acabou marcada pelo espírito da geração paz e amor; pela luta pelos direitos civis; por maio de 1968; pelas filosofias orientais; pelas drogas psicodélicas; pela telepatia -em uma palavra: pela rebeldia. Que, traduzida para a física, significava se dedicar a uma área herética na academia: interpretações (ou fundamentos) da mecânica quântica. Mas fazer isso aumentava consideravelmente as chances de um jovem físico arruinar sua carreira: EPR, Bohm e Bell eram considerados temas filosóficos, e não físicos.

O elemento final para que o campo tabu de estudos ganhasse fôlego foi a crise do petróleo de 1973, que diminuiu a oferta de postos para jovens pesquisadores -incluindo físicos. À rebeldia somou-se a recessão.
Clauser, com mais três colegas, Abner Shimony, Richard Holt e Michael Horne, publicou suas primeiras ideias sobre o assunto em 1969, com o título “Proposta de Experimento para Testar Teorias de Variáveis Ocultas”. O quarteto fez isso em parte por ter notado que a desigualdade de Bell poderia ser testada com fótons, que são mais fáceis de serem gerados. Até então se pensava em arranjos experimentais mais complicados.

Em 1972, a tal proposta virou experimento -feito por Clauser e Stuart Freedman (1944-2012)-, e a desigualdade de Bell foi violada.

O mundo parecia ser não local -ironicamente, Clauser era localista! Mas só parecia: o experimento seguiu, por cerca de uma década, incompreendido e, portanto, desconsiderado pela comunidade de físicos. Mas aqueles resultados serviram a reforçar algo importante: fundamentos da mecânica quântica não eram só filosofia. Eram também física experimental.

MUDANÇA DE CENÁRIO

O aperfeiçoamento de equipamentos de óptica (incluindo lasers) permitiu que, em 1982, um experimento se tornasse um clássico da área.

Pouco antes, o físico francês Alain Aspect havia decidido iniciar um doutorado tardio, mesmo sendo um físico experimental experiente. Escolheu como tema o teorema de Bell. Foi ao encontro do colega norte-irlandês no Cern. Em entrevista ao físico Ivan dos Santos Oliveira, do Centro Brasileiro de Pesquisas Físicas, no Rio de Janeiro, e ao autor deste texto, Aspect contou o seguinte diálogo entre ele e Bell. “Você tem um cargo estável?”, perguntou Bell. “Sim”, disse Aspect. Caso contrário, “você seria muito pressionado a não fazer o experimento”, disse Bell.

O diálogo relatado por Aspect nos permite afirmar que, quase duas décadas depois do artigo seminal de 1964, o tema continuava revestido de preconceito.

Em um experimento feito com pares de fótons emaranhados, a natureza, mais uma vez, mostrou seu caráter não local: a desigualdade de Bell foi violada. Os dados mostraram x > 2. Em 2007, por exemplo, o grupo do físico austríaco Anton Zeilinger verificou a violação da desigualdade usando fótons separados por… 144 km.

Na entrevista no Brasil, Aspect disse que, até então, o teorema era pouquíssimo conhecido pelos físicos, mas ganharia fama depois de sua tese de doutorado, de cuja banca, aliás, Bell participou.

ESTRANHO

Afinal, por que a natureza permite que haja a “telepatia” einsteiniana? É no mínimo estranho pensar que uma partícula perturbada aqui possa, de algum modo, alterar o estado de sua companheira nos confins do universo.

Há várias maneiras de interpretar as consequências do que Bell fez. De partida, algumas (bem) equivocadas: 1) a não localidade não pode existir, porque viola a relatividade; 2) teorias de variáveis ocultas (Bohm, De Broglie etc.) da mecânica quântica estão totalmente descartadas; 3) a mecânica quântica é realmente indeterminista; 4) o irrealismo -ou seja, coisas só existem quando observadas- é a palavra final. A lista é longa.

Quando o teorema foi publicado, uma leitura rasa (e errônea) dizia que ele não tinha importância, pois o teorema de Von Neumann já havia descartado as variáveis ocultas, e a mecânica quântica seria, portanto, de fato indeterminista. Entre os que não aceitam a não localidade, há ainda aqueles que chegam ao ponto de dizer que Einstein, Bohm e Bell não entenderam o que fizeram.

O filósofo da física norte-americano Tim Maudlin, da Universidade de Nova York, em dois excelentes artigos, “What Bell Did” (O que Bell fez, arxiv.org/abs/1408.1826) e “Reply to Werner” (em que responde a comentários sobre o texto anterior, arxiv.org/abs/1408.1828), oferece uma longa lista de equívocos.

Para Maudlin, renomado em sua área, o teorema de Bell e sua violação significam uma só coisa: a natureza é não local (“fantasmagórica”) e, portanto, não há esperança para a localidade, como Einstein gostaria -nesse sentido, pode-se dizer que Bell mostrou que Einstein estava errado. Assim, qualquer teoria determinista (realista) que reproduza os resultados experimentais obtidos até hoje pela mecânica quântica -por sinal, a teoria mais precisa da história da ciência- terá que necessariamente ser não local.

De Aspect até hoje, desenvolvimentos tecnológicos importantes possibilitaram algo impensável há poucas décadas: estudar isoladamente uma entidade quântica (átomo, elétron, fóton etc.). E isso deu início à área de informação quântica, que abrange o estudo da criptografia quântica -aquela que permitirá a segurança absoluta dos dados- e o dos computadores quânticos, máquinas extremamente velozes. De certo modo, trata-se de filosofia transformada em física experimental.

Muitos desses avanços se devem basicamente à rebeldia de uma geração de físicos jovens que queriam contrariar o “sistema”.

Uma história saborosa desse período está em “How the Hippies Saved Physics” (Como os hippies salvaram a física, publicado pela W. W. Norton & Company em 2011), do historiador da física norte-americano David Kaiser. E uma análise histórica detalhada em “Quantum Dissidents: Research on the Foundations of Quantum Theory circa 1970” (Dissidentes do quantum: pesquisa sobre os fundamentos da teoria quântica por volta de 1970, bit.ly/1xyipTJ, só para assinantes), do historiador da física Olival Freire Jr., da Universidade Federal da Bahia.

Para os mais interessados no viés filosófico, há os dois volumes premiados de “Conceitos de Física Quântica” (Editora Livraria da Física, 2003), do físico e filósofo Osvaldo Pessoa Jr., da USP.

PRIVACIDADE

A esta altura, o(a) leitor(a) talvez esteja se perguntando sobre o que o teorema de Bell tem a ver com uma privacidade 100% garantida.

No futuro, é (bem) provável que a informação seja enviada e recebida na forma de fótons emaranhados. Pesquisas recentes em criptografia quântica garantem que bastaria submeter essas partículas de luz ao teste da desigualdade de Bell. Se ela for violada, então não há nenhuma possibilidade de a mensagem ter sido bisbilhotada indevidamente. E o teste independe do equipamento usado para enviar ou receber os fótons. A base teórica para isso está, por exemplo, em “The Ultimate Physical Limits of Privacy” (Limites físicos extremos da privacidade), de Artur Ekert e Renato Renner (bit.ly/1gFjynG, só para assinantes).

Em um futuro não muito distante, talvez, o teorema de Bell se transforme na arma mais poderosa contra a espionagem. Isso é um tremendo alento para um mundo que parece rumar à privacidade zero. É também um imenso desdobramento de uma pergunta filosófica que, segundo o físico norte-americano Henry Stapp, especialista em fundamentos da mecânica quântica, se tornou “o resultado mais profundo da ciência”. Merecidamente. Afinal, por que a natureza optou pela “ação fantasmagórica a distância”?

A resposta é um mistério. Pena que a pergunta não seja nem sequer mencionada nas graduações de física no Brasil.

CÁSSIO LEITE VIEIRA, 54, jornalista do Instituto Ciência Hoje (RJ), é autor de “Einstein – O Reformulador do Universo” (Odysseus).
JOSÉ PATRÍCIO, 54, artista plástico pernambucano, participa da mostra “Asas a Raízes” na Caixa Cultural do Rio, de 17/1 a 15/3.

How to get published in an academic journal: top tips from editors (The Guardian)

Journal editors share their advice on how to structure a paper, write a cover letter – and deal with awkward feedback from reviewer.

hurdles athletes

 How to negotiate the many hurdles that stand between a draft paper and publication. Photograph: Clint Hughes/PA

Writing for academic journals is highly competitive. Even if you overcome the first hurdle and generate a valuable idea or piece of research – how do you then sum it up in a way that will capture the interest of reviewers?

There’s no simple formula for getting published – editors’ expectations can vary both between and within subject areas. But there are some challenges that will confront all academic writers regardless of their discipline. How should you respond to reviewer feedback? Is there a correct way to structure a paper? And should you always bother revising and resubmitting? We asked journal editors from a range of backgrounds for their tips on getting published.

The writing stage

1) Focus on a story that progresses logically, rather than chronologically

Take some time before even writing your paper to think about the logic of the presentation. When writing, focus on a story that progresses logically, rather than the chronological order of the experiments that you did.
Deborah Sweet, editor of Cell Stem Cell and publishing director at Cell Press

2) Don’t try to write and edit at the same time

Open a file on the PC and put in all your headings and sub-headings and then fill in under any of the headings where you have the ideas to do so. If you reach your daily target (mine is 500 words) put any other ideas down as bullet points and stop writing; then use those bullet points to make a start the next day.

If you are writing and can’t think of the right word (eg for elephant) don’t worry – write (big animal long nose) and move on – come back later and get the correct term. Write don’t edit; otherwise you lose flow.
Roger Watson, editor-in-chief, Journal of Advanced Nursing

3) Don’t bury your argument like a needle in a haystack

If someone asked you on the bus to quickly explain your paper, could you do so in clear, everyday language? This clear argument should appear in your abstract and in the very first paragraph (even the first line) of your paper. Don’t make us hunt for your argument as for a needle in a haystack. If it is hidden on page seven that will just make us annoyed. Oh, and make sure your argument runs all the way through the different sections of the paper and ties together the theory and empirical material.
Fiona Macaulay, editorial board, Journal of Latin American Studies

4) Ask a colleague to check your work

One of the problems that journal editors face is badly written papers. It might be that the writer’s first language isn’t English and they haven’t gone the extra mile to get it proofread. It can be very hard to work out what is going on in an article if the language and syntax are poor.
Brian Lucey, editor, International Review of Financial Analysis

5) Get published by writing a review or a response 

Writing reviews is a good way to get published – especially for people who are in the early stages of their career. It’s a chance to practice at writing a piece for publication, and get a free copy of a book that you want. We publish more reviews than papers so we’re constantly looking for reviewers.

Some journals, including ours, publish replies to papers that have been published in the same journal. Editors quite like to publish replies to previous papers because it stimulates discussion.
Yujin Nagasawa, co-editor and review editor of the European Journal for Philosophy of Religion, philosophy of religion editor of Philosophy Compass

6) Don’t forget about international readers

We get people who write from America who assume everyone knows the American system – and the same happens with UK writers. Because we’re an international journal, we need writers to include that international context.
Hugh McLaughlin, editor in chief, Social Work Education – the International Journal

7) Don’t try to cram your PhD into a 6,000 word paper

Sometimes people want to throw everything in at once and hit too many objectives. We get people who try to tell us their whole PhD in 6,000 words and it just doesn’t work. More experienced writers will write two or three papers from one project, using a specific aspect of their research as a hook.
Hugh McLaughlin, editor in chief, Social Work Education – the International Journal

Submitting your work

8) Pick the right journal: it’s a bad sign if you don’t recognise any of the editorial board

Check that your article is within the scope of the journal that you are submitting to. This seems so obvious but it’s surprising how many articles are submitted to journals that are completely inappropriate. It is a bad sign if you do not recognise the names of any members of the editorial board. Ideally look through a number of recent issues to ensure that it is publishing articles on the same topic and that are of similar quality and impact.
Ian Russell, editorial director for science at Oxford University Press

9) Always follow the correct submissions procedures

Often authors don’t spend the 10 minutes it takes to read the instructions to authors which wastes enormous quantities of time for both the author and the editor and stretches the process when it does not need to
Tangali Sudarshan, editor, Surface Engineering

10) Don’t repeat your abstract in the cover letter
We look to the cover letter for an indication from you about what you think is most interesting and significant about the paper, and why you think it is a good fit for the journal. There is no need to repeat the abstract or go through the content of the paper in detail – we will read the paper itself to find out what it says. The cover letter is a place for a bigger picture outline, plus any other information that you would like us to have.
Deborah Sweet, editor of Cell Stem Cell and publishing director at Cell Press

11) A common reason for rejections is lack of context

Make sure that it is clear where your research sits within the wider scholarly landscape, and which gaps in knowledge it’s addressing. A common reason for articles being rejected after peer review is this lack of context or lack of clarity about why the research is important.
Jane Winters, executive editor of the Institute of Historical Research’s journal, Historical Research and associate editor of Frontiers in Digital Humanities: Digital History

12) Don’t over-state your methodology

Ethnography seems to be the trendy method of the moment, so lots of articles submitted claim to be based on it. However, closer inspection reveals quite limited and standard interview data. A couple of interviews in a café do not constitute ethnography. Be clear – early on – about the nature and scope of your data collection. The same goes for the use of theory. If a theoretical insight is useful to your analysis, use it consistently throughout your argument and text.
Fiona Macaulay, editorial board, Journal of Latin American Studies

Dealing with feedback

13) Respond directly (and calmly) to reviewer comments

When resubmitting a paper following revisions, include a detailed document summarising all the changes suggested by the reviewers, and how you have changed your manuscript in light of them. Stick to the facts, and don’t rant. Don’t respond to reviewer feedback as soon as you get it. Read it, think about it for several days, discuss it with others, and then draft a response.
Helen Ball, editorial board, Journal of Human Lactation 

14) Revise and resubmit: don’t give up after getting through all the major hurdles

You’d be surprised how many authors who receive the standard “revise and resubmit” letter never actually do so. But it is worth doing – some authors who get asked to do major revisions persevere and end up getting their work published, yet others, who had far less to do, never resubmit. It seems silly to get through the major hurdles of writing the article, getting it past the editors and back from peer review only to then give up.
Fiona Macaulay, editorial board, Journal of Latin American Studies

15) It is acceptable to challenge reviewers, with good justification

It is acceptable to decline a reviewer’s suggestion to change a component of your article if you have a good justification, or can (politely) argue why the reviewer is wrong. A rational explanation will be accepted by editors, especially if it is clear you have considered all the feedback received and accepted some of it.
Helen Ball, editorial board of Journal of Human Lactation

16) Think about how quickly you want to see your paper published

Some journals rank more highly than others and so your risk of rejection is going to be greater. People need to think about whether or not they need to see their work published quickly – because certain journals will take longer. Some journals, like ours, also do advance access so once the article is accepted it appears on the journal website. This is important if you’re preparing for a job interview and need to show that you are publishable.
Hugh McLaughlin, editor in chief, Social Work Education – the International Journal

17) Remember: when you read published papers you only see the finished article

Publishing in top journals is a challenge for everyone, but it may seem easier for other people. When you read published papers you see the finished article, not the first draft, nor the first revise and resubmit, nor any of the intermediate versions – and you never see the failures.
Philip Powell, managing editor of the Information Systems Journal

Brasil propõe nova diferenciação entre países na COP20 (ClimaCom)

11/12/2014

Efetividade da proposta é posta em discussão por especialistas: “é uma colagem entre o óbvio e o absurdo” 

Por Meghie Rodrigues

contribuição do Brasil para a 20ª Conferência das Partes (COP20), que acontece em Lima, Peru, até o próximo dia 12, propõe repensar o conceito de “responsabilidades comuns, mas diferenciadas”, da Convenção-Quadro das Nações Unidas sobre Mudança do Clima (UNFCCC).

A intenção é refinar a divisão dos 190 países-membros da UNFCCC tal como estabelecida pelo Protocolo de Quioto: em vez de apenas os países do Anexo I (membros da OCDE e países pertencentes à ex-União Soviética) terem responsabilidades legalmente vinculantes sobre reduções de emissões de gases provocadores do efeito estufa, os países emergentes (como Brasil, Rússia, Índia, China e África do Sul, os BRICS) também assumiriam responsabilidades legais sobre as medidas. A proposta, que responde às demandas do Anexo I de que os países emergentes devem assumir uma parcela dos custos advindos dos cortes de emissões, implicaria em um agrupamento menos monolítico entre países em desenvolvimento, ou pertencentes ao Anexo II.

A divisão atual foi traçada na década de 1990 em decorrência do Protocolo de Quioto (que previa reduções de emissões de dióxido de carbono na atmosfera em 5,2% entre 2008 e 2012, em relação aos níveis de 1990), mas coloca grandes emissores como China e Brasil na mesma categoria de países menores e mais vulneráveis como os Estados-ilha do Oceano Pacífico.

A proposição chega em um momento em que a UNFCCC prepara um documento de força legal a ser proposto em Paris em dezembro do ano que vem, durante a COP21. O novo documento passará a vigorar a partir de 2020, quando cessa a validade da extensão ao Protocolo de Quioto, emenda feita em 2012, durante a COP18 em Doha, no Qatar. O objetivo é levar adiante a meta de conter o aumento da temperatura global para até 2ºC em relação ao período pré-industrial. Apesar de os países-membros da UNFCCC ainda não terem chegado a um acordo quanto ao texto que servirá como base do documento a ser apresentado em Paris, a proposta feita pela delegação brasileira – chefiada pelo subsecretário-geral de Meio Ambiente, Energia, Ciência e Tecnologia do Ministério das Relações Exteriores, José Antonio Marcondes de Carvalho –, parece ter sido bem recebida na Conferência na capital peruana.

No documento oficial enviado à UNFCCC, o Brasil propõe o que chama de “diferenciação concêntrica”, que divide os países em três níveis, de acordo com seu nível de desenvolvimento e histórico de emissões de gases de efeito estufa. Isto definiria suas responsabilidades e ações a serem tomadas. No círculo mais interno estariam os países do Anexo I, com o compromisso de cumprir uma limitação absoluta de emissões ou um alvo de reduções em comparação a um determinado ano-base. No círculo intermediário estariam países emergentes e em desenvolvimento, que poderiam assumir os compromissos dos países do Anexo I ou estabelecer metas de redução em relação à sua projeção de emissões, proporcionais ao PIB ou com determinação cortes de emissão per capita. Por fim, no círculo mais exterior estariam os países menos desenvolvidos e mais vulneráveis aos efeitos das mudanças climáticas, como os Estados-ilha: estes não precisariam realizar grandes cortes, já que dispõem de poucos recursos e não são grandes emissores de gases de efeito estufa na atmosfera.

“Entre o óbvio e o absurdo”

Para Márcio Santilli, filósofo e coordenador do Instituto Socioambiental (ISA), “ainda não é hora de fazer grandes análises ou categorizações, mas sim o caso de fazer proposições concretas”. Segundo ele, a tripartição proposta pelo Brasil perpetua a diferença de posições políticas entre grandes emissores emergentes e países do Anexo I. “É algo que precisa ter uma tradução mais clara, se com isso se pretende objetivamente reforçar a responsabilidade dos emergentes – que são relevantes no conjunto das emissões globais – ou se, pelo contrário, é uma jogada retórica para que o bloco do meio, os emergentes, não sejam obrigados a assumir metas de redução imediatas”, ressalta.

O que pode estar havendo neste processo, de acordo com o filósofo, é “uma colagem entre o óbvio e o absurdo”: o óbvio no sentido de se reconhecer a diferença das responsabilidades entre países emergentes que são grandes emissores e os “mais de uma centena de países quase irrelevantes no volume global de emissões”. O absurdo seria elaborar uma meta de corte de emissões na ausência da discussão sobre política energética, ou seja, traçar uma meta sem um plano claro sobre como chegar lá.

Países como China e Estados Unidos (que assinaram um acordo em novembro, em que os EUA propõem reduzir 28% das emissões de gases de efeito estufa em até 11 anos, e a China, por sua vez, cortar as emissões até 2030), propuseram projetar, para além de 2020, processos que já estão ocorrendo em seus países. Em decorrência de políticas econômicas e energéticas já em curso, eles conseguem uma margem para negociar o cumprimento dessas metas. O coordenador do ISA observa, entretanto, que essas são metas modestas, já que EUA poderiam propor cortes maiores e a China, prazos mais curtos. “Ou seja, esse acordo entre China e EUA tem uma folga para eles negociarem – para cobrarem compromissos de outros países em troca de darem mais um passo”, observa.

Oficina do grupo multiTÃO (Labjor-Unicamp) realizada com o grupo de bordadeiras “Entrefios Memórias” do Casarão do Barão, em Campinas – SP

Responsabilidades

Assumir responsabilidades é, também, um tema recorrente nestas rodadas de negociação sobre políticas climáticas em âmbito global, onde reafirmam-se noções acerca da soberania e economia dos países participantes Soberania no sentido de que, não abraçar estes compromissos compartilhados, seria não assumir uma postura globalista em relação à governança climática. Já no caso da economia, seria a reafirmação do privilégio de fontes poluentes em detrimento de fontes alternativas de geração de energia. Eduardo Viola, professor da Universidade de Brasília (UnB), em artigo publicado em 2002, lembra que a posição contrária dos Estados Unidos em relação ao corte de emissões de dióxido de carbono na década de 1990 (o que levou o Senado dos EUA a barrar a ratificação do Protocolo de Quioto), se deu porque os EUA queriam que os “países emergentes assumissem compromissos de diminuir sua taxa de crescimento futuro de emissões”, além de demarcar uma posição clara em favor da manutenção do padrão de vida norte-americano.

O Brasil já trabalha no plano prático no sentido de assumir e compartilhar responsabilidades, tal como invocado pelos EUA. De acordo com Márcio Santilli, ainda que no ano passado as emissões de CO2 tenham aumentado em 7,8% em relação a 2012, o fato de ter feito reduções expressivas entre 2006 e 2012 mostra que o país tem capacidade de realizar cortes mais ambiciosos. No entanto, ele observa que “se queremos chegar a um acordo até o fim do ano que vem, é indispensável que alguma estratégia exista, e que o Brasil possa formular uma proposta de meta que garanta um sentido correto, que é o de redução de emissões – que assegure esse horizonte concreto, palpável – para que possamos cumprir o compromisso que vamos assumir, seja lá qual for”.

Butterflies, Ants and the Internet of Things (Wired)

[Isn’t it scary that there are bright people who are that innocent? Or perhaps this is just a propaganda piece. – RT]

BY GEOFF WEBB, NETIQ

12.10.14  |  12:41 PM

Autonomous Cars (Autopia)

Buckminster Fuller once wrote, “there is nothing in the caterpillar that tells you it’s going to be a butterfly.”  It’s true that often our capacity to look at things and truly understand their final form is very limited.  Nor can we necessarily predict what happens when many small changes combine – when small pebbles roll down a hillside and turn in a landslide that dams a river and floods a plain.

This is the situation we face now as we try to understand the final form and impact of the Internet of Things (IoT). Countless small, technological pebbles have begun to roll down the hillside from initial implementation to full realization.  In this case, the “pebbles” are the billions of sensors, actuators, and smart technologies that are rapidly forming the Internet of Things. And like the caterpillar in Fuller’s quote, the final shape of the IoT may look very different from our first guesses.

In whatever the world looks like as the IoT begins to bear full fruit, the experience of our lives will be markedly different.  The world around us will not only be aware of our presence, it will know who we are, and it will react to us, often before we are even aware of it.  The day-to-day process of living will change because almost every piece of technology we touch (and many we do not) will begin to tailor their behavior to our specific needs and desires.  Our car will talk to our house.

Walking into a store will be very different, as the displays around us could modify their behavior based on our preferences and buying habits.  The office of the future will be far more adaptive, less rigid, more connected – the building will know who we are and will be ready for us when we arrive.  Everything, from the way products are built and packaged and the way our buildings and cities are managed, to the simple process of travelling around, interacting with each other, will change and change dramatically. And it’s happening now.

We’re already seeing mainstream manufacturers building IoT awareness into their products, such as Whirlpool building Internet-aware washing machines, and specialized IoT consumer tech such as LIFX light bulbs which can be managed from a smartphone and will respond to events in your house. Even toys are becoming more and more connected as our children go online at even younger ages.  And while many of the consumer purchases may already be somehow “IoT” aware, we are still barely scratching the surface of the full potential of a fully connected world. The ultimate impact of the IoT will run far deeper, into the very fabric of our lives and the way we interact with the world around us.

One example is the German port of Hamburg. The Hamburg port Authority is building what they refer to as a smartPort. Literally embedding millions of sensors in everything from container handling systems to street lights – to provide data and management capabilities to move cargo through the port more efficiently, avoid traffic snarl-ups, and even predict environmental impacts through sensors that respond to noise and air pollution.

Securing all those devices and sensors will require a new way of thinking about technology and the interactions of “things,” people, and data. What we must do, then, is to adopt an approach that scales to manage the staggering numbers of these sensors and devices, while still enabling us to identify when they are under attack or being misused.

This is essentially the same problem we already face when dealing with human beings – how do I know when someone is doing something they shouldn’t? Specifically how can I identify a bad person in a crowd of law-abiding citizens?

The best answer is what I like to call, the “Vegas Solution.” Rather than adopting a model that screens every person as they enter a casino, the security folks out in Nevada watch for behavior that indicates someone is up to no good, and then respond accordingly. It’s low impact for everyone else, but works with ruthless efficiency (as anyone who has ever tried counting cards in a casino will tell you.)

This approach focuses on known behaviors and looks for anomalies. It is, at its most basic, the practical application of “identity.” If I understand the identity of the people I am watching, and as a result, their behavior, I can tell when someone is acting badly.

Now scale this up to the vast number of devices and sensors out there in the nascent IoT. If I understand the “identity” of all those washing machines, smart cars, traffic light sensors, industrial robots, and so on, I can determine what they should be doing, see when that behavior changes (even in subtle ways such as how they communicate with each other) and respond quickly when I detect something potentially bad.

The approach is sound, in fact, it’s probably the only approach that will scale to meet the complexity of all those billions upon billions of “things” that make up the IoT. The challenge of this is brought to the forefront by the fact that there must be a concept of identity applied to so many more “things” than we have ever managed before. If there is an “Internet of Everything” there will be an “Identity of Everything” to go with it? And those identities will tell us what each device is, when it was created, how it should behave, what it is capable of, and so on.  There are already proposed standards for this kind of thing, such as the UK’s HyperCatstandard, which lets one device figure out what another device it can talk to actually does and therefore what kind of information it might want to share.

Where things get really interesting, however, is when we start to watch the interactions of all these identities – and especially the interactions of the “thing” identities and our own. How we humans of Internet users compared to the “things”, interact with all the devices around us will provide even more insight into our lives, wants, and behaviors. Watching how I interact with my car, and the car with the road, and so on, will help manage city traffic far more efficiently than broad brush traffic studies. Likewise, as the wearable technology I have on my person (or in my person) interacts with the sensors around me, so my experience of almost everything, from shopping to public services, can be tailored and managed more efficiently. This, ultimately is the promise of the IoT, a world that is responsive, intelligent and tailored for every situation.

As we continue to add more and more sensors and smart devices, the potential power of the IoT grows.  Many small, slightly smart things have a habit of combining to perform amazing feats. Taking another example from nature, leaf-cutter ants (tiny in the extreme) nevertheless combine to form the second most complex social structures on earth (after humans) and can build staggeringly large homes.

When we combine the billions of smart devices into the final IoT, we should expect to be surprised by the final form all those interactions take, and by the complexity of the thing we create.  Those things can and will work together, and how they behave will be defined by the identities we give them today.

Geoff Webb is Director of Solution Strategy at NetIQ.

A Crise de Escassez Hídrica no Brasil e seu Gerenciamento no Estado de São Paulo – Posição da Diretoria da Associação Brasileira de Engenharia Sanitária e Ambiental – Seção São Paulo (ABES-SP)

Posição da Diretoria da Associação Brasileira de Engenharia Sanitária e Ambiental – Seção São Paulo (ABES-SP) sobre a crise hídrica, apresentada no seminário “A Crise de Escassez Hídrica no Brasil e seu Gerenciamento no Estado de São Paulo”, realizado no dia 02 de dezembro de 2014, no auditório do CREA-SP:

  1. O país vive crise de escassez hídrica de dimensões inéditas e não antecipadas pelas previsões climáticas. A crise atinge um vasto território do Sudeste e Nordeste brasileiros, com forte incidência em São Paulo, e afeta os diversos usos da água, revelando conflitos que precisam ser tratados de imediato. Embora não haja precisão nas previsões meteorológicas, é provável que seja de grande duração, requerendo estratégia de longo prazo para seu enfrentamento.
  1. A crise vem demandando ações emergenciais para assegurar a continuidade do abastecimento público, que necessitam ser reforçadas e adequadamente explicadas à população, pelas autoridades e pelas entidades técnico-científicas. O abastecimento vem sendo mantido por um sofisticado conjunto de medidas operacionais, que será tão mais eficaz quanto mais bem compreendido for pela sociedade.
  1. Em geral, passadas as restrições legais do período eleitoral, é necessário reforçar a comunicação social sobre o enfrentamento dos problemas, trazendo a sociedade para apoiar ativamente o combate aos desperdícios e o uso racional, e reduzindo o espaço para visões equivocadas e para a exploração oportunista dos efeitos da crise. Além da comunicação, ações mais diretas junto à população são cabíveis, como, por exemplo, a assistência técnica para a adequação das caixas d’água nos imóveis com deficiência de reservação.
  1. Os valores extremamente baixos e inéditos de precipitações e de vazões afluentes aos sistemas indicam uma situação nova, que exige a revisão do planejamento existente, antecipando intervenções e aumentando capacidades. É necessário aumentar a disponibilidade de vazões regularizadas, para fazer frente à nova situação. Particularmente, são importantes a interligação dos reservatórios Jaguari e Atibainha, para dar segurança hídrica à plena recuperação e utilização do Sistema Cantareira no futuro, e a construção das barragens Duas Pontes e Pedreiras e respectivo sistema adutor, para assegurar o abastecimento dos municípios das bacias do PCJ. Outros projetos de abastecimento, estruturantes do desenvolvimento econômico do estado, necessitam ser avaliados, detalhados e implementados no curto prazo.
  1. A antecipação de investimentos e o aumento de capacidade de reserva que as novas condições exigem significam o aumento do custo da água para os diversos usos. Esta nova realidade torna economicamente mais atrativas e socialmente mais necessárias políticas permanentes de redução de perdas, uso racional da água, proteção e recuperação de mananciais e de nascentes e de reuso de água tratada.
  1. O aumento de custos deve ser refletido nas tarifas dos prestadores de serviços. O setor de abastecimento de água e esgotamento sanitário no estado de São Paulo é sustentado por um sistema tarifário que remunera os investimentos e os custos dos serviços, com um processo regulatório sofisticado, em fase final de implantação. Esta é a forma socialmente mais justa e eficiente de alocar os recursos necessários à prestação dos serviços, que deve ser preservada. Empresas e autarquias economicamente viáveis e sólidas são a melhor garantia da qualidade da prestação, e da manutenção de esforços continuados, como é o caso da redução de perdas de água, por exemplo.
  1. O ajuste tarifário, além preservar a viabilidade econômica das entidades responsáveis pelos serviços, o que pode e deve ser feito protegendo os segmentos socialmente mais vulneráveis, deve ser tratado como um importante, talvez o mais importante, mecanismo de redução de consumo excessivo. A acentuação das diferenças entre blocos tarifários, com penalização mais pesada às faixas de maior consumo, é um forte estímulo econômico à moderação. Esse valor adicional nas faixas de maior consumo poderia ser separado, como um fundo especial para as obras de segurança hídrica, não incidindo no cálculo do resultado econômico das prestadoras de serviço.
  1. A penalização econômica do uso excessivo de água deve se somar a outras ações de combate ao desperdício, por parte das autoridades públicas, especialmente as autoridades municipais, que têm poder de polícia. A fiscalização deve se somar à comunicação ampla e ao convencimento.
  1. As intervenções não diretamente ligadas à prestação dos serviços, como as obras de aumento da segurança hídrica, não poderão ser inteiramente custeadas pelas tarifas, e necessitam de recursos não onerosos dos orçamentos públicos. No caso da Sabesp, a primeira fonte deveria ser os dividendos e juros sobre capital próprio distribuídos ao Governo Estadual.
  1. Os estudos mais recentes, como o Plano de Abastecimento da Macrometrópole Paulista, demonstram que a densidade do desenvolvimento econômico do estado e o uso intensivo dos recursos hídricos impõem que se passe a planejar e gerir o uso da água na região de modo efetivamente integrado. A crise de escassez vem acentuar essa constatação. As agendas entre municípios e Governo Estadual, entre este e os demais estados vizinhos, e a União, demandam a ampliação e o aprimoramento dos instrumentos técnicos e dos recursos humanos voltados a essas tarefas.
  1. A gestão integrada implica uma intensa agenda entre municípios, os estados de São Paulo, Rio de Janeiro e Minas Gerais, a Agência Nacional de Águas, e o Governo Federal, agenda que tem se desenvolvido de modo promissor nas últimas semanas. E contempla também os graves conflitos e restrições entre os diversos usos da água a serem mediados. Quanto a estes, ressalta a importância de rediscutir com o setor elétrico ajustes imprescindíveis nas regras atuais, para fazer prevalecer a primazia do uso para abastecimento público, como assegurado legalmente.
  1. Muitas das medidas de enfrentamento da crise são e terão que ser emergenciais, com o uso de procedimentos expeditos de contratação e execução. É importante que as mesmas se combinem com um processo de revisão de planos, de elaboração de projetos e de reestruturação de cronogramas de implantação de empreendimentos que organize desde já a continuidade dos programas de expansão e melhoria dos serviços, necessários para a universalização do atendimento e a manutenção da qualidade.

Diretoria da ABES-SP.

Robôs inteligentes podem levar ao fim da raça humana, diz Stephen Hawking (Folha de S.Paulo)

SALVADOR NOGUEIRA

COLABORAÇÃO PARA FOLHA

16/12/2014 02h03

O físico britânico Stephen Hawking está causando novamente. Em entrevista à rede BBC, ele alertou para os perigos do desenvolvimento de máquinas superinteligentes.

“As formas primitivas de inteligência artificial que temos agora se mostraram muito úteis. Mas acho que o desenvolvimento de inteligência artificial completa pode significar o fim da raça humana”, disse o cientista.

Ele ecoa um número crescente de especialistas –de filósofos a tecnologistas– que aponta as incertezas trazidas pelo desenvolvimento de máquinas pensantes.

Alex Argozino/Editoria de Arte/Folhapress
Robô

Recentemente, outro luminar a se pronunciar foi Elon Musk, sul-africano que fez fortuna ao criar um sistema de pagamentos para internet e agora desenvolve foguetes e naves para o programa espacial americano.

Em outubro, falando a alunos do MIT (Instituto de Tecnologia de Massachusetts), lançou um alerta parecido.

“Acho que temos de ser muito cuidadosos com inteligência artificial. Se eu tivesse que adivinhar qual é a nossa maior ameaça existencial, seria provavelmente essa.”

Para Musk, a coisa é tão grave que ele acredita na necessidade de desenvolver mecanismos de controle, talvez em nível internacional, “só para garantir que não vamos fazer algo bem idiota”.

SUPERINTELIGÊNCIA

A preocupação vem de longe. Em 1965, Gordon Moore, co-fundador da Intel, notou que a capacidade dos computadores dobrava a cada dois anos, aproximadamente.

Como o efeito é exponencial, em pouco tempo conseguimos sair de modestas máquinas de calcular a supercomputadores capazes de simular a evolução do Universo. Não é pouca coisa.

Os computadores ainda não ultrapassaram a capacidade de processamento do cérebro humano. Por pouco.

“O cérebro como um todo executa cerca de 10 mil trilhões de operações por segundo”, diz o físico Paul Davies, da Universidade Estadual do Arizona. “O computador mais rápido atinge 360 trilhões, então a natureza segue na frente. Mas não por muito tempo.”

Alguns tecnologistas comemoram essa ultrapassagem iminente, como o inventor americano Ray Kurzweil, que atualmente tem trabalhado em parceria com o Google para desenvolver o campo da IA (inteligência artificial).

Ele estima que máquinas com capacidade intelectual similar à humana surgirão em 2029. É mais ou menos o de tempo imaginado por Musk para o surgimento da ameaça.

“A inteligência artificial passará a voar por seus próprios meios, se reprojetando a um ritmo cada vez maior”, sugeriu Hawking.

O resultado: não só as máquinas seriam mais inteligentes que nós, como estariam em constante aprimoramento. Caso desenvolvam a consciência, o que farão conosco?

Kurzweil prefere pensar que nos ajudarão a resolver problemas sociais e se integrarão à civilização. Mas até ele admite que não há garantias. “Acho que a melhor defesa é cultivar valores como democracia, tolerância, liberdade”, disse à Folha.

Para ele, máquinas criadas nesse ambiente aprenderiam os mesmos valores. “Não é uma estratégia infalível”, diz Kurzweil. “Mas é o melhor que podemos fazer.”

Enquanto Musk sugere um controle sobre a tecnologia, Kurzweil acredita que já passamos o ponto de não-retorno –estamos a caminho da “singularidade tecnológica”, quando a IA alterará radicalmente a civilização.

COP 20 aprova base para novo acordo climático (Estadão)

Autoridades e ambientalistas de todas as partes do mundo estão com os olhos voltados para a 20ª Conferência do Clima da ONU, que começou nesta segunda-feira em Lima.

AFP – Autoridades e ambientalistas de todas as partes do mundo estão com os olhos voltados para a 20ª Conferência do Clima da ONU, que começou nesta segunda-feira em Lima.

Com atraso de 31 horas, a 20ª Conferência das Partes sobre Mudança Climática (COP 20) terminou na madrugada deste domingo (14), com a aprovação do conjunto de decisões essenciais para a negociação do novo acordo climático em novembro de 2015, em Paris. Reformado “cirurgicamente” para se adequar às exigências dos países emergentes e em desenvolvimento, entre os quais o Brasil, o documento final superou os impasses e obteve consenso imediato dos 195 países à 1h20 (4h20, no horário de Brasília).

“Vamos fazer de Paris um grande sucesso”, afirmou o presidente da COP-20 e ministro de Meio Ambiente do Peru, Manuel Pulgar-Vidal, ao referir-se a um possível acordo multilateral para dar ao mundo a chance de chegar ao final deste século com o aumento de até 2ºC em sua temperatura média. Sem o acordo, os termômetros subirão bem mais, conforme alertaram os estudos do Painel Intergovernamental de Mudança Climática (IPCC).

“Todos sabemos o que se passou em Copenhague (na fracassada tentativa de chegar ao acordo climático, na COP de 2009). Graças aos seus esforços, o fantasma de Copenhague está mais longe, e o sucesso de Paris, mais perto”, declarou o ministro de Relações Exteriores da França, Laurent Fabius, que presidirá a COP 21.

Na tarde de sábado (13), Pulgar havia chamado para si a responsabilidade de elaborar um novo texto de decisão de Lima mais palatável ao bloco emergente e em desenvolvimento, sem gerar maior atrito com o mundo desenvolvido. Ele havia fracassado, horas antes, em sua tentativa de aprovar uma versão anterior, considerada “desequilibrada” e desprovida dos elementos basilares para uma negociação climática justa em 2015 pelo bloco em desenvolvimento.

Todas as 195 delegações estavam cientes de que o sucesso da COP de Paris dependia do documento de Lima. O acordo climático de Paris, se não cair nas mesmas armadilhas de Copenhague, substituirá o Protocolo de Kioto em 2020. O documento de Lima, ao final, traçou as bases sobre as quais os 195 países apresentarão, ao longo do primeiro semestre, seus compromissos de redução de emissões e de adaptação à mudança climática. Trata-se da espinha dorsal do acordo de Paris, a partir do qual serão decididas as obrigações adicionais de cada signatários.

“Em Lima foi fechado o acordo antes do acordo (definitivo)”, resumiu o especialista britânico Michael Jacobs, conselheiro sênior do New Climate Economy e professor da London School of Economics.

Nas negociações, os emergentes do Basic (Brasil, África do Sul, Índia e China) e os membros do G77 (grupo dos países em desenvolvimento e dos mais pobres) fizeram valer suas posições em favor a dois princípios caros. O primeiro é a necessidade de os compromissos dos países mais ricos abrangerem também os meios de financiamento, de capacitação e de transferência de tecnologia para os mais pobres cumprirem suas metas. Essa premissa consta da Convenção do Clima, de 1992.

Países como o Brasil, a China, a África do Sul, além dos mais pobres e vulneráveis à mudança climática, se mobilizaram para sublinhar esse tópico no documento e para impedir que a versão anterior, com menção frouxa a esse conceito, fosse aprovada. Europeus e americanos preferiam vê-lo apagado, para concentrarem-se apenas nas reduções de emissões de gases do efeito estufa (mitigação). Mas acabaram acatando, no final.>>O principal negociador brasileiro, embaixador José Antônio Marcondes Carvalho, considerou insuficiente a ênfase a esse princípio e sublinhou seu desapontamento.”Não fomos tão longe na decisão de hoje. Mas aceitamos o compromisso proposto e continuaremos a trabalhar por um acordo robusto e ambicioso com base na Convenção do Clima”, declarou.

O outro princípio registrado com ênfase no documento da COP-20 foi o da “responsabilidade comum, mas diferenciada”. Definido em 2011, na COP de Durban, ele prevê que os países desenvolvidos terão de assumir obrigações adicionais mais ambiciosas de redução de emissões de gases, compatíveis com o fato de os estarem despejando na atmosfera desde meados do século 18. Emergentes – mesmo os campeões de emissão China e Índia – e os países em desenvolvimento e pobres teriam uma carga menor.

O documento de Lima também trouxe de forma mais específica a obrigação de os 195 países apresentarem informações precisas sobre seus compromissos iniciais, a serem registrados ao longo do primeiro semestre de 2015. Entre eles, o ano-base para a comparação de seus compromissos de redução de emissões, essencial para uma noção mais clara de seus efeitos sobre a contenção do aquecimento global.

As economias emergentes e em desenvolvimento também conseguiram registrar de forma mais clara a necessidade de os países tomarem iniciativas entre 2016 e 2019 para acelerar a adoção do acordo de Paris, a partir de 2020.

Com o documento de Lima aprovado, começam agora as movimentações tornar viável o acordo climático de Paris. Novas rodadas de negociações já estão agendadas para Genebra, em fevereiro, e Bonn, em junho. Os países desenvolvidos, em princípio, deverão apresentar seus compromissos climáticos até março. Os demais, até junho. Atrasos poderão comprometer os cálculos do efeito dessas contribuições para impedir o aquecimento do planeta além de 2ºC, que precisam estar prontos até novembro.

Análise: Todos estão a bordo, certo, mas será um milagre se este barco chegar bem a Paris (Folha de S.Paulo)

MARCELO LEITE

DE SÃO PAULO

15/12/2014 02h00

Com dois dias de atraso, a Conferência de Lima pariu um rato. Espera-se agora o quase impossível: que o roedor aprenda a rugir em um ano e o faça com tanta força em Paris que consiga afugentar o espectro de uma mudança perigosa do clima.

Especialistas predizem que, para evitar um cenário de eventos extremos “”secas, enchentes, furacões””, o aquecimento global não pode ultrapassar 2°C neste século. Os compromissos nacionais de cortes nas emissões de CO2 (principal gás do efeito estufa) apresentados até aqui não representam mais que a metade do que seria necessário.

Como ocorre desde que se adotou a Convenção da ONU sobre Mudança do Clima no Rio, em 1992, Lima tropeçou na vala que separa países ricos e pobres. O maior avanço da conferência na capital peruana, contudo, se deu precisamente aí: agora, todas as nações ficam obrigadas a se comprometer com ações para conter o aquecimento.

É verdade que sobreviveu o princípio das “responsabilidades comuns, mas diferenciadas”, de que sempre se valeram os menos desenvolvidos para escapar de assumir metas. Todos têm de comparecer, daqui em diante, ainda que “à luz das diferentes circunstâncias nacionais”.

Traduzindo: China (maior emissor de CO2), Índia (terceiro, depois dos EUA) e Brasil (sexto) também estão obrigados a publicar planos para reduzir carbono. Uma vitória das nações desenvolvidas.

A União Europeia tem as metas mais ambiciosas: cortar 30% das emissões até 2020 e 40% até 2030, ante 1990. Os EUA prometem redução de 26% a 28% até 2025, mas na comparação com 2005.

O Brasil mantém que até 2020 reduzirá 36% a 39% do nível de suas emissões em 1990, graças à queda no desmatamento (nossa maior fonte de carbono). A China só fala em reduzir o ritmo de aumento da poluição, para zerá-lo em 2030. A Índia até aqui se fez de muda.

Há expectativa de que esses e outros países melhorem suas propostas nos próximos seis meses, de modo que se possa calcular, antes do encontro de Paris, a distância até a meta de 2°C. O problema é que, em Lima, não se chegou a um consenso sobre metodologia e anos-base –1990 ou 2005?

Assim fica difícil fazer a conta. Para piorar, se obteve um grau insuficiente de transparência nas comunicações que cada país ficou de fazer.

Por considerar qualquer tipo de monitoramento externo uma ameaça a sua soberania, a China vetou a obrigatoriedade de mecanismos para tornar as informações nacionais claras e verificáveis. Eles aparecem no acordo apenas como facultativos.

Não houve progresso, por fim, na eterna questão do dinheiro. Países pobres, que contribuíram menos historicamente para o aquecimento, mas sofrerão os piores impactos, exigem fundos dos ricos para prevenir catástrofes e adotar tecnologias limpas.

Com meros US$ 10 bilhões anuais comprometidos, nunca se esteve tão longe do objetivo anterior de levantar US$ 100 bilhões ao ano. O máximo que as nações menos desenvolvidas conseguiram foi cravar no texto as noções de fundos para adaptação e para “perdas e danos”.

Essa noção foi comemorada como vitória por países insulares como Tuvalu e Kiribati. Com territórios ameaçados de submergir com a elevação dos oceanos, precisam desesperadamente salvar o que for possível e, se inescapável, relocar sua população.

Na iminência de um naufrágio, Lima contentou-se com pouco, como sempre acontece nas reuniões do clima. Todos agora estão a bordo, mas com uma rota ainda por traçar e sem bons instrumentos para verificar o trajeto. Será um milagre se chegarem a bom porto em Paris.

Carnivorismo (Portal do Meio Ambiente)

PUBLICADO  08 DEZEMBRO 2014

MAURÍCIO ANDRÉS RIBEIRO

01

Por Maurício Andrés Ribeiro

Cadeias alimentares são as transferências de energia alimentar desde os produtores básicos – as plantas –, para os animais herbívoros – consumidores primários –, até os animais carnívoros que se alimentam dos herbívoros ou de outros carnívoros. A cada degrau que se sobe na cadeia trófica, há perdas de energia. As plantas absorvem e metabolizam cerca de 1% da energia solar que sobre elas incidem. Os animais herbívoros aproveitam cerca de 10% da energia contida nos vegetais. Os animais carnívoros ou os seres humanos que se alimentam de carne de animais aproveitam apenas 10% da energia que eles absorveram dos vegetais.

02

O homem está entre as espécies que absorvem energia de vários elos da cadeia alimentar e tem uma diversidade de dietas alimentares, em função do ambiente em que vivem de seus hábitos culturais, de seus valores espirituais ou religiosos. Há seres humanos onívoros, carnívoros, frutívoros, vegetarianos, veganos etc e uma combinação deles. O carnivorismo é o habito sistemático de comer carne e a defesa de tal hábito.O carnivorismo se espalha pelo mundo de modo diferenciado conforme mostra o mapa anexo. Nos países em vermelho se come mais de 30 kg per capita de carne bovina por ano. À medida que aumenta a renda média, tende a aumentar o consumo per capita de carne, o que é ainda estimulado por campanhas de propaganda do carnivorismo nas TVs, nos jornais, em revistas e na internet.

03

A dieta alimentar baseada em proteínas animais, quando comparada a dietas baseadas em grãos, hortaliças e proteína vegetal, tem elevado custo energético e sua produtividade energética é baixa. A demanda por alimentos que se encontram no alto da cadeia alimentar – constituídos pelos produtos de origem animal – consome grande quantidade de terra, água, recursos naturais e defensivos agrícolas; motiva os fazendeiros a expandir as áreas destinadas a pastagens, provoca a destruição de florestas e perdas de solo fértil. Os impactos ambientais de uma dieta carnívora são maiores do que os de uma dieta baseada em produtos vegetais.

No Brasil, pressão sobre as florestas e desmatamento decorrem do plantio de soja para alimentar animais na China ou da pecuária para exportar carne ou abastecer o mercado interno.

04Várias sociedades regularam suas dietas como estratégia para não romper a capacidade de suporte do seu território e reduzir os riscos de colapso. A Índia é uma das mais conhecidas, com o vegetarianismo e a sacralização dos animais. Diamond (2005, p. 356) relata o caso da ilha de Tikopia, no Pacífico Sul, com 4,7km2 e densidade de 309 pessoas por quilômetro quadrado, continuamente habitada há quase três mil anos. Uma das estratégias para garantir a capacidade de sustentação do ambiente foi a mudança de hábitos alimentares, eliminando aqueles que implicam competição pelo uso da terra:

Uma decisão significativa tomada conscientemente por volta de 1.600 d.C, e registrada pela tradição oral, mas também atestada arqueologicamente, foi a matança de todos os porcos da ilha, substituídos como fonte de proteína pelo aumento do consumo de peixe, moluscos e tartarugas.

Tikopia e a India são exemplos de sociedades que superaram o carnivorismo ao constatarem os benefícios sociais que essas mudanças de hábitos alimentares trariam. Aquilo que a Índia estruturou há milênios e o que os ilhéus de Tikopia decidiram há algumas centenas de anos, pode ser uma decisão sábia de ser adotada globalmente no contexto das mudanças climáticas e da atual crise da evolução. Uma das vozes que defende esse caminho é Lovelock (Gaia-Alerta final, pg. 80) que observa

“Nossos líderes, se fossem todos excelentes e poderosos poderiam proibir a manutenção de animais de estimação e gado, tornar compulsória a dieta vegetariana e incentivar um grande programa de síntese de alimentos por indústrias químicas e bioquímicas; fazer isso apenas restringirá a perda de vida a animais de estimação e gado. É alentador que o presidente do IPCC, Dr. Pachauri, tenha recomendado uma dieta vegetariana como um caminho a seguir.”

Atualmente cresce a consciência e os alertas sobre esse tema. O biólogo Erlich (1999, p. 10) afirma que “a capacidade de suporte do planeta seria aumentada se todos se tornassem predominantemente vegetarianos”. O professor E. O. Wilson, de Harvard, em seu livro “O Futuro da vida” expressa as vantagens de renunciar ao consumo de carne: “Se todos aceitassem uma dieta vegetariana, o atual 1,4 bilhão de hectares de terras aráveis seria suficiente para produzir alimentos para 10 bilhões de pessoas.” O vegetarianismo poupa espaço, recursos naturais e o meio ambiente, conseguindo, com baixo uso de recursos naturais, um alto rendimento energético alimentar.

A mudança de dieta alimentar é um processo cultural e encontra resistências em hábitos arraigados. O prazer da mesa é um aspecto sensorial que produz apego e constitui um obstáculo à aceitação de argumentos racionais, como os baseados na ecologia energética, nas perdas de energia que ocorrem nas cadeias alimentares, nos impactos ambientais devastadores associados ao consumo de carnes.

No contexto da crise alimentar, climática, ecológica e hídrica, hábitos alimentares de baixo consumo de proteína animal podem facilitar o acesso da população humana a alimentos e ao mesmo tempo não pressionarem excessivamente a capacidade de suporte do planeta. Superar o carnivorismo é um passo em direção à sustentabilidade no planeta. A mega crise da evolução atual, da qual as mudanças climáticas são um dos aspectos, clama por evolução da consciência humana que induza a mudanças de hábitos tão básicos e elementares como o de se alimentar.

Ofensiva ruralista contra direitos indígenas continua em Brasília (Greenpeace Brasil)

10/12/2014 – 09h53

por Redação do Greenpeace Brasil

O Projeto de Lei Complementar que coloca sob ameaça Terras Indígenas já demarcadas e abre caminho para sua exploração deve ser apreciado nesta quarta-feira

bannerPLSjuca 1024x648 Ofensiva ruralista contra direitos indígenas continua em Brasília

O projeto do senador Romero Jucá (PMDB-RR), que restringe drasticamente os direitos de povos indígenas sobre suas terras, deve estrar em pauta nesta quarta-feira (10), às 14h, em uma comissão mista no Senado.

O Projeto de Lei Complementar sem número/2013, estabelece exceções à posse e uso exclusivo das comunidades indígenas sobre suas terras. Caso aprovada, ela segue direto para os plenários do Senado e da Câmara.

O texto, que regulamenta o Art. 231 da Constituição Federal, é assinado pelo senador Romero Jucá, ex-líder do governo no Senado – que também é relator do controverso parecer sobre a regulamentação da PEC do Trabalho Escravo.

Sob a justificativa de normatizar o conceito de relevância de interesse público no processo de demarcação, o projeto quer, na realidade, legalizar fazendas, estradas, hidrelétricas, minas, linhas de transmissão e outros empreendimentos em Terras Indígenas (TIs).

A proposta classifica propriedades rurais como “área de relevante interesse público da União”. Como consequência, o projeto estabelece que essas áreas poderão ser excluídas da delimitação das terras indígenas se seus títulos de ocupação forem “considerados válidos” ou poderão ser objeto de desapropriação ou de compensação com outra área ofertada pela União. Dessa forma, o projeto transforma interesses privados em “de relevante interesse público da União”.

Enquanto o mundo todo está reunido em Lima, no Peru, em busca de acordos para mitigar as mudanças climáticas, o Congresso e o Senado brasileiro, capitaneados pela Bancada Ruralista, tentam destruir os direitos indígenas, evitando que novas terras indígenas sejam criadas e colocando em risco as áreas atualmente protegidas.

“As TI, são o melhor instrumento de conservação das florestas e devem fazer parte da estratégia brasileira de mitigação de emissão dos gases de efeito estufa, evitando assim o agravamento das mudanças climáticas, maior crise ambiental que os seres humanos podem enfrentar”, afirma Rômulo Batista, da campanha Amazônia do Greenpeace.

A Mobilização Nacional Indígena, rede de organizações coordenada pela Articulação dos Povos Indígenas do Brasil, promove um tuítaço nesta quarta, a partir das 10h30, contra a proposta. Participe utilizando a hashtag #DireitosIndigenas.

* Publicado originalmente no site Greenpeace Brasil.

(Greenpeace Brasil)