Arquivo da categoria: Uncategorized

Video: Drought, Climate, Security, and Syria (Skeptical Science)

Posted on 13 November 2015 by greenman3610

This is a re-post from Yale Climate Connections

 

Drought, water, war, and climate change” is the title of this month’s Yale ClimateConnections video exploring expert assessments of the interconnections between and among those issues.

With historic 1988 BBC television footage featuring Princeton University scientist Syukuru (“Suki”) Manabe and recent news clips and interviews with MIT scientist Kerry Emanuel, Ohio State University scientist Lonnie Thompson, CNN reporter Christiane Amanpour, and New York Times columnist and book author Tom Friedman, the six-minute video plumbs the depths of growing climate change concerns among national security experts.

Friedman, in footage from the 2014 Showtime “Years of Living Dangerously” nine-episode documentary, points to a NOAA analysis that climate change has caused the Mediterranean region, in Friedman’s words, “to dry up . . . . leading to longer and more severe droughts.” Friedman in that piece pointed out that severe droughts struck Syria – “which is right at the epicenter” of the worst impacts — in the four years leading up to the Syrian revolution.

MIT scientist Kerry Emanuel points to increasing concerns among military experts over climate change. “These are not sandal-wearing, fruit juice-drinking hippies from the sixties,” he says. “These are serious folk” concerned about “significant geopolitical impacts around the world.”

CNN reporter Christiane Amanpour reports that climate change and dwindling water supplies “may have helped fuel Syria’s war.” She says drought in Syria from 2006 through 2010 “scorched 60 percent of Syria’s land, and it killed 80 percent of livestock in some regions, putting three-quarters of the farmers out of work, and ultimately displacing 1.5 million people.”

“While no one’s claiming a direct cause and effect” relationship, Amanpour says, “the drought did bring on the diaspora from dying farms and over-crowded cities, and thereby put enormous economic and social pressures on an already fractured society.”

The video ends with Lonnie Thompson pointing to Tibet’s numerous glaciers and the Indus River flowing through China, Pakistan, and India.  All, he says, are “nuclear-powered countries,” each of them dependent on the Indus for water supplies . . . “all geopolitical hot-spots in the future” with a big stake on the glaciers increasingly under stress in a warming climate.

James Cameron wants you to fight global warming by changing what you eat (Washington Post)

 November 18

James Cameron speaking during a forum at the 2012 Beijing Film Academy. AFP/Getty Images)

There are few films more environmentally infused than the highest grossing one in history, “Avatar” — in which a highly militarized mining company seeks to exploit the resources of the rich forest world of Pandora. But less known is how the film’s director, James Cameron, has also used some of the money made from “Avatar” to champion an array of green causes, even as he’s also using clean energy to power the film’s three planned sequels.

“We put in a 1 megawatt solar array on the roof of the soundstages where we’re doing the ‘Avatar’ sequels, so we’ll be net energy neutral there,” Cameron told The Washington Post recently. “We’ll sell back to the grid and it will balance back over the time when we’re working and when we’re not working.”

It’s just one of the many green initiatives the director has undertaken. Heck, he even designed his own solar sunflowers, and they’re pretty cool looking.

(He’s also a noted underwater explorer: In 2012 Cameron undertook a historic dive 35,787 feet deep into the Mariana Trench.)

Cameron spoke Wednesday morning in Washington at Greenbuild, a major conference on green buildings sponsored by the U.S. Green Building Council. Projected population growth means there will be massive construction in new cities around the world, Cameron told The Post. “If all those buildings are constructed the way we’ve traditionally constructed buildings it will be an enormous spike in greenhouse gas emissions,” he adds.

But one of his most unique recent environmental causes has focused on what we eat — meat and dairy, particularly — and how it relates to climate change. This topic has long been a kind of elephant in the room of environmental discussions – and now Cameron is pointing straight at the elephant.

“When you add it all up, it comes up to about 14.5 percent of greenhouse gas comes from the animal agriculture sector,” Cameron says. “That’s bigger than all transportation combined.”

Granted, the gases aren’t just carbon dioxide — the leading, long-lived atmospheric greenhouse gas. They also include methane, which is harder hitting but dissipates much faster — and in this context chiefly comes from so-called “enteric fermentation” (digestion and subsequent burps) in cows and other livestock — and nitrous oxide, emitted by fertilizers and manure. The 14.5 percent figure was affirmed by Chatham House, a London-based think tank, which also calculated that livestock drives 39 percent of human-caused global methane emissions and 65 percent of human induced nitrous oxide emissions.

You can’t fix global warming without fixing carbon dioxide — it has a longer atmospheric residence time than these other gases, and is the dominant greenhouse gas in general. But Cameron observes that because agriculture is so closely tied to deforestation — in many places around the globe, forests are being cleared for cattle and other agricultural activities — it’s also in effect a major source of CO2 to the atmosphere.

Moreover, given global goals to keep global warming between 2 degrees Celsius, it has often been observed that taking action on non-CO2 gases with greater immediate warming consequences, like methane, can buy us some time.

There have been proposed techno-fixes to the problem of agricultural emissions — including the intriguing idea of changing the chemistry going on in cows’ rumens (one chamber of their stomachs)  by feeding them a “methane inhibitor” powder, which has been proved in published research to work. DSM, the Dutch life-sciences company, is developing this product.

[Meet the ‘clean cow’ technology that could help fight climate change]

But there’s also changing what we consume and, in effect, driving market-based changes on a global scale. On the latter front, Cameron and his wife, Suzy Amis Cameron, founded the Food Choice Taskforce, seeking to change our diets, and thereby, lessen climate change and other environmental impacts. “It’s a viable choice, it’s essentially a thermostat that’s being handed to us that we can use to turn down climate change,” Cameron says.

The group is supported in part by the private Avatar Alliance Foundation, which Cameron endowed with some of the film’s proceeds. The foundation has also supported Chatham House’s research on agriculture and the environment.

According to Chatham House, international negotiations to address climate change naturally target the energy and transportation sectors, and the forest and land use sector — but for a complex set of reasons, they have just as traditionally overlooked agriculture. The report contended that “dietary change is essential if global warming is not to exceed two degrees Celsius – the stated objective of the international community.”

“I think they’re basically unachievable goals if we don’t embrace the way we eat as well as part of it. But nobody’s talking about it,” says Cameron.

Granted, there are signs of momentum lately. The U.S. Dietary Guidelines Advisory Committee, for instance, recently made major waves when it included environmental concerns to its assessment of our diets. “Current evidence shows that the average U.S. diet has a larger environmental impact in terms of increased greenhouse gas emissions, land use, water use, and energy use,” the report noted, compared with more plant-based diets. Meanwhile,   the World Health Organization’s International Agency for Research on Cancer recently declared processed meats a carcinogen.

When it comes to the U.S. dietary guidelines committee — a group of scientists who provide advice, but do not set official policy, it seems a particularly auspicious sign. “For the first time, the issue that I’ve been screaming about has been codified as advice to the government,” says Cameron.

More general, Cameron — who is just as much a wonk  about climate change and ocean science as one presumes that he is about the technical aspects of filmmaking — thinks the tide is turning.

“It feels like climate denialism is starting to look like it’s really on the wrong side of history for a greater majority every day,” says Cameron. “Momentum is building in a great direction.”

Conta das mudanças climáticas é mais alta para nações ricas (O Globo)

ActionAid calcula que países desenvolvidos devem doar 0,1% do PIB a fundo comum

POR O GLOBO

18/11/2015 6:00

 

Mulheres polonesas conversam em frente à usina: países desenvolvidos não pagam valores justos para atenuar mudanças climáticas, diz ONG – JOE KLAMAR/AFP

RIO — Um novo estudo da ONG ActionAid denunciou ontem a diferença abissal entre as quantias exigidas e as doadas pelos países desenvolvidos para que as nações mais pobres criem medidas de adaptação contra as mudanças climáticas. Em 2013, foram destinados cerca de US$ 5 bilhões para o combate ao aquecimento global. Na próxima década, serão necessários US$ 150 bilhões por ano para combater os eventos extremos. O debate sobre financiamento está entre as prioridades da Conferência do Clima de Paris, a partir do dia 30.

De acordo com o instituto, as nações ricas deveriam dedicar pelo menos 0,1% de seu PIB a um fundo climático internacional. É um índice 70 vezes menor do que o gasto em 2008 para a adoção de políticas contra a recessão econômica.

Os EUA deveriam aumentar suas contribuições aos países pobres em mais de 154 vezes, passando dos US$ 440 milhões gastos em 2013 para US$ 67,5 bilhões em 2025.

A União Europeia precisa multiplicar os seus investimentos em 11 vezes, passando dos US$ 3,2 bilhões vistos em 2013 para US$ 36,9 bilhões em 2025.

Os cálculos são baseados nas emissões históricas — a contribuição atribuída a cada país para provocar as mudanças climáticas — e em sua capacidade de ajudar financeiramente, levando em conta os dados da Organização para a Cooperação e Desenvolvimento Econômico (OCDE).

Especialista em financiamento climático da ActionAid, Brandon Wu acredita que os países em desenvolvimento estão enfrentando sozinhos “uma crise que não causaram”.

— O problema não é falta de dinheiro — assegura. — Os EUA, por exemplo, gastam muito mais em subsídios para os combustíveis fósseis do que em medidas de adaptação ao clima. É falta de vontade política.

IMPASSE HISTÓRICO

Wu avalia que o financiamento contra as mudanças climáticas pode ser o item mais polêmico entre os discutidos na Conferência do Clima. Tradicionalmente, os países ricos e pobres discordam sobre o tamanho do rombo, e as nações desenvolvidas não concordam em assumir totalmente as indenizações contra o aquecimento global, eximindo economias emergentes, como China e Brasil, de qualquer compromisso financeiro.

— Um novo acordo (global sobre o clima) não é possível sem esclarecimento sobre como serão as finanças — pondera. — Os países em desenvolvimento não podem adaptar suas economias, livrando-as das emissões de carbono, sem apoio internacional. Talvez não consigamos saber exatamente quanto será investido por cada país, mas precisamos impor novos prazos e objetivos. Aqueles discutidos até agora são vagos demais.

Já Osvaldo Stella, diretor do Programa de Mudanças Climáticas do Instituto de Pesquisa Ambiental da Amazônia, acredita que as negociações financeiras não devem ser uma prioridade.

— O mais importante é discutir que metas podem impedir o avanço da temperatura global — defende. — O financiamento é um jogo político. Resistimos a abandonar o petróleo, da mesma forma como, antes, não queríamos largar o carvão. Mais do que abrir o cofre, precisamos pensar em um novo modelo econômico, que tipo de capitalismo devemos adotar.

Barragens de alto risco ameaçam 540 mil pessoas (O Globo)

por Mariana Sanches

Barragem da Imerys na cidade de Barcarena, no Pará: vazamento de cerca de 450 mil metros cúbicos de rejeitos de caulim já aconteceu em 2007 – Arquivo/“O Liberal”

SÃO PAULO – A análise de documentos do Departamento Nacional de Produção Mineral (DNPM), órgão responsável pela fiscalização de barragens de mineração em todo o Brasil, revela que a tragédia que atingiu Mariana (MG) pode se repetir em pelo menos 16 outras barragens de quatro estados do país. O drama que matou 11 pessoas, desapareceu com outras 12 e atravessou Minas Gerais e Espírito Santo em direção ao mar ameaça mais meio milhão de pessoas. O Cadastro Nacional de Barragens de Mineração de abril de 2014 mostra que 16 reservatórios e uma cava de garimpo possuem categoria de risco alto — quando a estrutura não oferece condições ideais de segurança e pode colapsar — e alto dano potencial associado — quando pode afetar e matar populações, contaminar rios, destruir biomas e causar graves danos socioeconômicos.

De acordo com cálculos feitos pelo GLOBO, se essas barragens rompessem, os rejeitos potencialmente atingiriam 14 municípios, cuja população soma 540 mil habitantes. Incluindo-se na conta a cava de Serra Pelada, no Pará, são 780 mil pessoas em risco. As unidades possuem volume de 84 milhões de metros cúbicos para abrigar o material descartado no processo de mineração de ferro, estanho, manganês, caulim e ouro. O montante é 50% maior que a quantidade de lama que vazou da Samarco, que pertence à Vale e à australiana BHP.

Os rejeitos ameaçam três das maiores bacias hidrográficas brasileiras: a do Rio Paraguai, no coração do Pantanal sul-matogrossense; a do Rio Amazonas, que irriga a floresta amazônica; e a do Rio São Francisco, que banha o Nordeste.

EMPRESAS NÃO FORNECEM DOCUMENTOS

A estimativa foi feita a partir da localização das barragens, dos cursos d’água e da localização da jusante — o sentido da vazão dos rios. Foram considerados municípios em risco imediato aqueles que estão a menos de 50 quilômetros das barragens e no caminho da correnteza de igarapés, riachos e rios que banham a área.

Apenas para comparação, a lama que saiu de Mariana já percorreu cerca de dez vezes a distância de 50 quilômetros usada na estimativa e partiu do reservatório a uma velocidade de cerca de 70 km/h. Repetidas as condições da barragem de Fundão, vilarejos desses municípios seriam afetados em menos de uma hora.

Os dados usados são do DNPM e do Instituto Brasileiro de Geografia e Estatística (IBGE). Nenhuma das empresas responsáveis pelas barragens de alto risco forneceu laudos técnicos sobre o que aconteceria com seus rejeitos se as estruturas colapsassem, o que permitiria traçar uma rota mais certeira do impacto nos municípios e até dos atingidos indiretamente, por falta d’água, por exemplo. Esses estudos compõem os Planos de Ações Emergenciais de Barragens de Mineração, que incluem também a lista de procedimentos para salvamento de pessoas e contenção de desastres em caso de emergência, cuja formulação é obrigatória por lei.

— Não há porque as empresas não tornarem esses documentos públicos, é uma informação importante para a população. O comportamento é estranho e preocupante. Sugere que o plano possa não existir ou que tenha sido feito de qualquer maneira — alertou o geólogo Álvaro dos Santos, do Instituto de Pesquisas Tecnológicas.

O plano de contingência da Samarco só foi apresentado mais de uma semana após o incidente e criticado pelo Ministério Público de Minas Gerais. O documento não previa alerta sonoro nem treinamento de pessoas que moravam na área de risco.

Entre as barragens listadas como potencialmente perigosas, há empresas reincidentes em acidentes. Uma delas, a Imerys Rio Capim Caulim S/A, é responsável pelo vazamento de cerca de 450 mil metros cúbicos de rejeitos de caulim — mistura de água e barro esbranquiçado — de uma das bacias, em 2007. Os rejeitos atingiram igarapés e rios do município de Barcarena (PA). Em 2014, o Ministério Público Federal investigou pelo menos outros dois vazamentos dos tanques da companhia. Agora, a empresa aparece como controladora de três barragens de classificação A: alto risco quanto à conservação e alto dano potencial. Ainda assim, sua produção não foi reduzida nem paralisada.

O Brasil está entre os dez maiores produtores mundiais de caulim, minério fundamental para a produção de papel. A Imerys afirmou, em nota, que não paralisou as atividades porque a lei não obriga, e negou que as estruturas estejam fora de controle. “Entre 2013 e 2015 foram investidos cerca de R$ 15 milhões na segurança de operações de barragem”, disse a nota, que ressaltou ainda que sistematicamente são tomadas “medidas como monitoramento do nível das bacias, acompanhamento do nível dos lençóis freáticos e estudos de estabilidade dos maciços das bacias”. A empresa reconheceu que “onde está a planta de beneficiamento da Imerys, existem pessoas” e disse ter plano de emergência voltada para elas, mas não apresentou documentos nem detalhes.

— É óbvio que as atividades deveriam ser suspensas nesses casos, mas a fiscalização não obriga. Aliás, não há nem prazo para que a empresa melhore suas estruturas, ela pode fazer quando quiser — diz a procuradora Zani Cajueiro, especialista no assunto.

Em Corumbá (MS), a Vale controla a Urucum Mineração, dona de dois reservatórios de classificação A, usados na extração de manganês. Esse tipo de atividade costuma produzir como rejeito quantidades de arsênio, substância altamente tóxica, de acordo com o Centro de Tecnologia Mineral (Cetem), do Ministério da Tecnologia. A Vale negou que o rejeito seja perigoso e disse que manteve as operações a despeito do resultado negativo das condições das estruturas. Afirmou ainda que inspeções feitas em 2015 reenquadraram as bacias para baixo e médio risco, mas não apresentou documentos que comprovem isso.

Já a Gerdau AçoMinas, controladora da Barragem Bocaina em Ouro Preto (MG), disse que, em análise do fim de 2014, o reservatório foi considerado de baixo risco e que está fora de operação. Apresentou um documento do DNPM que mostra a mudança de classificação para nível C. No entanto, a página não tem data.

Dona de bacias de água barrenta encravadas no meio da floresta amazônica, a Taboca Mineração é a empresa com maior número de barragens na lista: são dez, usadas para mineração de estanho. A empresa admitiu que, em caso de rompimento, a maior delas poderia provocar uma onda de cinco metros de rejeitos, que atingiria áreas indígenas. Afirmou que nas bacias há água e areia de granito. As estruturas não estão em operação e passam por recuperação ambiental. A Taboca afirmou que adota criteriosos padrões de segurança, “inclusive com mais rigor que o exigido pela legislação”.

Especialistas, no entanto, questionam as condições das barragens, mesmo daquelas que não estão em situação de alto risco. Em Mariana, a barragem rompida era considerada de baixo risco.

— Quem produz os laudos são as próprias empresas ou consultorias contratadas por elas. A raposa cuida do galinheiro — disse Francisco Fernandes, pesquisador do Cetem.

O DNPM não respondeu à reportagem.

Menos de 3% das multas ambientais cobradas no Brasil são pagas (El País)

DESASTRE EM MARIANA »

Empresas poluidoras ou responsáveis por desastres protelam pagamento por meio judicial

 /  

Brasília / São Paulo 21 NOV 2015 – 13:43 BRST

Localidade de Bento Rodrigues devastada após rompimento de barragem. / ROGÉRIO ALVES (FOTOS PÚBLICAS)

De cada 100 reais em multas aplicadas pelo Instituto Brasileiro de Meio Ambiente (Ibama) desde 2011 para quem infringiu regras ambientais, menos de três reais entraram nos caixas do Governo federal. Os dados constam de um relatório do órgão que é entregue ao Tribunal de Contas da União (TCU) anualmente. Entre janeiro 2011 e setembro de 2015, foram aplicados 16,5 bilhões de reais em punições, por exemplo, a empresas que emitiram gases poluidores acima do limite aceitável, petroleiras responsáveis por derramamento de óleo no mar ou madeireiras que desmataram áreas proibidas, entre outros. Desse valor, apenas 494,2 milhões acabaram sendo efetivamente pagos pelas empresas infratoras.

O assunto ganha fôlego depois do acidente de Mariana que matou aos menos 11 pessoas, número que pode subir para 23, uma vez que outras 12 estão desaparecidas. No cálculo do Ibama ainda não está relacionada a multa de 250 milhões de reais aplicada à mineradora Samarco, responsável pelo desastre na cidade mineira de Mariana e no rio Doce, que atinge os Estados de Minas Gerais e o Espírito Santo. O rompimento de uma barragem desta mineradora, que é controlada pela Vale, a maior mineradora do Brasil, e pela australiana BHP (a maior do mundo), resultou em um tsunami de lama que devastou ao menos três municípios mineiros e já alcançou o estado do Espírito Santo.

Entre os motivos para se ter uma arrecadação tão baixa, em comparação com os valores de multas aplicados, é o excesso de recursos judiciais a que tem direito as companhias. Quando uma empresa recebe um auto de infração ela tem ao menos duas instâncias administrativas para recorrer dentro do próprio Ibama. Além disso, pode buscar um aparo do Judiciário para evitar ou protelar o pagamento.

O baixo número de autoridades julgadoras das ações administrativas – hoje são sete servidores com essa função nas últimas instâncias, em Brasília, para analisar cerca de 14.000 casos anuais –, também colabora para a lentidão nos julgamentos. Conforme fontes do Ibama, na área administrativa, um processo leva até três anos para ser concluído. Ou seja, com mais recursos financeiros, as empresas colocam seus advogados para brecar as punições com mais velocidade que os fiscais podem empregar para cobrar respeito à legislação. Assim, o Governo fica atrás com um funil para lidar com as agressões ao meio ambiente, que podem desembocar em tragédias como a de Mariana. A lentidão levou a milhares de crimes prescritos entre 2012 e 2013, quando 8.580 processos perderam o prazo legal para condenar os autores das infrações, segundo o relatório de gestão entregue ao TCU.

O Ibama tem defendido mudanças nas regras ambientais para alterar o limite de 50 milhões de reais.

Há um esforço pela melhoria desse quadro há alguns anos. Em 2013, por exemplo, a média de tempo para a conclusão da análise de um auto de infração era de quatro anos e três meses. Em 2012, cinco anos e sete meses.

Os dados dos relatórios obtidos pelo EL PAÍS somados ao, em alguns casos, reduzido valor da multa em comparação com o tamanho do dano ambiental  – o teto das multas no Brasil é de 50 milhões de reais – implicam na precipitada sensação de impunidade. Ocorre que as multas não são o único instrumento para punir as empresas poluidoras ou responsáveis por desmatamentos. Para interferir no patrimônio das infratoras, o Ibama pode sugerir o embargo, a interdição ou a suspensão do registro de funcionamento. Sem poder funcionar, ela não consegue fazer o dinheiro circular e, algumas vezes, se vê forçada a pagar as multas e se adequar às regras ambientais. Isso tem ocorrido com frequência em relação às madeireiras que atuam principalmente na Amazônia.

Uma outra frente é inscrever as infratoras no Cadastro dos Inadimplentes do Governo Federal (Cadin). Uma vez com o nome sujo, as empresas não podem assinar contratos com a União nem obter uma série de benefícios como isenções fiscais ou créditos em bancos públicos.

Mas, quando se compara o valor da multa inicial da Samarco (250 milhões de reais, somando cinco infrações, que vão da poluição dos rios ao lançamento de resíduos danosos à biodiversidade) com a paga pela British Petroleum, por exemplo, de 20,7 bilhões de reais pelo vazamento de petróleo no Golfo do México em 2010, a impressão é que o Brasil precisa ser mais rigoroso no assunto.

O Ibama tem defendido mudanças nas regras ambientais para alterar o limite de 50 milhões de reais. Na última quarta-feira, em uma audiência na Câmara dos Deputados que discutiu o desastre de Mariana, o diretor de proteção ambiental do órgão, Luciano Evaristo, externou essa posição do instituto. “Quando se limita uma autuação a 50 milhões de reais, o empreendedor que tem um custo de 500 milhões de reais para segurança vai preferir deixar tudo cair, porque o valor da multa será menor. Temos que rever esse valor máximo”, afirmou.

Apesar do valor das multas aplicadas pelo Ibama parecer pequeno diante do dano causado pela tragédia, o presidente da Comissão de Direito Ambiental da OAB Minas, Mário Werneck, ressalta que não se pode confundir essa penalidade com a indenização total que a Samarco terá que pagar. “Só com a finalização da ação civil pública será possível mensurar o que terá que ser repassado pela empresa para a recuperação ambiental da região afetada e a reparação dos danos às vítimas”, explica Mário Werneck.

“O que acontece aqui é que temos apenas 4 fiscais, estamos em cima de uma bomba atômica em Minas Gerais”. – Presidente da Comissão de Direito Ambiental da OAB Minas, Mário Wernek

Nesta quarta-feira, a mineradora recebeu uma nova notificação de multa. Dessa vez ,ela foi notificada pela Subsecretaria Estadual de Fiscalização de Meio Ambiente de Minas, que penalizou a mineradora em 112, 69 milhões de reais pelos danos ambientais causados pelo rompimento da Barragem Fundão, no início do mês. A Samarco confirmou o recebimento da notificação e terá o prazo de até 20 dias do recebimento do auto de infração para pagar a multa ou apresentar a defesa.

A pressão sobre a mineradora deve crescer com uma ação conjunta que deve ser impetrada pelo Governo de Minas Gerais e Espírito Santo na Justiça, segundo informa o O Estado de S. Paulo deste sábado. O governador capixaba Paulo Hartung afirmou ao jornal que um processo do gênero foi adotado nos Estados Unidos pelos Estados atingidos pelo vazamento da BP em 2010. O desastre de Mariana ganhou a boca do povo no Brasil e a cobrança por uma punição tem sido crescente. Nesta sexta, o vocalista da banda Pearl Jam, Eddie Vedder, que se apresentava em Belo Horizonte, capital mineira, leu um texto em português para falar do desastre de Mariana. “Esperamos que eles sejam punidos, duramente punidos para que nunca esqueçam o triste desastre causado por eles”, disse ele, para delírio da plateia.

Multas anistiadas

Com um programa de concessões em infraestrutura lançado este ano, que prevê investimentos de até 200 bilhões de reais, o Governo brasileiro deve ser cada vez mais cobrado por uma legislação ambiental eficiente diante dos problemas que tendem a surgir nesses empreendimentos. Atualmente, além das multas ambientais não serem pagas pela maioria das empresas, algumas infrações são anistiadas por falta de recursos para bancar os custos dos processos judiciais. Em agosto, o governador mineiro, Fernando Pimentel (PT), sancionou uma lei que permite ao Sistema Estadual do Meio Ambiente e Recursos Hídricos (Sisema) anistiar multas ambientais de até 15.000 reais que foram emitidas até o fim de 2012. A medida também será aplicada para infrações de até 5.000 reais que foram notificadas em 2013 e 2014 e deve anistiar cerca de 120 mil multas.

“Um processo de cobrança judicial, hoje, para o Estado de Minas Gerais, custa em torno de 16 mil reais, segundo cálculos da Advocacia Geral do Estado. Qualquer cobrança de crédito abaixo desse valor significa que o Estado paga para receber”, explicou o secretário de Estado do Meio Ambiente e Desenvolvimento Sustentável, Sávio Souza Cruz por meio de nota enviada pelo Sisema.

Werneck é contra a medida já que, segundo ele, muitas empresas já deixam de pagar porque sabem que serão anistiadas. “Se eu aplico multas elas precisam ser cobradas, mas a verdade é que não há um corpo técnico para atuar. Se eles resgatassem essas multas poderiam inclusive aumentar o pessoal, a fiscalização. É um absurdo”, explica.

Para o presidente da Comissão de Direito Ambiental da OAB Minas, Mário Werneck, é preciso estudar um novo modelo de barragem e aplicar uma maior fiscalização da atividade já que, segundo ele, Minas Gerais possui 450 barragens de rejeitos e 45 delas estão com as licenças desatualizadas, à espera de revalidação. “Mas o que acontece aqui é que temos apenas quatro fiscais. Estamos em cima de uma bomba atômica em Minas Gerais”.

MAIS INFORMAÇÕES

Preventing famine with mobile phones (Science Daily)

Date: November 19, 2015

Source: Vienna University of Technology, TU Vienna

Summary: With a mobile data collection app and satellite data, scientists will be able to predict whether a certain region is vulnerable to food shortages and malnutrition, say experts. By scanning Earth’s surface with microwave beams, researchers can measure the water content in soil. Comparing these measurements with extensive data sets obtained over the last few decades, it is possible to calculate whether the soil is sufficiently moist or whether there is danger of droughts. The method has now been tested in the Central African Republic.


Does drought lead to famine? A mobile app helps to collect information. Credit: Image courtesy of Vienna University of Technology, TU Vienna

With a mobile data collection app and satellite data, scientists will be able to predict whether a certain region is vulnerable to food shortages and malnutrition. The method has now been tested in the Central African Republic.

There are different possible causes for famine and malnutrition — not all of which are easy to foresee. Drought and crop failure can often be predicted by monitoring the weather and measuring soil moisture. But other risk factors, such as socio-economic problems or violent conflicts, can endanger food security too. For organizations such as Doctors without Borders / Médecins Sans Frontières (MSF), it is crucial to obtain information about vulnerable regions as soon as possible, so that they have a chance to provide help before it is too late.

Scientists from TU Wien in Vienna, Austria and the International Institute for Applied Systems Analysis (IIASA) in Laxenburg, Austria have now developed a way to monitor food security using a smartphone app, which combines weather and soil moisture data from satellites with crowd-sourced data on the vulnerability of the population, e.g. malnutrition and other relevant socioeconomic data. Tests in the Central African Republic have yielded promising results, which have now been published in the journal PLOS ONE.

Step One: Satellite Data

“For years, we have been working on methods of measuring soil moisture using satellite data,” says Markus Enenkel (TU Wien). By scanning Earth’s surface with microwave beams, researchers can measure the water content in soil. Comparing these measurements with extensive data sets obtained over the last few decades, it is possible to calculate whether the soil is sufficiently moist or whether there is danger of droughts. “This method works well and it provides us with very important information, but information about soil moisture deficits is not enough to estimate the danger of malnutrition,” says IIASA researcher Linda See. “We also need information about other factors that can affect the local food supply.” For example, political unrest may prevent people from farming, even if weather conditions are fine. Such problems can of course not be monitored from satellites, so the researchers had to find a way of collecting data directly in the most vulnerable regions.

“Today, smartphones are available even in developing countries, and so we decided to develop an app, which we called SATIDA COLLECT, to help us collect the necessary data,” says IIASA-based app developer Mathias Karner. For a first test, the researchers chose the Central African Republic- one of the world’s most vulnerable countries, suffering from chronic poverty, violent conflicts, and weak disaster resilience. Local MSF staff was trained for a day and collected data, conducting hundreds of interviews.

“How often do people eat? What are the current rates of malnutrition? Have any family members left the region recently, has anybody died? — We use the answers to these questions to statistically determine whether the region is in danger,” says Candela Lanusse, nutrition advisor from Doctors without Borders. “Sometimes all that people have left to eat is unripe fruit or the seeds they had stored for next year. Sometimes they have to sell their cattle, which may increase the chance of nutritional problems. This kind of behavior may indicate future problems, months before a large-scale crisis breaks out.”

A Map of Malnutrition Danger

The digital questionnaire of SATIDA COLLECT can be adapted to local eating habits, as the answers and the GPS coordinates of every assessment are stored locally on the phone. When an internet connection is available, the collected data are uploaded to a server and can be analyzed along with satellite-derived information about drought risk. In the end a map could be created, highlighting areas where the danger of malnutrition is high. For Doctors without Borders, such maps are extremely valuable. They help to plan future activities and provide help as soon as it is needed.

“Testing this tool in the Central African Republic was not easy,” says Markus Enenkel. “The political situation there is complicated. However, even under these circumstances we could show that our technology works. We were able to gather valuable information.” SATIDA COLLECT has the potential to become a powerful early warning tool. It may not be able to prevent crises, but it will at least help NGOs to mitigate their impacts via early intervention.


Story Source:

The above post is reprinted from materials provided by Vienna University of Technology, TU ViennaNote: Materials may be edited for content and length.


Journal Reference:

  1. Markus Enenkel, Linda See, Mathias Karner, Mònica Álvarez, Edith Rogenhofer, Carme Baraldès-Vallverdú, Candela Lanusse, Núria Salse. Food Security Monitoring via Mobile Data Collection and Remote Sensing: Results from the Central African RepublicPLOS ONE, 2015; 10 (11): e0142030 DOI: 10.1371/journal.pone.0142030

Áreas de alto e muito alto risco (IPT)

Instituto de Pesquisas Tecnológicas assina contrato com Defesa Civil de SP para identificação de áreas de deslizamentos e inundações em 10 cidades

Um novo contrato assinado entre o Instituto de Pesquisas Tecnológicas (IPT) e a Coordenaria Estadual de Defesa Civil do Estado de São Paulo prevê o mapeamento das áreas de alto e muito alto risco a deslizamentos e inundações em 10 municípios. A relação contempla os municípios que apresentaram incidência e recorrência de eventos de ordem meteorológica, hidrológica e geológica, de acordo com dados estatísticos registrados no Sistema Integrado de Defesa Civil (SIDEC) e que ainda não possuem instrumentos de identificação de risco abrangidos no Plano Preventivo de Defesa Civil do estado.

O projeto de três meses será realizado pela Seção de Investigações, Riscos e Desastres Naturais do IPT por meio de visitas técnicas aos municípios e posterior organização das informações em mapas, imagens e documentação fotográfica em um Sistema de Informações Geográficas (SIG), a fim de subsidiar o gerenciamento das áreas e estabelecer parâmetros técnicos e sociais.

Os graus de risco considerados seguem o método desenvolvido em 2007 pelo Ministério das Cidades e IPT, o qual estabelece quatro condições potenciais de risco – “é importante ressaltar que o projeto tratará dos setores classificados como de risco alto (R3) e muito alto (R4) das 10 cidades”, afirma Marcelo Fischer Gramani, coordenador do projeto e pesquisador da Seção.

As cidades incluídas no projeto estão localizadas nas Regiões Administrativas de Presidente Prudente (Adamantina, Caiabu, Inúbia Paulista e Presidente Prudente), de Campinas (Caconde e Divinolândia), de Itapeva (Paranapanema e Tejupá), de Marília (Tupã) e de Barretos (Olímpia). Estes municípios foram indicados como prioritários por não terem informações atualizadas sobre riscos de deslizamento e/ou inundações.

As principais atividades desenvolvidas pelo IPT incluem a pesquisa bibliográfica dos levantamentos de áreas de riscos existentes, a consulta às equipes das Coordenadorias Municipais de Defesa Civil sobre o número de atendimentos efetuados nos locais que serão avaliados, a realização de vistorias de campo para levantamento de indicadores de risco e tipologias dos processos, e a elaboração de documentação fotográfica.

Os dados coletados serão analisados para fundamentar o relatório técnico, que irá conter informações como descrição da área avaliada, delimitação dos setores de risco identificados em imagem de sensores remotos, quantidade de imóveis em risco, quantidade de pessoas em risco, tipologia do processo (deslizamento, inundação, solapamento de margem) e sugestões de intervenções para minimizar ou eliminar os riscos identificados.

(IPT)

Força do El Niño deve agravar a seca que atinge o semiárido, diz Cemaden (Cemaden)

Relatório divulgado nesta quarta-feira (18) aponta para cenário de poucas chuvas no Nordeste entre fevereiro e maio de 2016. Seca atinge 910 municípios e um milhão de propriedades da agricultura familiar

Relatório divulgado nesta quarta-feira (18) pelo Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden/MCTI) aponta para um cenário de poucas chuvas na região Nordeste entre fevereiro e maio de 2016, o que deve agravar os impactos da seca que atinge a região.

Relatório da Situação Atual da Seca e Impactos no Semiárido do País também revela que choveu pouco nos últimos 90 dias, sobretudo, no Maranhão, sul da Bahia, e norte de Minas Gerais e Espírito Santo. Ainda que neste período sejam esperados índices pluviométricos mais baixos, nos últimos meses os acumulados foram abaixo da média. Segundo o Cemaden, a causa é o fenômeno El Niño, que está mais forte.

“A avaliação das condições climáticas de grande escala mostra que o fenômeno El Niño está presente, intenso e em franco desenvolvimento. Sob este condicionante, no trimestre novembro-dezembro de 2015 e janeiro de 2016, há chances mínimas de reverter o quadro crítico, apontado pelo indicador de risco agroclimático. Outra indicação decorrente deste cenário climático, altamente provável, é que já se pode inferir que a próxima estação chuvosa do norte do Nordeste (de fevereiro a maio de 2016) apresente condições de deficiência de precipitação”, diz o documento.

Cerca de um milhão de propriedades da agricultura familiar estão localizadas nas áreas afetadas pela seca, em 910 municípios. De acordo com o índice VSWI (sigla em inglês para Índice de Vegetação de Abastecimento de Água), indicador de seca agrícola, esses municípios apresentam pelo menos 50% de suas áreas agrícolas ou de pastagens em condições de déficit hídrico.

Monitoramento

De acordo com a Resolução Nº 13, de 22 de maio de 2014 do Ministério da Integração Nacional e, posteriormente, com o Decreto Presidencial Nº 8.472, de 22 de junho de 2015, o Cemaden/MCTI tem a responsabilidade de fornecer informações para as ações emergenciais adotadas pelo governo para mitigar os impactos da seca. Assim, além do monitoramento da seca, o Cemaden desenvolve um sistema de alerta de riscos de colapso de safras para a agricultura familiar do semiárido.

(Cemaden)

Site monitora em tempo real emissões de CO2 do setor elétrico no Brasil (Estadão)

Giovana Girardi

19/11/2015

Produção em termoelétricas cresceu 171,2% de 2011 a 2014 

Produção em termoelétricas cresceu 171,2% de 2011 a 2014 

De 2011 a 2014, as emissões de gases de efeito estufa do setor elétrico no Brasil cresceram 171%, enquanto a geração de energia subiu apenas 11%. A quantidade de gás carbônico (CO2) emitido por gigawatt de energia gerado passou de 32,26 para 133. Hoje o País – conhecido por ter uma matriz elétrica mais limpa, por conta da forte presença de hidrelétricas – está sujando sua geração de energia.

Dados como esses, na escala de anos, meses, semanas e dias, estão disponíveis a partir desta quinta-feira, 19, em uma nova ferramenta que monitora a geração e as emissões do setor no País. Trata-se de um subproduto do Seeg – sistema que estima desde 2013 as emissões anuais de gases de efeito estufa brasileiras. O levantamento, que traz dados totais e por setor, é feito paralelamente ao oficial do governo federal e tem oferecido essas informações de modo mais ágil.

Além dos dados anuais, agora também será possível acompanhar praticamente em tempo real como está se comportando o setor elétrico. A ferramenta entra no ar nesta quinta-feira junto com o novo relatório anual, que trará os dados de 2014. “Ter os dados anuais mostra a tendência e é muito importante. Mas aí as coisas já aconteceram. O que vemos no monitoramento em tempo real é que as decisões que são tomadas no dia a dia têm um tremendo impacto nas emissões. Isso acontece com o consumo de combustíveis, com a energia elétrica. Se mudar o preço do álcool ou da gasolina, por exemplo, muda a emissão. Então a gente queria capturar isso para poder fazer esse debate sobre as emissões e as decisões que a gente está tomando”, explica Tasso Azevedo, coordenador do Seeg.

O produto é o primeiro do que deve se tornar a série Seeg Monitor. “Começamos com o setor elétrico porque foi onde vimos que houve mais variação. Foi onde mais cresceram as emissões nos últimos quatro anos”, diz Azevedo. “E vemos que varia todo dia, toda semana, todo mês, com base nas decisões tomadas. Em três dias às vezes vemos uma variação de 15%”, complementa.

Crise hídrica. Ele se refere, por exemplo, à decisão de acionar mais as usinas termoelétricas, o que vem ocorrendo por conta da seca que atinge o País desde o ano passado. “Olhando para o monitor a gente consegue visualizar bem o que é a crise do setor elétrico”, comenta Larissa Rodrigues, da campanha de clima e energia do Greenpeace. A ONG colaborou com a elaboração da ferramenta, que foi capitaneada por técnicos do Instituto de Energia e Meio Ambiente (Iema).

O levantamento mostra que entre 2011 e 2014, a geração de eletricidade por fontes renováveis (hidráulica incluída) diminuiu 6,8%, por conta da seca. Outras fontes renováveis, principalmente eólica, subiram 67,2% no período. Mas a produção em termoelétricas cresceu muito mais: 171,2% – número que bate com o aumento das emissões.

“Ficam claros no monitor a sazonalidade das fontes e também como elas se complementam. Toda vez que a linha das hidrelétricas cai, a da eólica sobe”, afirma Marcelo Cremer, do Iema. Há uma tendência no País, especialmente para o Nordeste, de que se chove, não venta, e quando está seco, venta mais.

No site é possível acessar diversas informações. Logo no início há um gráfico que mostra os dados de geração elétrica do dia anterior, dividida pelas principais fontes (hidráulica, eólica, térmica a combustível renovável, térmica nuclear, térmica a combustível fóssil e térmica a combustível não identificado). Também dá para ver a geração nas usinas térmicas subdividida por combustível (carvão, petróleo, gás natural). A informação por dia está disponível até 1.º de janeiro de 2009. Nos próximos dias devem ser acrescentadas as informações até 2006.

Ao lado está um gráfico que mostra a evolução total das emissões do setor e por fonte de energia, também por dia, mês ou ano. Os dados representam a energia que circula na rede nacional, o chamado SIN (Sistema Interligado Nacional). Fontes isoladas e a geração distribuída (por exemplo, com solar nos telhados das casas) ainda não são contadas.

Outra opção de visualização é por subsistema gerador de energia: Norte, Nordeste, Sul, Sudeste e Centro-Oeste. E é possível fazer um zoom ainda maior na rede e olhar as emissões de cada usina do Brasil. O plano, para os próximos meses é oferecer mais informações, como outros poluentes emitidos e quanto de água está sendo consumido para o resfriamento de termoelétricas. A ideia é também traduzir como as escolhas do sistema nacional para a geração de energia refletem no valor da tarifa paga pelo consumidor.

Acordo da conferência de Paris sobre clima terá cumprimento obrigatório (Folha de S.Paulo)

Clóvis Rossi

23/11/2015

A COP21, a conferência global sobre o clima que se inicia no dia 30 em Paris, será de cumprimento obrigatório pelas partes, ao contrário do que tinha dito, na semana passada, o secretário de Estado norte-americano, John Kerry.

Kerry dissera que não sairia de Paris um tratado, mas seu chefe, o presidente Barack Obama, assinou nesta segunda-feira, 16, com seus pares do G20, texto em que afirmam “a determinação de adotar um protocolo, outro instrumento legal ou um desenlace acordado com força legal nos termos da Convenção-Quadro das Nações Unidas sobre Mudanças Climáticas”.

É o acordo que prevê limitar o aumento da temperatura na Terra a 2°C até o final do século, em relação aos níveis da era pré-industrial.

Superar esse teto, dizem os especialistas, geraria consequências apocalípticas.

Berk Ozkan/AFP
Líderes do G20 posam para a tradicional foto do grupo durante a cúpula realizada em Antalya, na Turquia
Líderes do G20 posam para a tradicional foto do grupo durante a cúpula realizada em Antalya, na Turquia

Não por acaso, o comunicado final da cúpula do G20, encerrada nesta segunda-feira, 16, em Antalya, afirma que “a mudança climática é um dos grandes desafios de nosso tempo” e que “2015 é um ano crítico, que requer ação efetiva, forte e coletiva sobre a mudança climática e seus efeitos”.

É natural nessas circunstâncias que o tema tenha sido, depois de terrorismo, o que provocou debates mais agudos na cúpula das grandes economias do planeta.

Uma das polêmicas, não resolvida no comunicado final, girou em torno da revisão das INDCs (Contribuições Pretendidas Nacionalmente Determinadas), ou seja, os compromissos que cada país estabeleceu para si próprio e que levará à COP21.

Já são 160 os países que estabeleceram suas INDCs, Brasil inclusive (a meta brasileira prevê reduzir em 43% a emissão dos gases do efeito estufa até 2030, com base no nível registrado em 2005).

“Vamos cumprir”, assegurou a presidente Dilma Rousseff, “e, se não o fizermos, teremos que prestar contas”.

REVISÃO EM CINCO ANOS

O Brasil apoiou, no G20, a tese de revisão das metas de cinco em cinco anos, mas outros países foram contra, pelo que o comunicado final não a menciona.

Dilma explicou o apoio brasileiro: a revisão a cada cinco anos permitiria analisar a incorporação de tecnologias e modalidades de financiamento que, eventualmente, abreviassem a obtenção das metas.

A presidente se diz otimista sobre o resultado de Paris, entre outras razões porque o formato mudou na comparação com Copenhague, a outra grande cúpula climática: desta vez, serão os chefes de governo que estarão na conferência no momento inicial, indicando claramente as orientações a serem seguidas.

Em Copenhague, foram os negociadores que abriram o encontro, ao qual os chefes de governo compareceram apenas do meio para o fim, com impasses já cristalizados.

AMBIENTALISTAS CRITICAM

O otimismo de Dilma, no entanto, não é compartilhado pelas entidades ambientalistas, que criticaram duramente o comunicado do G20.

“Os chefes de Estado poderiam ter oferecido um claro e poderoso sinal ante a iminência da Cúpula do Clima, pondo uma data para o fim dos subsídios a combustíveis fósseis e concordando em parar de financiar projetos de combustível fóssil ao redor do mundo”, disse, por exemplo, Ümit Sahin, da ONG Pelo Clima.

“Em vez disso” –continuou– “recuperaram posições anteriores e, ao fazê-lo, correm o risco de ficar do lado errado da história.”

Acidente em Mariana é o maior da História com barragens de rejeitos (Jornal da Ciência)

Volume de material despejado é duas vezes e meia superior ao segundo maior

A tragédia de Mariana é o maior acidente da História em volume de material despejado por barragens de rejeitos de mineração. Os 62 milhões de metros cúbicos de lama que vazaram dos depósitos da Samarco no dia 5 representam uma quantidade duas vezes e meia maior que o segundo pior acidente do gênero, ocorrido em 4 de agosto de 2014 na mina canadense de Mount Polley, na Colúmbia Britânica, diz o pesquisador Marcos Freitas, coordenador executivo do Instituto Virtual Internacional de Mudanças Globais (Ivig), ligado à Coppe/UFRJ.

Leia na íntegra: O Globo

Leia também:

O Estado de S. Paulo – Dilma diz que será criado fundo para áreas afetadas por lama

O Estado de Minas – Samarco admite que barragens correm risco de rompimento; chuva agrava situação

Conta das mudanças climáticas é mais alta para nações ricas (O Globo)

ActionAid calcula que países desenvolvidos devem doar 0,1% do PIB a fundo comum

POR O GLOBO

Mulheres polonesas conversam em frente à usina: países desenvolvidos não pagam valores justos para atenuar mudanças climáticas, diz ONG – JOE KLAMAR/AFP

RIO — Um novo estudo da ONG ActionAid denunciou ontem a diferença abissal entre as quantias exigidas e as doadas pelos países desenvolvidos para que as nações mais pobres criem medidas de adaptação contra as mudanças climáticas. Em 2013, foram destinados cerca de US$ 5 bilhões para o combate ao aquecimento global. Na próxima década, serão necessários US$ 150 bilhões por ano para combater os eventos extremos. O debate sobre financiamento está entre as prioridades da Conferência do Clima de Paris, a partir do dia 30.

De acordo com o instituto, as nações ricas deveriam dedicar pelo menos 0,1% de seu PIB a um fundo climático internacional. É um índice 70 vezes menor do que o gasto em 2008 para a adoção de políticas contra a recessão econômica.

Os EUA deveriam aumentar suas contribuições aos países pobres em mais de 154 vezes, passando dos US$ 440 milhões gastos em 2013 para US$ 67,5 bilhões em 2025.

A União Europeia precisa multiplicar os seus investimentos em 11 vezes, passando dos US$ 3,2 bilhões vistos em 2013 para US$ 36,9 bilhões em 2025.

Os cálculos são baseados nas emissões históricas — a contribuição atribuída a cada país para provocar as mudanças climáticas — e em sua capacidade de ajudar financeiramente, levando em conta os dados da Organização para a Cooperação e Desenvolvimento Econômico (OCDE).

Especialista em financiamento climático da ActionAid, Brandon Wu acredita que os países em desenvolvimento estão enfrentando sozinhos “uma crise que não causaram”.

— O problema não é falta de dinheiro — assegura. — Os EUA, por exemplo, gastam muito mais em subsídios para os combustíveis fósseis do que em medidas de adaptação ao clima. É falta de vontade política.

IMPASSE HISTÓRICO

Wu avalia que o financiamento contra as mudanças climáticas pode ser o item mais polêmico entre os discutidos na Conferência do Clima. Tradicionalmente, os países ricos e pobres discordam sobre o tamanho do rombo, e as nações desenvolvidas não concordam em assumir totalmente as indenizações contra o aquecimento global, eximindo economias emergentes, como China e Brasil, de qualquer compromisso financeiro.

— Um novo acordo (global sobre o clima) não é possível sem esclarecimento sobre como serão as finanças — pondera. — Os países em desenvolvimento não podem adaptar suas economias, livrando-as das emissões de carbono, sem apoio internacional. Talvez não consigamos saber exatamente quanto será investido por cada país, mas precisamos impor novos prazos e objetivos. Aqueles discutidos até agora são vagos demais.

Já Osvaldo Stella, diretor do Programa de Mudanças Climáticas do Instituto de Pesquisa Ambiental da Amazônia, acredita que as negociações financeiras não devem ser uma prioridade.

— O mais importante é discutir que metas podem impedir o avanço da temperatura global — defende. — O financiamento é um jogo político. Resistimos a abandonar o petróleo, da mesma forma como, antes, não queríamos largar o carvão. Mais do que abrir o cofre, precisamos pensar em um novo modelo econômico, que tipo de capitalismo devemos adotar.

ON reúne placas fotográficas que contribuíram para comprovar Teoria da Relatividade (MCTI)

Equipe selecionou 61 placas do Observatório Nacional que documentam eclipse de 1919. Observação em Sobral (CE) ajudou a demonstrar conclusões de Albert Einstein

Uma equipe do Observatório Nacional (ON/MCTI) fez um levantamento das placas fotográficas que fazem parte do resultado da expedição que observou o eclipse total do Sol na cidade de Sobral (CE) em 1919 e contribuiu para a comprovação da Teoria da Relatividade Geral, de Albert Einstein.

Composto pelo astrônomo Carlos H. Veiga, pelas bibliotecárias Katia T. dos Santos e M. Luiza Dias e pelo analista Renaldo N. da S. Junior, o grupo avaliou 900 placas fotográficas do acervo da biblioteca do Observatório. Pela importância científica, foram selecionadas as 61 placas das observações do famoso eclipse, que ainda guardam fielmente a imagem da lua nova encobrindo perfeitamente a imagem do Sol, registradas num dia muito especial para a ciência.

A partir da segunda metade do século XIX, as imagens fotográficas eram registradas em placas de vidro. Esse dispositivo, coberto por uma emulsão contendo sais de prata sensíveis à luz, era usado não só para registrar o cotidiano, mas também pela comunidade astronômica, até a última década do século passado, para observação de corpos celestes. Por ter um baixo coeficiente de dilatação térmica, as placas de vidro garantiam, ao longo do tempo, a precisão e confiabilidade das medidas astronômicas.

A fotografia permitiu um grande avanço para a astronomia e para o desenvolvimento da astrofísica, passando a ter um papel de detector, comparando os dados observacionais com o distanciamento temporal de grandes estruturas, como as galáxias. Em 1873 foi iniciado um programa sistemático de observação da atividade das manchas solares e eclipses e da coroa solar.

Uma manhã que mudou a ciência

Na manhã de 29 de maio de 1919, um fenômeno celeste trocaria, por alguns minutos, o dia pela noite numa pacata cidade do Nordeste brasileiro. Os minutos de duração do fenômeno deveriam ser aproveitados ao máximo. Era a oportunidade para comprovar experimentalmente uma nova afirmação científica prevista por uma teoria idealizada por Einstein (1879-1955), físico de origem alemã: a relatividade geral, que pode ser entendida como uma teoria que explica os fenômenos gravitacionais.

Sobral, a cidade cearense, seria o palco que ajudaria a confirmar um efeito previsto pela relatividade geral: a deflexão da luz, na qual um feixe de luz (neste caso, vindo de uma estrela) deveria ter sua trajetória encurvada (ou desviada) ao passar nas proximidades de um forte campo gravitacional (no caso, gerado pelo Sol).

Esse desvio da luz faz com que a estrela observada seja vista em uma posição aparentemente diferente de sua posição real. O objetivo dos astrônomos era medir um pequeno ângulo formado por essas duas posições.

Naquele dia, aconteceria um eclipse solar total. Os cálculos previam que deveria haver, pelo menos, uma estrela localizada no fundo de céu cuja luz passasse próxima ao bordo solar. Com essa configuração e boas condições meteorológicas, haveria grande chance de comprovar a nova teoria.

Leia mais e veja outras imagens do evento histórico, além de indicações bibliográficas.

(MCTI)

Indígena de 81 anos aprende a usar computador e cria dicionário para salvar seu idioma da extinção (QGA)

Marie Wilcox é a última pessoa no mundo fluente no idioma Wukchumi

Conheça Marie Wilcox, uma bisavó de 81 anos e a última pessoa no mundo fluente no idioma Wukchumi. O povo Wukchumi costumava ter uma população de 50.000 pessoas antes de terem contato com os colonizadores, mas agora são somente 200 pessoas vivendo no Vale de São Joaquim, na Califórnia. Sua linguagem foi morrendo aos poucos a cada nova geração, mas Marie se comprometeu com a tarefa de revivê-la, aprendendo a usar um computador para que conseguisse começar a escrever o primeiro dicionário Wukchumni. O processo levou sete anos, e agora que terminou ela não pretende parar seu trabalho de imortalizar sua língua nativa.

O documentário “Marie’s Dictionary”, disponível no Youtube, nos mostra a motivação de Marie e seu trabalho árduo para trazer de volta e registrar um idioma que foi quase totalmente apagado pela colonização, racismo institucionalizado e opressão.

No vídeo, Marie admite ter dúvidas sobre a gigantesca tarefa que ela se comprometeu: “Eu tenho dúvidas sobre minha língua, e sobre quem quer mantê-la viva. Ninguém parece querer aprender. É estranho que eu seja a última… Tudo vai estar perdido algum dia desses, não sei”.

Mas com sorte, esse dia ainda vai demorar. Marie e sua filha Jennifer agora dão aulas para membros da tribo, e trabalham num dicionário em áudio para acompanhar o dicionário escrito que ela já criou.

Veja o vídeo (em inglês).

(QGA)

Anna Tsing On the Precarious Possibilities of Life in Capitalist Ruins

Avatar de dmfsynthetic zerØ

“Anthropologist Anna Lowenhaupt-Tsing examines our precarious present – where environmental degradation and economic alienation threaten to dismantle ways of life (and actual life itself) – and explains why collaborative survival in the future requires a radical re-imagining of growth, modernity and progress.Anna is author of The Mushroom at the End of the World: On the Possibility of Life in Capitalist Ruins from Princeton University Press”

Ver o post original

Full-scale architecture for a quantum computer in silicon (Science Daily)

Scalable 3-D silicon chip architecture based on single atom quantum bits provides a blueprint to build operational quantum computers

Date:
October 30, 2015
Source:
University of New South Wales
Summary:
Researchers have designed a full-scale architecture for a quantum computer in silicon. The new concept provides a pathway for building an operational quantum computer with error correction.

This picture shows from left to right Dr Matthew House, Sam Hile (seated), Sciential Professor Sven Rogge and Scientia Professor Michelle Simmons of the ARC Centre of Excellence for Quantum Computation and Communication Technology at UNSW. Credit: Deb Smith, UNSW Australia 

Australian scientists have designed a 3D silicon chip architecture based on single atom quantum bits, which is compatible with atomic-scale fabrication techniques — providing a blueprint to build a large-scale quantum computer.

Scientists and engineers from the Australian Research Council Centre of Excellence for Quantum Computation and Communication Technology (CQC2T), headquartered at the University of New South Wales (UNSW), are leading the world in the race to develop a scalable quantum computer in silicon — a material well-understood and favoured by the trillion-dollar computing and microelectronics industry.

Teams led by UNSW researchers have already demonstrated a unique fabrication strategy for realising atomic-scale devices and have developed the world’s most efficient quantum bits in silicon using either the electron or nuclear spins of single phosphorus atoms. Quantum bits — or qubits — are the fundamental data components of quantum computers.

One of the final hurdles to scaling up to an operational quantum computer is the architecture. Here it is necessary to figure out how to precisely control multiple qubits in parallel, across an array of many thousands of qubits, and constantly correct for ‘quantum’ errors in calculations.

Now, the CQC2T collaboration, involving theoretical and experimental researchers from the University of Melbourne and UNSW, has designed such a device. In a study published today in Science Advances, the CQC2T team describes a new silicon architecture, which uses atomic-scale qubits aligned to control lines — which are essentially very narrow wires — inside a 3D design.

“We have demonstrated we can build devices in silicon at the atomic-scale and have been working towards a full-scale architecture where we can perform error correction protocols — providing a practical system that can be scaled up to larger numbers of qubits,” says UNSW Scientia Professor Michelle Simmons, study co-author and Director of the CQC2T.

“The great thing about this work, and architecture, is that it gives us an endpoint. We now know exactly what we need to do in the international race to get there.”

In the team’s conceptual design, they have moved from a one-dimensional array of qubits, positioned along a single line, to a two-dimensional array, positioned on a plane that is far more tolerant to errors. This qubit layer is “sandwiched” in a three-dimensional architecture, between two layers of wires arranged in a grid.

By applying voltages to a sub-set of these wires, multiple qubits can be controlled in parallel, performing a series of operations using far fewer controls. Importantly, with their design, they can perform the 2D surface code error correction protocols in which any computational errors that creep into the calculation can be corrected faster than they occur.

“Our Australian team has developed the world’s best qubits in silicon,” says University of Melbourne Professor Lloyd Hollenberg, Deputy Director of the CQC2T who led the work with colleague Dr Charles Hill. “However, to scale up to a full operational quantum computer we need more than just many of these qubits — we need to be able to control and arrange them in such a way that we can correct errors quantum mechanically.”

“In our work, we’ve developed a blueprint that is unique to our system of qubits in silicon, for building a full-scale quantum computer.”

In their paper, the team proposes a strategy to build the device, which leverages the CQC2T’s internationally unique capability of atomic-scale device fabrication. They have also modelled the required voltages applied to the grid wires, needed to address individual qubits, and make the processor work.

“This architecture gives us the dense packing and parallel operation essential for scaling up the size of the quantum processor,” says Scientia Professor Sven Rogge, Head of the UNSW School of Physics. “Ultimately, the structure is scalable to millions of qubits, required for a full-scale quantum processor.”

Background

In classical computers, data is rendered as binary bits, which are always in one of two states: 0 or 1. However, a qubit can exist in both of these states at once, a condition known as a superposition. A qubit operation exploits this quantum weirdness by allowing many computations to be performed in parallel (a two-qubit system performs the operation on 4 values, a three-qubit system on 8, and so on).

As a result, quantum computers will far exceed today’s most powerful super computers, and offer enormous advantages for a range of complex problems, such as rapidly scouring vast databases, modelling financial markets, optimising huge metropolitan transport networks, and modelling complex biological molecules.

How to build a quantum computer in silicon https://youtu.be/zo1q06F2sbY

Scientists call for national effort to understand and harness Earth’s microbes (Science Daily)

Berkeley Lab researchers co-author Science article proposing Unified Microbiome Initiative

Date:
October 29, 2015
Source:
DOE/Lawrence Berkeley National Laboratory
Summary:
To understand and harness the capabilities of Earth’s microbial ecosystems, nearly fifty scientists propose a national effort in the US called the Unified Microbiome Initiative.

This colorized microscopy image hints at the complexity of microbial life. It shows two bacterial cells in soil. The bacteria glue clay particles together and protect themselves from predators. This also stabilizes soil and stores carbon that could otherwise enter the atmosphere. Credit: Manfred Auer, Berkeley Lab

Microbes are essential to life on Earth. They’re found in soil and water and inside the human gut. In fact, nearly every habitat and organism hosts a community of microbes, called a microbiome. What’s more, microbes hold tremendous promise for innovations in medicine, energy, agriculture, and understanding climate change.

Scientists have made great strides learning the functions of many microbes and microbiomes, but this research also highlights how much more there is to know about the connections between Earth’s microorganisms and a vast number of processes. Deciphering how microbes interact with each other, their hosts, and their environment could transform our understanding of the planet. It could also lead to new antibiotics, ways to fight obesity, drought-resistant crops, or next-gen biofuels, to name a few possibilities.

To understand and harness the capabilities of Earth’s microbial ecosystems, nearly fifty scientists from Department of Energy national laboratories, universities, and research institutions have proposed a national effort called the Unified Microbiome Initiative. The scientists call for the initiative in a policy forum entitled “A unified initiative to harness Earth’s microbiomes” published Oct. 30, 2015, in the journal Science.

The Unified Microbiome Initiative would involve many disciplines, including engineering, physical, life, and biomedical sciences; and collaborations between government institutions, private foundations, and industry. It would also entail the development of new tools that enable a mechanistic and predictive understanding of Earth’s microbial processes.

Among the authors of the Science article are several scientists from the Department of Energy’s Lawrence Berkeley National Laboratory (Berkeley Lab). These are Berkeley Lab Director Paul Alivisatos; Eoin Brodie, Deputy Director of the Climate and Ecosystem Sciences Division; Mary Maxon, the Biosciences Area Principal Deputy; Eddy Rubin, Director of the Joint Genome Institute; and Peidong Yang, a Faculty Scientist in the Materials Sciences Division. Alivisatos is also the Director of the Kavli Energy Nanoscience Institute, and Yang is the Co-Director.

Berkeley Lab has a long history of microbial research, from its pioneering work in metagenomics at the Joint Genome Institute, to the more recent Microbes to Biomes initiative, which is designed to harness microbes in ways that protect fuel and food supplies, environmental security, and health.

The call for the Unified Microbiome Initiative comes at a critical time in microbial research. DNA sequencing has enabled scientists to detect microbes in every biological system, thriving deep underground and inside insects for example, and in mind-boggling numbers: Earth’s microbes outnumber the stars in the universe. But to benefit from this knowledge, this descriptive phase must transition to a new phase that explores how microbial communities function, how to predict their actions, and how to make use of them.

“Technology has gotten us to the point where we realize that microbes are like dark matter in the universe. We know microbes are everywhere, and are far more complex than we previously thought, but we really need to understand how they communicate and relate to the environment,” says Brodie.

“And just like physicists are trying to understand dark matter, we need to understand the functions of microbes and their genes. We need to study what life is like at the scale of microbes, and how they relate to the planet,” Brodie adds.

This next phase of microbiome research will require strong ties between disciplines and institutions, and new technologies that accelerate discovery. The scientists map out several opportunities in the Science article. These include:

  • Tools to understand the biochemical functions of gene products, a large portion of which are unknown.
  • Technologies that quickly generate complete genomes from individual cells found in complex microbiomes.
  • Imaging capabilities that visualize individual microbes, along with their interactions and chemical products, in complex microbial networks.
  • Adaptive models that capture the complexity of interactions from molecules to microbes, and from microbial communities to ecosystems.

Many of these new technologies would be flexible platforms, designed initially for microbial research, but likely to find uses in other fields.

Ten years after the launch of the Unified Microbiome Initiative, the authors of the Science article envision an era in which a predictive understanding of microbial processes enables scientists to manage and design microbiomes in a responsible way–a key step toward harnessing their capabilities for beneficial applications.

“This is an incredibly exciting time to be involved in microbial research,” says Brodie. “It has the potential to contribute to so many advances, such as in medicine, energy, agriculture, biomanufacturing, and the environment.”


Journal Reference:

  1. A. P. Alivisatos, M. J. Blaser, E. L. Brodie, M. Chun, J. L. Dangl, T. J. Donohue, P. C. Dorrestein, J. A. Gilbert, J. L. Green, J. K. Jansson, R. Knight, M. E. Maxon, M. J. McFall-Ngai, J. F. Miller, K. S. Pollard, E. G. Ruby, S. A. Taha. A unified initiative to harness Earth’s microbiomesScience, 2015; 350 (6260): 507 DOI: 10.1126/science.aac8480

Wimps or warriors? Honey bee larvae absorb the social culture of the hive, study finds (Science Daily)

Date:
October 29, 2015
Source:
University of Illinois at Urbana-Champaign
Summary:
Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them, researchers report.

Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them. The researchers don’t yet know how the social information is being transmitted to the larvae. Credit: © gertrudda / Fotolia

Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them, researchers report in the journal Scientific Reports.

“We are interested in the general issue of how social information gets under the skin, and we decided to take a chance and ask about very young bees that are weeks away from adulthood,” said University of Illinois entomology professor and Carl R. Woese Institute for Genomic Biology director Gene Robinson, who led the research with postdoctoral researcher Clare Rittschof and Pennsylvania State University professor Christina Grozinger.

“In a previous study, we cross-fostered adult bees from gentle colonies into more aggressive colonies and vice versa, and then we measured their brain gene expression,” Robinson said. “We found that the bees had a complex pattern of gene expression, partly influenced by their own personal genetic identity and partly influenced by the environment of the colony they were living in. This led us to wonder when they become so sensitive to their social environment.”

In the new study, the researchers again cross-fostered bees, but this time as larvae in order to manipulate the bees’ early life experiences. The larvae were from a variety of queens, with sister larvae divided between high- and low-aggression colonies.

The larvae were removed from their foster hives and put into a neutral laboratory environment one day before they emerged as adults. The researchers tested their aggressiveness by exposing them to an intruder bee.

They were surprised to see that the bees retained the social information they had acquired as larvae. Those raised in aggressive colonies were 10 to 15 percent more aggressive than those raised in the gentler colonies.

“Even sisters born of the same queen but reared in different colonies differed in aggression, demonstrating the potency of this environmental effect,” Robinson said.

The finding was surprising in part because bee larvae undergo metamorphosis, which radically changes the structure of their bodies and brains.

“It’s hard to imagine what elements of the brain are influenced during the larval period that then survive the massive reorganization of the brain to bias behavior in this way,” Robinson said.

The aggressive honey bees also had more robust immune responses than their gentler counterparts, the team found.

“We challenged them with pesticides and found that the aggressive bees were more resistant to pesticide,” Grozinger said. “That’s surprising considering what we know from vertebrates, where stress in early life leads to a diminishment of resilience. With the bees, we saw an increase in resilience.”

This finding also suggests that the effects of the social environment on young bees could extend beyond brain function and behavior, Robinson said.

The researchers don’t yet know how the social information is being transmitted to the larvae. They tested whether the bees differed in size, which would suggest that they had been fed differently, but found no size differences between aggressive and gentle bees.

“Adult honey bees are well known for their sociality, their communication skills and their ability to adjust their behavior in response to the needs of the hive,” Rittschof said.

“In mammals, including humans, the effects of early life social interactions often persist throughout adulthood despite additional social experiences,” she said. “A similar pattern in honey bees has broad implications for our understanding of social behavior within the hive and in comparison with other species.”

Video: https://www.youtube.com/watch?v=4amHuHnk5XM


Journal Reference:

  1. Clare C. Rittschof, Chelsey B. Coombs, Maryann Frazier, Christina M. Grozinger, Gene E. Robinson. Early-life experience affects honey bee aggression and resilience to immune challengeScientific Reports, 2015; 5: 15572 DOI: 10.1038/srep15572

Mudança climática pode reduzir capacidade hidrelétrica em até 20% (Estadão)

Giovana Girardi

29 de outubro de 2015

Temperaturas mais elevadas, mudança no regime de chuvas e aumento de eventos climáticos extremos são apenas uma parte da história das mudanças climáticas. A forma como essas mudanças vão impactar agricultura, geração de energia, infraestrutura, oferta d’água e saúde é o outrolado que acaba de ganhar detalhes para o Brasil.

Considerado o mais importante estudo sobre como diversos setores vão reagir diante do clima modificado, o projeto Brasil 2040 – Alternativas de Adaptação às Mudanças Climáticas foi publicado ontem no site da extinta Secretaria de Assuntos Estratégicos(SAE) da Presidência.

Um dos principais resultados é sobre como a oferta de água será afetada. As regiões Norte, Nordeste e Centro-Oeste do Brasil deverão sofrer redução. A Sul pode ter um leve aumento na média, mas com uma distribuição muito irregular. Para o Sudeste, há incertezas. Isso pode ter impactos diretos na agricultura e na energia.

Usina hidrelétrica Belo Monte, no pior cenário de mudanças climáticas, pode ser afetada por falta de chuvas e deixar de compensar financeiramente

Usina hidrelétrica Belo Monte, no pior cenário de mudanças climáticas, pode ser afetada por falta de chuvas e deixar de compensar financeiramente

Diversos grupos de pesquisa do Brasil trabalharam com dados de dois modelos climáticos, que, por sua vez, levaram em conta dois cenários do IPCC (o painel da ONU de cientistas do clima). Um, mais pessimista, que considera que o mundo não vai agir para combater as mudanças climáticas, e um intermediário, que imagina que haverá algumas ações, mas não o suficiente, e o mundo ainda vai aquecer pelo menos 3°C. Este segundo cenário é condizente com as propostas de redução das emissões apresentadas como contribuição para a Conferência do Clima de Paris.

No pior cenário, até 2040 a capacidade das hidrelétricas pode ficar de 8% a 20% menor. Já no melhor cenário, a capacidade diminui entre 4% e 15%. Ou seja, mesmo se o mundo fizer tudo o que está prometendo para combater o aquecimento global, ainda podemos ter impacto na produção de energia. Usinas na Amazônia como a de Belo Monte ou o novo projeto pensado para o rio Tapajós seriam inviabilizados.

Hoje o Brasil ainda é altamente dependente da água para a geração de energia elétrica. Cerca de 80% vêm de hidrelétricas. “O que por um lado torna a matriz energética brasileira mais limpa que a média mundial, por outro a torna vulnerável se o clima mudar”, afirma Roberto Schaeffer, da UFRJ, coordenador do capítulo de energia.

O gargalo, principalmente nas hidrelétricas localizadas na Amazônia, é que elas não têm reservatórios. Com isso, não têm estoque de água na seca. “Essa vulnerabilidade que a mudança climática traz talvez nos faça repensar se não é melhor voltar a ter hidrelétricas com reservatório”, complementa.

O Brasil pode ficar mais dependente de térmicas. O estudo até prevê um aumento das energias eólica (no Nordeste) e solar (Sul e Sudeste), mas como elas são intermitentes, há necessidade de ter uma energia de base e, se a hidrelétrica falhar, as térmicas serão a saída. “Mas pode ser a etanol, a bagaço de cana, a biomassa, não a carvão”, sugere Schaeffer. “O ideal é ter diversidade. E planejar a expansão do setor incorporando a variável das mudanças climáticas. Não podemos mais só olhar para as séries hidrológicas do passado para prever o futuro, porque ele será bem diferente.”

Soja em risco. A mudança no regime hídrico pode trazer impactos também às principais commodities agrícolas do Brasil. A redução de área potencial para lavouras pode ser de até 39,3%, no pior cenário. A soja seria a cultura mais afetada, tendo uma perda de até 67% da área plantada na região Sul até 2040.

Produtor rural mostra área afetada pela estiagem em sua plantação de soja, em Santa Maria (RS), em crise de 2012. Falta de chuva no período de plantio pode levar a uma perda de área para o plantio do grão no Estado

Produtor rural mostra área afetada pela estiagem em sua plantação de soja, em Santa Maria (RS), em crise de 2012. Falta de chuva no período de plantio pode levar a uma perda de área para o plantio do grão no Estado

De acordo com Leila Harfuch, do Agroicone, no entanto, áreas do Centro-Oeste e do Norte podem compensar parte dessa perda. Na comparação com um futuro sem mudança do clima, a perda total de área de soja no País seria de 5%.

“Existe uma dinâmica econômica que torna o impacto nacional menos dramática, vai haver uma realocação da produção no caso dos grãos. Mas os impactos locais serão muito relevante, em especial para a região Sul. Vai ter perda de valor de produção, de emprego e renda, mas em termos produtivos, outras regiões podem compensar”, explica Leila.

Segundo ela, algo parecido pode acontecer com as plantações de cana-de-açúcar na região Sudeste. A estimativa, no pior cenário, é de redução de 10% na área plantada na região na comparação com o tamanho que a produção teria se não houvesse mudanças climáticas. Parte seria compensada no Sul e parte no Centro-Oeste.

Segundo o estudo, quem mais deve perder área é a pastagem. Não necessariamente porque o clima prejudique muito o pasto, mas porque tanto áreas degradadas quanto outras que tenham aptidão para a agricultura poderão ser ocupadas com grãos. Está esperada uma queda de 6,5% da área ocupada pela pecuária, mas o estudo espera que haja uma intensificação da produção, de modo que ela deve se manter estável.

Repercussão. O Observatório do Clima, coalizão brasileira com mais de 30 organizações da sociedade civil em torno das mudanças climáticas, afirmou que o estudo tem de servir como alerta para que o Brasil deixe a tratar o problema como um tema marginal.

“O estudo traça um panorama preocupante dos impactos das mudanças climáticas sobre a economia nacional já nos próximos 25 anos. Mostra que a maneira como o Brasil investe em agropecuária e em infraestrutura precisa ser radicalmente revista. Grandes hidrelétricas na Amazônia, como Belo Monte e São Luís do Tapajós, poderão ter reduções importantes de vazão, e a sociedade pode acabar enterrando bilhões de reais em obras que não se pagam”, afirmou Carlos Rittl, secretário-executivo da organização. Para ele, o estudo “aponta a necessidade de o Brasil lutar por um acordo do clima ambicioso nas próximas semanas na conferência de Paris, e de aumentar também a ambição da própria proposta.”

Excitement grows as NASA carbon sleuth begins Year Two (Science Daily)

Date:
October 29, 2015
Source:
NASA/Jet Propulsion Laboratory
Summary:
Scientists busy poring over more than a year of data from NASA’s Orbiting Carbon Observatory-2 (OCO-2) mission are seeing patterns emerge as they seek answers to the science questions that drive the mission.

Global average carbon dioxide concentrations as seen by NASA’s Orbiting Carbon Observatory-2 mission, June 1-15, 2015. OCO-2 measures carbon dioxide from the top of Earth’s atmosphere to its surface. Higher carbon dioxide concentrations are in red, with lower concentrations in yellows and greens. Credit: NASA/JPL-Caltech

Scientists busy poring over more than a year of data from NASA’s Orbiting Carbon Observatory-2 (OCO-2) mission are seeing patterns emerge as they seek answers to the science questions that drive the mission.

Launched in July 2014, OCO-2, an experimental carbon-dioxide measurement mission, is designed to give the international science community a new view of the global carbon cycle in unprecedented detail. During its two-year primary mission, the satellite observatory is tracking the large-scale movement of carbon between Earth’s atmosphere, its plants and soil, and the ocean, from season to season and from year to year. OCO-2 began routine science operations in September 2014.

“We can already clearly see patterns of seasonal change and variations in carbon dioxide around the globe,” said Annmarie Eldering, OCO-2 deputy project scientist at NASA’s Jet Propulsion Laboratory in Pasadena, California. “Far more subtle features are expected to emerge over time.”

A new animation depicting the first full year of OCO-2 science operations is available at:

Armed with a full annual cycle of data, OCO-2 scientists are now beginning to study the net sources of carbon dioxide as well as their “sinks” — places in the Earth system that store carbon, such as the ocean and plants on land. This information will help scientists better understand the natural processes currently absorbing more than half the carbon dioxide emitted into the atmosphere by human activities. This is a key to understanding how Earth’s climate may change in the future as greenhouse gas concentrations increase.

The first year of data from the mission reveals a portrait of a dynamic, living planet. Between mid-May and mid-July 2015, OCO-2 saw a dramatic reduction in the abundance of atmospheric carbon dioxide across the northern hemisphere, as plants on land sprang to life and began rapidly absorbing carbon dioxide from the air to form new leaves, stems and roots. During this intense, two-month period, known as the “spring drawdown,” OCO-2 measurements show the concentration of atmospheric carbon dioxide over much of the northern hemisphere decreased by two to three percent. That’s 8 to 12 parts per million out of the global average background concentration of 400 parts per million.

“That’s a big but expected change,” said Eldering. “This is the first time we’ve ever had the opportunity to observe the spring drawdown across the entire northern hemisphere with this kind of spatial resolution, seeing changes from week to week.”

Also as expected, OCO-2 data show increased concentrations of carbon dioxide associated with human activities. Higher carbon dioxide levels of several parts per million are seen in regions where fossil fuels are being consumed by large power plants or megacities. Enhanced levels are also seen in the Amazon, Central Africa and Indonesia, where forests are being cleared and burned to create fields for agricultural use.

Researchers Abhishek Chatterjee of the Global Modeling and Assimilation Office at NASA’s Goddard Space Flight Center, Greenbelt, Maryland; and Michelle Gierach and Dave Schimel of JPL are investigating a strong correlation observed between atmospheric carbon dioxide over the Pacific Ocean and the current El Nino. Fluctuations in carbon dioxide appear to be strongly linked with warmer sea surface temperatures. OCO-2’s unprecedented density of measurements is giving researchers a unique data set to understand and separate the roles that sea surface temperatures, winds, regional emissions and other variables may be playing in the carbon dioxide concentrations.

“We believe 2016 will see breakthrough OCO-2 research results, as scientists work to unravel the mysteries of finding carbon dioxide sources and natural sinks,” said Eldering.

Through most of OCO-2’s first year in space, the mission team was busy calibrating its science instrument, learning how to process its massive amount of data, and delivering data products to NASA’s Goddard Earth Sciences Data and Information Services Center (GES-DISC) in Greenbelt, Maryland, for distribution to the world’s science community.

Scientists are comparing OCO-2 data to ground-based measurements to validate the satellite data and tie it to internationally accepted standards for accuracy and precision.

Routine delivery of OCO-2 data — calibrated spectra of reflected sunlight that reveal the fingerprints of carbon dioxide — began in late 2014, while estimates of carbon dioxide derived from cloud-free OCO-2 observations have been delivered since March 2015. Recently, the OCO-2 team reprocessed the OCO-2 data set to incorporate improvements in instrument calibration and correct other known issues with the original data release.

Every day, OCO-2 orbits Earth 14.5 times and collects and returns about a million measurements. After eliminating data contaminated by clouds, aerosols and steep terrain, between 10 to 13 percent of the measurements are of sufficient quality to derive accurate estimates of the average carbon dioxide concentration between Earth’s surface and space. That’s at least 100 times more carbon dioxide measurements than from all other sources of precise carbon dioxide data combined.

NASA uses the vantage point of space to increase our understanding of our home planet, improve lives and safeguard our future. NASA develops new ways to observe and study Earth’s interconnected natural systems with long-term data records. The agency freely shares this unique knowledge and works with institutions around the world to gain new insights into how our planet is changing.

For more information on OCO-2, visit:

http://www.nasa.gov/oco-2

For more information about NASA’s Earth science activities, visit:

http://www.nasa.gov/earth

Upcoming UN Climate Summit can’t overlook China’s support of global coal power (Science Daily)

Date:
October 27, 2015
Source:
Princeton University
Summary:
When global leaders converge on Paris on Nov. 30 for the 2015 United Nations climate change conference, they should create guidelines and incentives for developing nations to cooperate with one another on lower-carbon energy projects, according to a new report. Failure to do so could contribute to an unchecked expansion of coal energy in developing counties, which has already accelerated in recent years with the help of Chinese firms going global.

When global leaders converge on Paris on Nov. 30 for the 2015 United Nations climate change conference, their goal will be to deliver an agreement that, for the first time, seeks to safeguard the Earth’s climate by having all nations that are significant sources of carbon dioxide rein in their emissions.

A threat to that plan might be the unchecked growth of coal-intensive energy in the world’s developing nations — a dangerous trend recently accelerated by the expansion of Chinese firms seeking business internationally, according to researchers from Princeton University, Tongji University in Shanghai and the University of California-Irvine.

The Paris conference is the 21st annual meeting to revisit and strengthen the international environmental treaty known as the UN Framework Convention on Climate Change (UNFCCC). Created at the 1992 UN Conference on Environment and Development, commonly known as the “Earth Summit,” the treaty sets goals and procedures for signatory nations to contain and reduce carbon emissions.

However, the researchers write in the journal Nature Climate Change that any agreement reached in Paris also should be expanded to provide guidelines and incentives — already under discussion for industrialized countries — for developing nations to cooperate with one another on lower-carbon energy projects. Failure to do this, the authors write, could allow further “dirty” energy cooperation between developing nations and complicate the United Nations’ goal to keep the global average temperature within 2 degrees Celsius of what it was around 1750 at the dawn of the Industrial Age.

“After years of effort to construct a truly global climate agreement, negotiators are on course to accept a system with incoherent rules for developed and developing countries in terms of investing in low-carbon energy outside their borders. We think that may be harmful in the long run,” said lead author Phil Hannam, a doctoral candidate in the Program in Science, Technology and Environmental Policy (STEP) at Princeton’s Woodrow Wilson School of Public and International Affairs.

The paper, which includes the first tally of Chinese involvement in power plants around the world, includes co-authors Michael Oppenheimer, the Albert G. Milbank Professor of Geosciences and International Affairs at Princeton; Zhenliang Liao, an associate professor of environmental science and engineering at Tongji University; and Steven Davis, an assistant professor of earth system science at UC-Irvine.

Carbon emissions continue to rise from energy production as developing nations such as India, Brazil and South Africa fuel their rapid industrialization, the researchers report. At the same time, developing nations such as China have the capital and technology to support other burgeoning economies. But the lack of international attention — and UN incentives — for developing nations to support each other’s energy needs in a low-carbon way has helped keep coal power a popular choice, according to the authors.

Chinese firms — which often have financial or policy backing from China’s state banks — have poured coal-power equipment into other Asian countries, partly as a result of China’s slowing domestic power-market growth. The situation could get worse as China pledges to reduce domestic carbon emissions, according to the paper. The researchers found that of the total power capacities in Asian countries other than China that have involvement from Chinese firms, 68 percent in operation, 77 percent under construction and 76 percent in planning burn coal. This level of involvement in coal exceeds the global trend, Hannam said.

“While China has tightened its belt on coal power domestically, that’s pushing Chinese firms to help build coal plants in other countries, so much so that China’s firms are disproportionately focused in coal-intensive energy abroad relative to other nations,” Hannam said. “Instead, if the UNFCCC integrated low-carbon cooperation between developing countries in the climate agreement, China could lead the way for countries to make pledges for low-carbon investment globally, just as they pledge domestic emissions cuts.”

The loopholes of ‘climate finance’

“Climate finance,” which Hannam and his co-authors focus on, is an important tool for guiding clean-energy development internationally. In an effort to keep global emissions low, a nation’s government — usually in concert with private money — will support low-carbon development in other nations. Richer industrialized nations with a long history of emissions have committed to mobilizing climate finance to the tune of US$100 billion per year by 2020. Some of this funding will flow through the Green Climate Fund established in 2010 to support low-carbon investment in the developing world.

Developing nations — generally with China at the helm — have entered into numerous parallel arrangements to support energy-sector growth in other developing nations. China has established the South-South Cooperation Fund for supporting low-carbon investment.

Several other energy-financing agreements, however, are not only outside the UN’s purview, they often benefit from vastly more funding than the Green Climate Fund or the South-South fund and have no explicit low-carbon directive, the authors reported.

The New Development Bank headquartered in Shanghai and formed by China, Brazil, Russia, India and South Africa to support infrastructure projects in developing countries boasts a starting capital of $100 billion. Some $50 billion in capital is already behind the China-based Asian Infrastructure Investment Bank, and another $40 billion supports China’s Silk Road Fund — both entities are intended to accelerate development in China’s less prosperous neighbors.

Efforts to encourage countries to support low-carbon development is complicated by the fact that there are no universally accepted standards for climate finance, Hannam said. Even the Green Climate Fund may permit financing for coal power.

“This highlights the need for both developed and developing countries to agree to common definitions of what qualifies as climate finance,” Hannam said. “Then the UNFCCC can look across the multiple emerging institutions and provide incentives for all power-sector finance — regardless of country of origin — to shift from coal to lower-carbon sources.”

The issues the authors discuss have already been broached in diplomatic circles, said Oppenheimer, who will be attending the Paris conference in part to promote the ideas laid out in the perspective piece. The United States recently persuaded China to reconsider its carbon-intensive power investments abroad, he said. While American support is crucial, climate finance is a complicated international balancing act that is influenced by many nations’ pursuit of economic gain and influence, Oppenheimer said.

“If the United States stays focused and makes this a priority within its international climate approach, then there’s a fair chance other governments will likewise support such an effort,” Oppenheimer said. “However, there is clearly more to international energy finance than just the United States and China. Japan, for instance, also finances coal power internationally and has a lot at stake politically in China’s Asia-focused institutions. It’s not simple.”

Gilbert Metcalf, a professor of economics at Tufts University and former deputy assistant secretary for environment and energy at the U.S. Department of Treasury, agreed that developing nations also must be brought into the fold. The norm has been for industrialized nations to foot the bill for low-carbon investment in poorer nations. The recent initiatives by China and other developing nations have somewhat upset that dynamic, but countries with small economies might still hesitate to commit themselves to investment standards long applied only to rich countries, said Metcalf, who was not involved in the research but is familiar with it.

Nonetheless, Metcalf said, the paper in Nature Climate Change is significant for taking a proactive approach to dealing with the climate-finance issue, as well as for detailing the energy-sector investments for an emerging financial force such as China.

“Providing some systematic measurement of climate finance is extremely valuable, especially with regard to climate finance from China and other developing countries. As China’s recent announcement to provide climate finance outside of the Green Climate Fund indicates, developing country finance will be an important part of the climate finance architecture,” he said.

“The massive external coal investment highlighted in [this paper] makes clear that South-South investment is not necessarily green investment,” he said. “It also makes clear that incentives built into the Paris agreement — or post-Paris negotiations — to green South-South investment will be extremely valuable to support global efforts to decarbonize.”


Journal Reference:

  1. Phillip M. Hannam, Zhenliang Liao, Steven J. Davis, Michael Oppenheimer. Developing country finance in a post-2020 global climate agreementNature Climate Change, 2015; 5 (11): 983 DOI: 10.1038/nclimate2731

Dudas sobre El Niño retrasan preparación ante desastres (SciDev Net)

Dudas sobre El Niño retrasan preparación ante desastres

Crédito de la imagen: Patrick Brown/Panos

27/10/15

Martín De Ambrosio

De un vistazo

  • Efectos del fenómeno aún son confusos a lo largo del continente
  • No hay certeza, pero cruzarse de brazos no es opción, según Organización Panamericana de la Salud
  • Hay consenso científico del 95 por ciento sobre posibilidades de un El Niño fuerte

Los desacuerdos que existen entre los científicos sobre la posibilidad de que Centro y Sudamérica sufran o no un fuerte evento El Niño están generando cierto retraso en las preparaciones, según advierten las principales organizaciones que trabajan en el clima de la región.

Algunos investigadores sudamericanos aún tienen dudas sobre la forma cómo se desarrolla el evento este año. Esta incertidumbre impacta en los funcionarios y los estados, que deberían actuar cuanto antes para prevenir los peores escenarios, incluyendo muertes debido a desastres naturales, reclaman las organizaciones meteorológicas.

Eduardo Zambrano, investigador del Centro de Investigación Internacional sobre el Fenómeno de El Niño (CIIFEN) en Ecuador, y uno de los centros regionales de la Organización Meteorológica Mundial, dice que el problema es que los efectos del fenómeno todavía no han sido claros y evidentes en todo el continente.

“Algunas imágenes de satélite nos muestran un Océano Pacífico muy caliente, una de las características de El Niño”.

Willian Alva León, presidente de la Sociedad Meteorológica del Perú

“De todos modos podemos hablar sobre las extremas sequías en el noreste de Brasil, Venezuela y la zona del Caribe”, dice, y menciona además las inusualmente fuertes lluvias en el desierto de Atacama en Chile desde marzo y las inundaciones en zonas de Argentina, Uruguay y Paraguay.

El Niño alcanza su pico cuando una masa de aguas cálidas para los habituales parámetros del este del Océano Pacífico, se mueve de norte a sur y toca costas peruanas y ecuatorianas. Este movimiento causa efectos en cascada y estragos en todo el sistema de América Central y del Sur, convirtiendo las áridas regiones altas en lluviosas, al tiempo que se presentan sequías en las tierras bajas y tormentas sobre el Caribe.

Pero El Niño continúa siendo de difícil predicción debido a sus muy diferentes impactos. Los científicos, según Zambrano, esperaban al Niño el año pasado “cuando todas las alarmas sonaron, y luego no pasó nada demasiado extraordinario debido a un cambio en la dirección de los vientos”.

Tras ese error, muchas organizaciones prefirieron la cautela para evitar el alarmismo. “Algunas imágenes de satélite nos muestran un Océano Pacífico muy caliente, una de las características de El Niño”, dice Willian Alva León, presidente de la Sociedad Meteorológica del Perú. Pero, agrega, este calor no se mueve al sudeste, hacia las costas peruanas, como sucedería en caso del evento El Niño.

Alva León cree que los peores efectos ya sucedieron este año, lo que significa que el fenómeno está en retirada. “El Niño tiene un límite de energía y creo que ya ha sido alcanzado este año”, dice.

Este desacuerdo entre las instituciones de investigación del clima preocupa a quienes generan políticas, pues necesitan guías claras para iniciar las preparaciones necesarias del caso. Ciro Ugarte, asesor regional del área de Preparativos para Emergencia y Socorro en casos de Desastrede la Organización Panamericana de la Salud, dice que es obligatorio actuar como si El Niño en efecto estuviera en proceso para asegurar que el continente enfrente las posibles consecuencias.

“Estar preparados es importante porque reduce el impacto del fenómeno así como otras enfermedades que hoy son epidémicas”, dice.

Para asegurar el grado de probabilidad de El Niño, algunos científicos usan modelos que abstraen datos de la realidad y generan predicciones. María Teresa Martínez, subdirectora de meteorología del Instituto de Hidrología, Meteorología y Estudios Ambientales de Colombia, señala que los modelos más confiables predijeron en marzo que había entre un 50 y un 60 por ciento de posibilidad de un evento El Niño. “Ahora El Niño se desarrolla con fuerza desde su etapa de formación hacia la etapa de madurez, que será alcanzada en diciembre”, señala.

Ugarte admite que no hay certezas, pero dice que para su organización “no hacer nada no es una opción”.

“Como creadores de políticas de prevención, lo que tenemos que hacer es usar lo que es el consenso entre los científicos, y hoy ese consenso dice que hay un 95% de posibilidades de tener un fuerte o muy fuerte evento El Niño”, dice.

Populações pré-colombianas afetavam pouco a Amazônia, diz estudo (Estado de São Paulo)

Fábio de Castro

28 de outubro de 2015

Antes da chegada dos Europeus às Américas, uma grande população indígena habitava a Amazônia. Mas, ao contrário do que sustentam alguns cientistas, os impactos dessa ocupação humana sobre a floresta eram extremamente pequenos, segundo um novo estudo internacional realizado com participação brasileira.

pesquisa, publicada nesta quarta-feira, 28, na revista científica Journal of Biogeography, foi liderada por cientistas do Instituto de Tecnologia da Flórida, nos Estados Unidos e teve a participação de Carlos Peres, pesquisador do Museu Paraense Emílio Goeldi.

Imagem de satélite da Amazônia ocidental mostra mendros de rios com 'braços-mortos', onde viviam grandes populações antes da chegada dos europeus; o novo estudo mostra que o impacto desses povos na floresta era menor do que se pensava

Imagem de satélite da Amazônia ocidental mostra mendros de rios com ‘braços-mortos’, onde viviam grandes populações antes da chegada dos europeus; o novo estudo mostra que o impacto desses povos na floresta era menor do que se pensava

Segundo o novo estudo, as populações amazônicas pré-colombianas viviam em densos assentamentos perto dos rios, afetando profundamente essas áreas. Mas os impactos que elas produziam na floresta eram limitados a uma distância de um dia de caminhada a partir das margens – deixando intocada a maior parte da Bacia Amazônica.

A pesquisa foi realizada com o uso de plantas fósseis, estimativas de densidade de mamíferos, sensoriamento remoto e modelagens computacionais de populações humanas. Segundo os autores, os resultados indicam que as florestas amazônicas podem ser muito vulneráveis às perturbações provocadas por atividades madeireiras e de mineração.

O novo estudo refuta uma teoria emergente, sustentada por alguns arqueólogos e antropólogos, de que as florestas da Amazônia são resultado de modificações da paisagem produzidas por populações ancestrais. Essa teoria contradiz a noção de que as florestas são ecossistemas frágeis.

“Ninguém duvida da importância da ação humana ao longo das principais vias fluviais. Mas, na Amazônia ocidental, ainda não se sabe se os humanos tiveram sobre o ecossistema um impacto maior que qualquer outro grande mamífero”, disse o autor principal do estudo, Mark Bush, do Instituto de Tecnologia da Flórida.

Dolores Piperno, outra autora do estudo, arqueóloga do Museu Americano de História Natural, afirma que há exagero na ideia de que a Amazônia é uma paisagem fabricada e domesticada. “Estudos anteriores se basearam em poucos sítios arqueológicos próximos aos cursos de água, e extrapolaram os efeitos da ocupação humana pré-histórica para todo o bioma. Mas a Amazônia é heterogênea e essas extrapolações precisam ser revistas com dados empíricos”, disse ela.

“Esse não é apenas um debate sobre o que ocorreu há 500 anos, ele tem implicações muito relevantes para a sociedade moderna e para as iniciativas de conservação”, afirmou Bush.

De acordo com Bush, se as florestas tivessem sido pesadamente modificadas antes da chegada dos Europeus e tivessem se recuperado no período de uma só geração de árvores para adquirir um nível tão vasto de biodiversidade, essa capacidade de recuperação rápida poderia ser usada como justificativa para uma atividade madeireira agressiva.

Entretanto, se a influência dos humanos foi muito limitada, como mostra o novo estudo, a atividade madeireira e mineradora têm potencial para provocar na floresta consequências de longo prazo, possivelmente irreversíveis.

“Essa distinção se torna cada vez mais importante, à medida em que os gestores decidem se irão reforçar ou flexibilizar a proteção de áreas já designadas como parques de conservação”, afirmou Bush.