Arquivo da tag: Incerteza

Better way to make sense of ‘Big Data?’ (Science Daily)

Date:  February 19, 2014

Source: Society for Industrial and Applied Mathematics

Summary: Vast amounts of data related to climate change are being compiled by researchers worldwide with varying climate projections. This requires combining information across data sets to arrive at a consensus regarding future climate estimates. Scientists propose a statistical hierarchical Bayesian model that consolidates climate change information from observation-based data sets and climate models.

Regional analysis for climate change assessment. Credit: Melissa Bukovsky, National Center for Atmospheric Research (NCAR/IMAGe)

Vast amounts of data related to climate change are being compiled by research groups all over the world. Data from these many and varied sources results in different climate projections; hence, the need arises to combine information across data sets to arrive at a consensus regarding future climate estimates.

In a paper published last December in the SIAM Journal on Uncertainty Quantification, authors Matthew Heaton, Tamara Greasby, and Stephan Sain propose a statistical hierarchical Bayesian model that consolidates climate change information from observation-based data sets and climate models. “The vast array of climate data — from reconstructions of historic temperatures and modern observational temperature measurements to climate model projections of future climate — seems to agree that global temperatures are changing,” says author Matthew Heaton. “Where these data sources disagree, however, is by how much temperatures have changed and are expected to change in the future. Our research seeks to combine many different sources of climate data, in a statistically rigorous way, to determine a consensus on how much temperatures are changing.” Using a hierarchical model, the authors combine information from these various sources to obtain an ensemble estimate of current and future climate along with an associated measure of uncertainty. “Each climate data source provides us with an estimate of how much temperatures are changing. But, each data source also has a degree of uncertainty in its climate projection,” says Heaton. “Statistical modeling is a tool to not only get a consensus estimate of temperature change but also an estimate of our uncertainty about this temperature change.” The approach proposed in the paper combines information from observation-based data, general circulation models (GCMs) and regional climate models (RCMs). Observation-based data sets, which focus mainly on local and regional climate, are obtained by taking raw climate measurements from weather stations and applying it to a grid defined over the globe. This allows the final data product to provide an aggregate measure of climate rather than be restricted to individual weather data sets. Such data sets are restricted to current and historical time periods. Another source of information related to observation-based data sets are reanalysis data sets in which numerical model forecasts and weather station observations are combined into a single gridded reconstruction of climate over the globe. GCMs are computer models which capture physical processes governing the atmosphere and oceans to simulate the response of temperature, precipitation, and other meteorological variables in different scenarios. While a GCM portrayal of temperature would not be accurate to a given day, these models give fairly good estimates for long-term average temperatures, such as 30-year periods, which closely match observed data. A big advantage of GCMs over observed and reanalyzed data is that GCMs are able to simulate climate systems in the future. RCMs are used to simulate climate over a specific region, as opposed to global simulations created by GCMs. Since climate in a specific region is affected by the rest of Earth, atmospheric conditions such as temperature and moisture at the region’s boundary are estimated by using other sources such as GCMs or reanalysis data. By combining information from multiple observation-based data sets, GCMs and RCMs, the model obtains an estimate and measure of uncertainty for the average temperature, temporal trend, as well as the variability of seasonal average temperatures. The model was used to analyze average summer and winter temperatures for the Pacific Southwest, Prairie and North Atlantic regions (seen in the image above) — regions that represent three distinct climates. The assumption would be that climate models would behave differently for each of these regions. Data from each region was considered individually so that the model could be fit to each region separately. “Our understanding of how much temperatures are changing is reflected in all the data available to us,” says Heaton. “For example, one data source might suggest that temperatures are increasing by 2 degrees Celsius while another source suggests temperatures are increasing by 4 degrees. So, do we believe a 2-degree increase or a 4-degree increase? The answer is probably ‘neither’ because combining data sources together suggests that increases would likely be somewhere between 2 and 4 degrees. The point is that that no single data source has all the answers. And, only by combining many different sources of climate data are we really able to quantify how much we think temperatures are changing.” While most previous such work focuses on mean or average values, the authors in this paper acknowledge that climate in the broader sense encompasses variations between years, trends, averages and extreme events. Hence the hierarchical Bayesian model used here simultaneously considers the average, linear trend and interannual variability (variation between years). Many previous models also assume independence between climate models, whereas this paper accounts for commonalities shared by various models — such as physical equations or fluid dynamics — and correlates between data sets. “While our work is a good first step in combining many different sources of climate information, we still fall short in that we still leave out many viable sources of climate information,” says Heaton. “Furthermore, our work focuses on increases/decreases in temperatures, but similar analyses are needed to estimate consensus changes in other meteorological variables such as precipitation. Finally, we hope to expand our analysis from regional temperatures (say, over just a portion of the U.S.) to global temperatures.”
 
Journal Reference:

  1. Matthew J. Heaton, Tamara A. Greasby, Stephan R. Sain. Modeling Uncertainty in Climate Using Ensembles of Regional and Global Climate Models and Multiple Observation-Based Data SetsSIAM/ASA Journal on Uncertainty Quantification, 2013; 1 (1): 535 DOI: 10.1137/12088505X

Hershey’s Is Hiring a Chocolate Futurist (The Atlantic)

Adapting to climate change, one candy bar at a time

, FEB 21 2014, 3:12 PM ET

Reuters

The Hershey Company—makers of the eponymous candy bar, York Peppermint Patties, and Reese’s Cups—is a big, complex organization. Not only is it the largest chocolate manufacturer in the United States, selling 40 percent of domestic dark chocolate, but it also operates a store/museum in Hershey, Pennsylvania. And one in Times Square. And one in Las Vegas.

And, oh, also an amusement park.

Now—in response to all this bigness, all this complexity, all these diversified models—it has prepared for a changing world. The Hershey Company is hiring a futurist.

That’s not what companies call it, exactly. Hershey’s is hiring a “Senior Manager” in “Foresight Activation,” someone with experience converting “existing foresight (trends, forecasts, scenarios) into strategic opportunities (SOs).”

The company’s posting never breaks down just what “foresight” means, though it does specify applicants should be “collaborate with and align multi-functional stakeholders.” But let me be clear, foresight means trying to understand the future. Hershey’s is hiring a chocolate futurist.

Of course, this is not an outlandish position, even if it will require regular excisions of jargon. Companies everywhere analyze trends, try to figure out what imperils their business, and make plans accordingly. If they depend on products of the land, they specifically try to plan for the big, amorphous future risk of climate change.

Little wonder: A 2011 Gates Foundation-funded study found that even small amounts of climate change could ravage the cocoa market, sending “yields crashing and prices soaring.” And Starbucks has long insisted that climate change, more than anything else, threatens the global supply chain of coffee, and, thus, its business.

James Lovelock: ‘enjoy life while you can: in 20 years global warming will hit the fan’ (The Guardian)

The climate science maverick believes catastrophe is inevitable, carbon offsetting is a joke and ethical living a scam. So what would he do? By Decca Aitkenhead

The GuardianSaturday 1 March 2008

James Lovelock

James Lovelock. Photograph: Eamonn McCabe

In 1965 executives at Shell wanted to know what the world would look like in the year 2000. They consulted a range of experts, who speculated about fusion-powered hovercrafts and “all sorts of fanciful technological stuff”. When the oil company asked the scientist James Lovelock, he predicted that the main problem in 2000 would be the environment. “It will be worsening then to such an extent that it will seriously affect their business,” he said.

“And of course,” Lovelock says, with a smile 43 years later, “that’s almost exactly what’s happened.”

Lovelock has been dispensing predictions from his one-man laboratory in an old mill in Cornwall since the mid-1960s, the consistent accuracy of which have earned him a reputation as one of Britain’s most respected – if maverick – independent scientists. Working alone since the age of 40, he invented a device that detected CFCs, which helped detect the growing hole in the ozone layer, and introduced the Gaia hypothesis, a revolutionary theory that the Earth is a self-regulating super-organism. Initially ridiculed by many scientists as new age nonsense, today that theory forms the basis of almost all climate science.

For decades, his advocacy of nuclear power appalled fellow environmentalists – but recently increasing numbers of them have come around to his way of thinking. His latest book, The Revenge of Gaia, predicts that by 2020 extreme weather will be the norm, causing global devastation; that by 2040 much of Europe will be Saharan; and parts of London will be underwater. The most recent Intergovernmental Panel on Climate Change (IPCC) report deploys less dramatic language – but its calculations aren’t a million miles away from his.

As with most people, my panic about climate change is equalled only by my confusion over what I ought to do about it. A meeting with Lovelock therefore feels a little like an audience with a prophet. Buried down a winding track through wild woodland, in an office full of books and papers and contraptions involving dials and wires, the 88-year-old presents his thoughts with a quiet, unshakable conviction that can be unnerving. More alarming even than his apocalyptic climate predictions is his utter certainty that almost everything we’re trying to do about it is wrong.

On the day we meet, the Daily Mail has launched a campaign to rid Britain of plastic shopping bags. The initiative sits comfortably within the current canon of eco ideas, next to ethical consumption, carbon offsetting, recycling and so on – all of which are premised on the calculation that individual lifestyle adjustments can still save the planet. This is, Lovelock says, a deluded fantasy. Most of the things we have been told to do might make us feel better, but they won’t make any difference. Global warming has passed the tipping point, and catastrophe is unstoppable.

“It’s just too late for it,” he says. “Perhaps if we’d gone along routes like that in 1967, it might have helped. But we don’t have time. All these standard green things, like sustainable development, I think these are just words that mean nothing. I get an awful lot of people coming to me saying you can’t say that, because it gives us nothing to do. I say on the contrary, it gives us an immense amount to do. Just not the kinds of things you want to do.”

He dismisses eco ideas briskly, one by one. “Carbon offsetting? I wouldn’t dream of it. It’s just a joke. To pay money to plant trees, to think you’re offsetting the carbon? You’re probably making matters worse. You’re far better off giving to the charity Cool Earth, which gives the money to the native peoples to not take down their forests.”

Do he and his wife try to limit the number of flights they take? “No we don’t. Because we can’t.” And recycling, he adds, is “almost certainly a waste of time and energy”, while having a “green lifestyle” amounts to little more than “ostentatious grand gestures”. He distrusts the notion of ethical consumption. “Because always, in the end, it turns out to be a scam … or if it wasn’t one in the beginning, it becomes one.”

Somewhat unexpectedly, Lovelock concedes that the Mail’s plastic bag campaign seems, “on the face of it, a good thing”. But it transpires that this is largely a tactical response; he regards it as merely more rearrangement of Titanic deckchairs, “but I’ve learnt there’s no point in causing a quarrel over everything”. He saves his thunder for what he considers the emptiest false promise of all – renewable energy.

“You’re never going to get enough energy from wind to run a society such as ours,” he says. “Windmills! Oh no. No way of doing it. You can cover the whole country with the blasted things, millions of them. Waste of time.”

This is all delivered with an air of benign wonder at the intractable stupidity of people. “I see it with everybody. People just want to go on doing what they’re doing. They want business as usual. They say, ‘Oh yes, there’s going to be a problem up ahead,’ but they don’t want to change anything.”

Lovelock believes global warming is now irreversible, and that nothing can prevent large parts of the planet becoming too hot to inhabit, or sinking underwater, resulting in mass migration, famine and epidemics. Britain is going to become a lifeboat for refugees from mainland Europe, so instead of wasting our time on wind turbines we need to start planning how to survive. To Lovelock, the logic is clear. The sustainability brigade are insane to think we can save ourselves by going back to nature; our only chance of survival will come not from less technology, but more.

Nuclear power, he argues, can solve our energy problem – the bigger challenge will be food. “Maybe they’ll synthesise food. I don’t know. Synthesising food is not some mad visionary idea; you can buy it in Tesco’s, in the form of Quorn. It’s not that good, but people buy it. You can live on it.” But he fears we won’t invent the necessary technologies in time, and expects “about 80%” of the world’s population to be wiped out by 2100. Prophets have been foretelling Armageddon since time began, he says. “But this is the real thing.”

Faced with two versions of the future – Kyoto’s preventative action and Lovelock’s apocalypse – who are we to believe? Some critics have suggested Lovelock’s readiness to concede the fight against climate change owes more to old age than science: “People who say that about me haven’t reached my age,” he says laughing.

But when I ask if he attributes the conflicting predictions to differences in scientific understanding or personality, he says: “Personality.”

There’s more than a hint of the controversialist in his work, and it seems an unlikely coincidence that Lovelock became convinced of the irreversibility of climate change in 2004, at the very point when the international consensus was coming round to the need for urgent action. Aren’t his theories at least partly driven by a fondness for heresy?

“Not a bit! Not a bit! All I want is a quiet life! But I can’t help noticing when things happen, when you go out and find something. People don’t like it because it upsets their ideas.”

But the suspicion seems confirmed when I ask if he’s found it rewarding to see many of his climate change warnings endorsed by the IPCC. “Oh no! In fact, I’m writing another book now, I’m about a third of the way into it, to try and take the next steps ahead.”

Interviewers often remark upon the discrepancy between Lovelock’s predictions of doom, and his good humour. “Well I’m cheerful!” he says, smiling. “I’m an optimist. It’s going to happen.”

Humanity is in a period exactly like 1938-9, he explains, when “we all knew something terrible was going to happen, but didn’t know what to do about it”. But once the second world war was under way, “everyone got excited, they loved the things they could do, it was one long holiday … so when I think of the impending crisis now, I think in those terms. A sense of purpose – that’s what people want.”

At moments I wonder about Lovelock’s credentials as a prophet. Sometimes he seems less clear-eyed with scientific vision than disposed to see the version of the future his prejudices are looking for. A socialist as a young man, he now favours market forces, and it’s not clear whether his politics are the child or the father of his science. His hostility to renewable energy, for example, gets expressed in strikingly Eurosceptic terms of irritation with subsidies and bureaucrats. But then, when he talks about the Earth – or Gaia – it is in the purest scientific terms all.

“There have been seven disasters since humans came on the earth, very similar to the one that’s just about to happen. I think these events keep separating the wheat from the chaff. And eventually we’ll have a human on the planet that really does understand it and can live with it properly. That’s the source of my optimism.”

What would Lovelock do now, I ask, if he were me? He smiles and says: “Enjoy life while you can. Because if you’re lucky it’s going to be 20 years before it hits the fan.”

Física dos Sistemas Complexos pode prever impactos das mudanças ambientais (Fapesp)

Avaliação é de Jan-Michael Rost, pesquisador do Instituto Max Planck (foto: Nina Wagner/DWIH-SP)

19/02/2014

Elton Alisson

Agência FAPESP – Além da aplicação em áreas como a Engenharia e Tecnologias da Informação e Comunicação (TICs), a Física dos Sistemas Complexos – nos quais cada elemento contribui individualmente para o surgimento de propriedades somente observadas em conjunto – pode ser útil para avaliar os impactos de mudanças ambientais no planeta, como o desmatamento.

A avaliação foi feita por Jan-Michael Rost, pesquisador do Instituto Max-Planck para Física dos Sistemas Complexos, durante uma mesa-redonda sobre sistemas complexos e sustentabilidade, realizada no dia 14 de fevereiro no Hotel Pergamon, em São Paulo.

O encontro foi organizado pelo Centro Alemão de Ciência e Inovação São Paulo (DWIH-SP) e pela Sociedade Max Planck, em parceria com a FAPESP e o Serviço Alemão de Intercâmbio Acadêmico (DAAD), e fez parte de uma programação complementar de atividades da exposição científica Túnel da Ciência Max Planck.

“Os sistemas complexos, como a vida na Terra, estão no limiar entre a ordem e a desordem e levam um determinado tempo para se adaptar a mudanças”, disse Rost.

“Se houver grandes alterações nesses sistemas, como o desmatamento desenfreado de florestas, em um período curto de tempo, e for atravessado o limiar entre a ordem e a desordem, essas mudanças podem ser irreversíveis e colocar em risco a preservação da complexidade e a possibilidade de evolução das espécies”, afirmou o pesquisador.

De acordo com Rost, os sistemas complexos começaram a chamar a atenção dos cientistas nos anos 1950. A fim de estudá-los, porém, não era possível utilizar as duas grandes teorias que revolucionaram a Física no século 20: a da Relatividade, estabelecida por Albert Einstein (1879-1955), e da mecânica quântica, desenvolvida pelo físico alemão Werner Heisenberg (1901-1976) e outros cientistas.

Isso porque essas teorias podem ser aplicadas apenas a sistemas fechados, como os motores, que não sofrem interferência do meio externo e nos quais as reações de equilíbrio, ocorridas em seu interior, são reversíveis, afirmou Rost.

Por essa razão, segundo ele, essas teorias não são suficientes para estudar sistemas abertos, como máquinas dotadas de inteligência artificial e as espécies de vida na Terra, que interagem com o meio ambiente, são adaptativas e cujas reações podem ser irreversíveis. Por isso, elas deram lugar a teorias relacionadas à Física dos sistemas complexos, como a do caos e a da dinâmica não linear, mais apropriadas para essa finalidade.

“Essas últimas teorias tiveram um desenvolvimento espetacular nas últimas décadas, paralelamente às da mecânica clássica”, afirmou Rost.

“Hoje já se reconhece que os sistemas não são fechados, mas se relacionam com o exterior e podem apresentar reações desproporcionais à ação que sofreram. É nisso que a Engenharia se baseia atualmente para desenvolver produtos e equipamentos”, afirmou.

Categorias de sistemas complexos

De acordo com Rost, os sistemas complexos podem ser divididos em quatro categorias que se diferenciam pelo tempo de reação a uma determinada ação sofrida. A primeira delas é a dos sistemas complexos estáticos, que reagem instantaneamente a uma ação.

A segunda é a de sistemas adaptativos, como a capacidade de farejamento dos cães. Ao ser colocado na direção de uma trilha de rastros deixados por uma pessoa perdida em uma mata, por exemplo, os cães farejadores fazem movimentos de ziguezague.

Isso porque, segundo Rost, esses animais possuem um sistema de farejamento adaptativo. Isto é, ao sentir um determinado cheiro em um local, a sensibilidade olfativa do animal àquele odor diminui drasticamente e ele perde a capacidade de identificá-lo.

Ao sair do rastro em que estava, o animal recupera rapidamente a sensibilidade olfativa ao odor e é capaz de identificá-lo em uma próxima pegada. “O limiar da percepção olfativa desses animais é adaptado constantemente”, afirmou Rost.

A terceira categoria de sistemas complexos é a de sistemas autônomos, que utilizam a evolução como um sistema de adaptação e é impossível prever como será a reação a uma determinada mudança.

Já a última categoria é a de sistemas evolucionários ou transgeracionais, em que se inserem os seres humanos e outras espécies de vida na Terra, e na qual a reação a uma determinada alteração em seus sistemas de vida demora muito tempo para acontecer, afirmou Rost.

“Os sistemas transgeracionais recebem estímulos durante a vida toda e a reação de uma determinada geração não é comparável com a anterior”, disse o pesquisador.

“Tentar prever o tempo que um determinado sistema transgeracional, como a humanidade, leva para reagir a uma ação, como as mudanças ambientais, pode ser útil para assegurar a sustentabilidade do planeta”, avaliou Rost.

Domadores de catástrofes (Fapesp)

Brasileiros ajudam a testar teoria sobre a previsão e o controle de crises financeiras globais

IGOR ZOLNERKEVIC | Edição 216 – Fevereiro de 2014

© NELSON PROVAZILE

As piores crises, os piores acidentes, as piores catástrofes naturais e humanas são as que mais causam surpresa. Parece que quanto mais intenso o evento – de um tsunâmi devastador a uma guerra mundial – mais imprevisível e incontrolável ele é. No entanto, o físico e economista francês Didier Sornette, do Instituto Federal Suíço de Tecnologia de Zurique (ETH), acredita no contrário. Depois de duas décadas comparando a frequência e a intensidade de situações extremas observadas em áreas tão distintas quanto a economia e a geologia, Sornette está convencido de que, embora a sociedade e a natureza sejam complexas demais para permitir prever muitos dos eventos extremos, justamente os piores desses eventos, chamados por ele de dragon kings (dragões reis), teriam características únicas que permitiriam antecipá-los e evitá-los. Em uma palestra na conferência TED Global, realizada em junho do ano passado em Edimburgo, Escócia, Sornette afirmou que aplicar a teoria dos dragon kings na regulação do mercado financeiro poderia evitar crises econômicas como a que se iniciou em 2007 e causou prejuízos de centenas de bilhões de dólares nas bolsas de valores norte-americanas – até 2008 a perda no produto interno bruto global havia alcançado US$ 5 trilhões.

Embora sua teoria seja pouco aceita pelos economistas, as ideias de Sornette têm sido adotadas por pesquisadores de outras áreas, que já encontraram evidências de eventos do tipo dragon kings, e de sinais que os precedem nas ciências naturais, na medicina e na engenharia. A prova mais conclusiva já observada foi divulgada no final do ano passado. Uma equipe internacional de físicos, liderada por pesquisadores da Universidade Federal da Paraíba (UFPB) e integrada por Sornette, conseguiu pela primeira vez gerar, observar, prever e eliminar dragon kings em experimentos totalmente controlados em laboratório.

Na Paraíba, os pesquisadores brasileiros construíram um aparelho capaz de gerar oscilações elétricas caóticas e desenvolveram técnicas que permitiram manipular essas oscilações. Eles esperam que estratégias semelhantes às usadas no experimento sejam úteis no controle de eventos extremos em geral. “Desenvolvemos um sistema eletrônico, relativamente fácil de construir, com o qual testamos experimentalmente as hipóteses do Sornette”, explica o físico Hugo Cavalcante, da UFPB, primeiro autor do estudo, publicado em novembro de 2013 na Physical Review Letters. O segundo autor do artigo, o físico Marcos Oriá, da mesma universidade, acrescenta que o resultado “abre uma perspectiva de que se torne possível identificar e antecipar situações extremas em sistemas complexos, como o mercado financeiro ou o clima do planeta”.

Especialista em óptica e em física atômica, Oriá se interessava havia tempos por situações em que equipamentos de laser relativamente simples geravam comportamentos caóticos, semelhantes aos de sistemas mais complexos como o mercado financeiro. Mas Oriá somente se aprofundou no assunto após a chegada de Cavalcante à UFPB em 2011. Cavalcante passara três anos e meio na Universidade Duke, nos Estados Unidos, trabalhando no laboratório do físico Daniel Gauthier, que ganhou notoriedade nos anos 1990 pesquisando a sincronização de sistemas caóticos.

Para estudar os fenômenos da teoria do caos, Gauthier projetou circuitos eletrônicos simples, do tamanho de cartões de crédito, nos quais era possível fazer oscilar tanto a corrente elétrica quanto a voltagem de maneira aleatória e imprevisível. O comportamento desses osciladores eletrônicos é descrito por equações matemáticas simples e bem definidas, mas as oscilações são extremamente sensíveis a pequenas mudanças. Por essa razão, uma pequena interferência eletrônica no início da operação do oscilador pode alterar completamente o seu comportamento posterior. Na prática, essa característica impede que se obtenham previsões precisas dos valores que a corrente e a voltagem podem alcançar depois do início do experimento. Mesmo assim, Gauthier descobriu como conectar dois desses osciladores, de modo que um deles, o mestre, oscilasse de maneira livre e caótica, enquanto o outro, o escravo, seguia o mestre de modo sincronizado.

Sincronia caótica
Dependendo de como os osciladores mestre e escravo eram acionados, porém, a sincronia entre eles podia desaparecer momentaneamente, para ser retomada em seguida, em uma série de eventos aleatórios breves que Gauthier chamou de borbulhamento. Gauthier, Cavalcante e Oriá notaram que, na maioria desses eventos de dessincronização, a diferença entre as correntes e as voltagens dos dois osciladores era pequena. Mas perceberam também que, em alguns poucos eventos, essa diferença aumentava muito.

Eles, então, buscaram uma relação entre o número de borbulhamentos (frequência) e a magnitude que alcançavam. Concluíram que, na maioria das vezes, a frequência era proporcional à magnitude elevada a um expoente cujo valor era comum a todos os eventos. Essa relação matemática é conhecida como lei de potência. Em um gráfico especialmente desenhado para acomodar números de várias ordens de grandeza, uma lei de potência assume a forma de uma simples linha reta.

Por onde quer que olhem, seja na natureza, seja na sociedade, os físicos costumam encontrar fenômenos oscilatórios com frequência e magnitude que obedecem leis de potência. São situações que vão da flutuação de ações de uma bolsa de valores à ocorrência de terremotos ou à propagação de sinais elétricos no cérebro humano. As similaridades entre fenômenos que acontecem em situações tão distintas levaram os pesquisadores a batizar os sistemas em que eles ocorrem como sistemas complexos. Cada um desses fenômenos tem um grande número de componentes – pense, por exemplo, nos agentes de um mercado comprando e vendendo ações ou nos neurônios do cérebro realizando sinapses – e funciona de um modo muito característico: as partes interagem de maneira quase aleatória, mas a soma dessas interações pode gerar regularidades espantosas como as leis de potência.

E, para os físicos, o fato de um fenômeno se comportar segundo uma lei de potência pode significar muita coisa. É que, de acordo com essa lei, todas as manifestações de um fenômeno – no caso do experimento da Paraíba, as oscilações de voltagem e corrente – são provocadas por uma mesma causa. Isso significa, por exemplo, que as origens de um grande terremoto são qualitativamente as mesmas que as de um pequeno abalo sísmico. A única distinção entre os eventos é sua magnitude ou tamanho. “Como não se sabe de antemão se a magnitude de um evento será grande ou pequena”, explica Oriá, “disseminou-se a ideia de que todos os sistemas complexos são intrinsecamente imprevisíveis”.

Físicos que aplicaram essa ideia ao estudo do mercado financeiro – fundando uma disciplina conhecida como econofísica – chegaram à conclusão de que grandes flutuações nos preços não precisam ser causadas necessariamente por uma grande mudança político-econômica. Muitas vezes, uma crise financeira pode se originar como uma flutuação de preço normal que, por acaso, toma grandes proporções. Crises financeiras, portanto, seriam inevitáveis. “Essa é uma visão particularmente pessimista e até perigosa, já que promove uma atitude de irresponsabilidade”, defende Sornette, que vem alertando seus colegas físicos desde os anos 1990 para o fato de que nem todas oscilações financeiras seguem leis de potência, especialmente as maiores.

O que Sornette falou do mercado financeiro Gauthier e os dois colegas brasileiros observaram com os osciladores caóticos. De modo geral, os eventos de dessincronização até seguiam uma lei de potência. Mas os eventos mais extremos transgrediam a lei, acontecendo numa frequência muito maior. Esses eventos desenhavam um pico proeminente em uma das extremidades dos gráficos, para o qual os pesquisadores não tinham explicação.

Foras da lei
Gauthier, Cavalcante e Oriá, no entanto, logo se deram conta de que os eventos de dessincronização extremos se encaixavam perfeitamente na definição do que Sornette chama de dragon kings: são os eventos mais extremos que podem acontecer em um sistema complexo e que ocorrem em uma frequência muito maior que a esperada pela lei de potência, que rege os demais eventos do sistema.

A ideia de que o surgimento de dragon kings seria mais previsível e controlável do que outros eventos extremos nasceu com a primeira aplicação bem-sucedida da teoria de Sornette: a prevenção da ruptura da fuselagem dos foguetes Ariane, usados pela Agência Espacial Europeia. Durante os lançamentos, engenheiros registravam com sensores acústicos variações de ruído causadas por estresse na estrutura do foguete. Ao analisar esses dados, Sornette observou que o barulho dos eventos de ruptura aparecia em seus gráficos como dragon kings. A partir daí ele e seus colaboradores descobriram como detectar na série de emissões acústicas do foguete os sinais iniciais do desenvolvimento dessas rupturas e como usá-los para prevenir os acidentes.

Em seguida, Sornette adaptou seu método, usado até hoje nos lançamentos do foguete, ao monitoramento da economia, em busca de sinais precursores do estouro de bolhas financeiras. Há cinco anos ele coordena o Observatório de Crises Financeiras da ETH, um projeto que monitora os preços de milhares de ações negociadas em diversas bolsas de valores, inclusive na brasileira Bovespa. Uma bolha sempre começa em uma atmosfera de otimismo, em que ocorre uma supervalorização dos bens negociados. Sornette acredita que a melhor maneira de prever a chegada de uma bolha é procurar sinais de que os preços e demais índices financeiros do mercado estão passando por aquilo que ele chama de crescimento superexponencial. É quando, por exemplo, um investimento que em um mês rende 10% passa a oferecer o dobro no mês seguinte (20%) e o dobro do dobro (40%) dois meses mais tarde. Embora pareça óbvio que esse crescimento não pode durar para sempre, no calor dos negócios os investidores tendem a apresentar um comportamento de rebanho: ansiosos por lucrar com as oportunidades que todos a sua volta parecem estar aproveitando, eles – às vezes, até os mais cautelosos – se deixam levar pela euforia. Em algum momento, porém, quando a artificialidade da situação se torna insustentável, os preços despencam, levando a uma desvalorização em cascata em toda a economia.

Em seu observatório, Sornette e sua equipe detectam crescimentos superexponenciais nos índices monitorados e analisam sua evolução. O objetivo é obter informações que permitam prever o instante crítico em que o crescimento é substituído por um novo regime – de queda ou estagnação. Sornette afirma detectar o surgimento de bolhas de tamanhos variados e ser capaz de estimar quando elas têm mais chance de estourar. Um exemplo é a bolha do milagre econômico chinês, em que as ações do país cresceram 300% em poucos anos. Em setembro de 2007, durante uma conferência para investidores, Sornette os alertou de que uma mudança de regime estava prestes a ocorrer. A maioria não deu ouvidos, confiando que o governo chinês faria de tudo para manter o crescimento, com os preparativos para os Jogos Olímpicos de Pequim, que aconteceriam no ano seguinte. Três semanas depois da conferência o mercado chinês começou a despencar, até perder 70% de seu valor no fim de 2007.

De fato, a frequência e a magnitude das variações dos mercados globais dos últimos 30 anos se comportam segundo uma lei de potência, com alguns pontos extremos fora da curva, representando as piores crises financeiras do período, como a “segunda-feira negra” de 1987, quando o índice Dow Jones desvalorizou US$ 500 bilhões em um único dia, e a recessão global de 2007 e 2008, desencadeada por uma crise no mercado imobiliário norte-americano. Para Sornette, essas crises seriam dragon kings, causados por uma série de políticas de facilitação excessiva da expansão de crédito pelos bancos centrais de todo o mundo, que reforçaria crescimentos superexponenciais e outros mecanismos pelos quais dragon kings podem surgir.

Em pânico: observadores acompanham queda de ações da bolsa de Hong Kong na crise de 1997

Em pânico: observadores acompanham queda de ações da bolsa de Hong Kong na crise de 1997. © JONATHAN UTZ / AFP

Atratores estranhos
Além do crescimento superexponencial, Sornette explica que já identificou três outros mecanismos dinâmicos de formação de dragon kings. Um deles é o fenômeno do borbulhamento, observado em detalhe pela primeira vez no par de osciladores construído por Cavalcante e Oriá.

Os pesquisadores contaram com um modelo teórico desenvolvido pelo físico Edward Ott, da Universidade de Maryland, Estados Unidos, outro especialista no comportamento caótico de sistemas eletrônicos, para entender como os dragon kings se formavam nos osciladores e o que exatamente fazia com que esses eventos de dessincronização extrema crescessem muito mais que os demais eventos.

De trabalhos anteriores de Gauthier e Ott, os pesquisadores já sabiam que as oscilações caóticas desses circuitos eletrônicos desenham em um espaço abstrato, onde a largura, a altura e o comprimento representam propriedades que caracterizam o par de osciladores em certo instante, uma figura de linhas infinitas conhecida como atrator estranho.

Quando em sincronia, as oscilações caóticas dos dois circuitos, apesar de erráticas, permanecem restritas às linhas que compõem o atrator estranho, cuja forma lembra um par de asas de borboleta. “Descobrimos, no entanto, que existe um ponto específico do atrator com uma instabilidade tão forte que domina a dinâmica do sistema”, explica Cavalcante.

Esse ponto de forte instabilidade, localizado na junção das asas de borboleta, é o responsável por todos os eventos de dessincronização. Quanto mais os valores de oscilação dos circuitos se aproximam desse ponto, maior a chance de a trajetória que descreve o sistema saltar momentaneamente para fora do plano do atrator. Quanto maior o salto, maior a dessincronização entre os osciladores. A maioria das aproximações do ponto de instabilidade provoca as dessincronizações descritas por uma lei de potência. Mas, em circunstâncias especiais, quando a trajetória se aproxima demais do ponto instável, ruídos eletrônicos e pequenas diferenças entre os componentes dos circuitos podem ser amplificados até gerarem os dragon kings.

“A diferença entre os eventos da lei de potência e os dragon kings é complicada e ainda estamos tentando entender os detalhes”, diz Cavalcante. Mesmo assim a compreensão qualitativa da diferença entre os dois tipos de dessincronização já permitiu aos pesquisadores identificar certa combinação de voltagens e correntes dos osciladores cujo valor serve como um alarme contra dragon kings. Nos testes feitos na UFPB, quando essa variável alcançava um valor limite, sinalizando que um dragon kings estava prestes a se formar, os pesquisadores realizavam uma pequena intervenção na eletrônica dos osciladores. Como resultado, conseguiam manter a trajetória do sistema no plano do atrator, impedindo a dessincronização extrema. Assim, os dragon kingsdesapareciam completamente (ver gráficos na página 53) “Essa intervenção pequena era aplicada em apenas 1,5% do tempo de operação dos osciladores e era 100% eficaz”, diz Cavalcante.

Ovos de Dragão
Embora o sucesso do experimento empolgue, os pesquisadores têm noção da distância gigantesca que existe entre a complexidade de um par de osciladores eletrônicos e um mercado financeiro. “Aplicar esse procedimento a sistemas reais não é trivial”, comenta o economista Daniel Cajueiro, da Universidade de Brasília. Ele, que tem experiência na aplicação de modelos da física em economia e já colaborou com o Banco Central, diz que, por ora, “esse trabalho pode ser tomado como ponto de partida para uma nova linha de pesquisa”.

A esperança dos pesquisadores é que os mercados financeiros possam, ao menos em certas circunstâncias, se comportar como um sistema de osciladores caóticos interligados. Os osciladores, no caso, seriam os agentes do mercado, comprando e vendendo. Suas decisões estariam ligadas por meio do comportamento de rebanho. Nesse cenário, uma crise poderia ser evitada identificando os pontos de instabilidade do atrator estranho do sistema e criando regras no mercado que impeçam que sua evolução passe muito perto deles.

“Trabalho com previsões e sei como é difícil fazê-las”, afirma o economista Pedro Valls, diretor do Centro de Estudos Quantitativos em Economia e Finanças da Fundação Getúlio Vargas, em São Paulo. “Acreditar em regularidades é acreditar no determinístico, o que não faz sentido em economia, estatística e finanças.”

Valls acha pouco provável que a economia siga leis deterministas. Para ele, aliás, ocorre o contrário: a maioria dos modelos econométricos usados por pesquisadores, governos e investidores são estocásticos, isto é, baseados em probabilidades determinadas por processos aleatórios. Sornette rebate afirmando que modelos estocásticos também podem exibir dragon kings e que o melhor método de previsão de bolhas financeiras seria um modelo híbrido, com componentes determinísticos e estocásticos. O problema, segundo Sornette, é que muitos economistas insistem em acreditar que as soluções matemáticas dos modelos criados por eles deveriam valer o tempo todo. Já os modelos de Sornette, argumenta o próprio físico, valem apenas em alguns momentos críticos, quando o sistema se torna momentaneamente determinístico e previsível. Valls nota, entretanto, que os modelos de Sornette não são os únicos capazes de fazer isso. Existe uma vasta literatura em econometria, segundo ele, discutindo modelos estocásticos capazes de incorporar mudanças determinísticas ou estocásticas. Esses modelos, chamados modelos de mudança markoviana, podem ter diferentes regimes, sendo que um deles pode descrever uma crise. Esses modelos permitem quantificar as probabilidades de o mercado entrar e sair do regime de crise, ajudando, assim, a prever bolhas.

Embora considere que a teoria de Sornette tem muitos méritos, Cajueiro aponta pelo menos duas dificuldades para tornar viável o controle desses sistemas complexos. A primeira é que, diferentemente do experimento de Calvancante e Oriá, em que a estatística dos eventos extremos foi identificada pela tomada de milhões de dados, as crises financeiras não são tão frequentes assim. “Nesse caso, seria necessário construir um modelo para o sistema fora da normalidade a partir de uma amostra pequena de eventos”, explica Cajueiro.

E ainda que um modelo inspire confiança suficiente para ser adotado, por exemplo, na regulação do mercado pelo Banco Central, pode ser que as intervenções sugeridas pela teoria sejam simplesmente impossíveis de ser implementadas, por questões práticas e até éticas. “Pouco se sabe qual seria a resposta dos agentes econômicos a uma intervenção e o que ocorreria se esses agentes antecipassem a resposta do Banco Central”, diz Cajueiro. Como o mercado financeiro não é um sistema isolado, uma mudança feita para impedir a formação de uma bolha poderia ter consequências inesperadas em variáveis como inflação, taxas de câmbio e desemprego.

Além disso, o próprio Sornette reconhece que as bolhas financeiras têm seu lado positivo. Quando movidas por aumentos reais na produtividade, consequência da descoberta de novas fontes de recursos ou de inovações tecnológicas promissoras, elas fomentam um clima de otimismo que toma conta das atividades econômicas, levando a sociedade a assumir riscos e a alcançar sucessos que seriam impossíveis de outra forma.

O modelo da UFPB pode ajudar a testar métodos de intervenções mais realistas, que levem em conta a fascinação pelas bolhas e a resistência da sociedade de interromper o crescimento delas antes de um colapso. “O que fizemos até agora nos osciladores foi usar um método de controle ótimo, que mata os dragon kings  ainda nos ovos, antes de nascerem e crescerem”, explica Sornette. “Podemos usar esse sistema para estudar outras intervenções, mais atrasadas e limitadas, de maneira a quantificar os custos e as consequências de nossas ações.”

Artigo científico
CAVALCANTE, H.L.D.S. et alPredictability and suppression of extreme events in a chaotic systemPhysical Review Letters. v. 111, n. 19. 4 nov. 2013.

Brasil já vive a crise climática global (Estadão)

JC e-mail 4896, de 17 de fevereiro de 2014

Perturbações na Austrália e no Pacífico mudam padrões e causam calor no País e no Alasca, neve no leste dos EUA e cheia na Inglaterra

Calor extremo e seca no Sudeste brasileiro. Nevascas e frio intenso na costa leste dos Estados Unidos. Ondas de calor no Alasca e na China em pleno inverno. Enchentes na Inglaterra. Temperaturas escaldantes e incêndios florestais por toda a Austrália. Tudo isso acontecendo ao mesmo tempo; e não é por acaso, segundo os meteorologistas.

“Todos esses eventos estão conectados dentro de um sistema climático global”, disse ao Estado a pesquisadora Maria Assunção da Silva Dias, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo. Um sistema que, segundo ela – e a esmagadora maioria dos cientistas – está sendo alterado pelo acúmulo de gases do efeito estufa lançados na atmosfera pelo homem nos últimos 150 anos.

Treze dos 14 anos mais quentes já registrados pelo homem ocorreram nos últimos 14 anos, com a exceção de 1998. O ano passado foi o sexto mais quente. E o clima de 2014 parece ter começado fora dos trilhos também, com eventos extremos de temperatura e precipitação – para mais ou para menos – espalhados por todos os continentes.

O foco dessas perturbações atuais, segundo Assunção, está do outro lado do mundo. Mais especificamente no norte da Austrália e no sul da Indonésia, onde está chovendo muito, e na região central do Oceano Pacífico, onde está chovendo pouco.

Isso altera os padrões das correntes de jato (ventos fortes de altitude) nos dois hemisférios; o que altera os padrões de chuva típicos desta época, tornando o tempo extremamente estável e persistente em regiões de latitudes mais altas. O clima parece que “estacionou” nessas regiões, intensificando todos os efeitos. Um cenário que demonstra claramente como as mudanças climáticas são um problema global, que afetará todos os países, independentemente de sua posição geográfica ou situação econômica, dizem os especialistas.

Os modelos globais de previsão climática variam bastante entre si, mas todos preveem um aumento na ocorrência de eventos climáticos extremos nas próximas décadas, por causa do aquecimento global. “Os extremos vão ficar mais intensos e ocorrer com mais frequência”, resume Assunção.

Ligação. O que está acontecendo agora, portanto, é exatamente o que os cientistas do clima preveem que começará a ocorrer com mais frequência daqui para a frente. Estabelecer uma relação direta de causa e efeito entre o aquecimento global e um evento climático qualquer, porém, é extremamente difícil.

“Sempre que há algum fenômeno extremo em curso as pessoas perguntam se isso tem a ver com o aquecimento global, mas essa é uma pergunta muito difícil de responder”, explica o meteorologista Marcelo Seluchi, coordenador-geral de pesquisa e desenvolvimento do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), vinculado ao Ministério da Ciência, Tecnologia e Inovação.

A resposta, segundo ele, depende de um análise estatística do comportamento do clima ao longo de várias décadas, para ter certeza de que se trata de uma mudança sistemática e não apenas de flutuação pontual. “Mesmo dez anos é pouco tempo”, avalia Seluchi, com a ressalva de que não é possível esperar por essa certeza para começar a agir, pois já será tarde demais para reverter o processo. O economista Nicholas Stern coloca os fatos de forma contundente. “A mudança climática está aqui, agora”, diz o título de um artigo escrito por ele, manchete do jornal britânico The Guardian, anteontem, com uma foto do Rio Tâmisa transbordando sobre Londres.

(Herton Escobar/Estadão)
http://www.estadao.com.br/noticias/vida,brasil-ja-vive-a-crise-climatica-global,1130765,0.htm

Modelo pode ajudar a prever como espécies da Mata Atlântica responderão às mudanças climáticas (Fapesp)

Pesquisadores do Brasil e dos EUA buscam compreensão dos processos evolutivos, geológicos, climáticos e genéticos por trás do padrão atual da biodiversidade (foto:Samuel Iavelberg)

11/02/2014

Por Karina Toledo

Agência FAPESP – Compreender os processos evolutivos, geológicos, climáticos e genéticos por trás da enorme biodiversidade e do padrão de distribuição de espécies da Mata Atlântica e, com base nesse conhecimento, criar modelos que permitam prever, por exemplo, como essas espécies vão reagir às mudanças no clima e no uso do solo.

Esse é o objetivo central de um projeto que reúne pesquisadores do Brasil e dos Estados Unidos no âmbito de um acordo de cooperação científica entre o Programa de Pesquisas em Caracterização, Conservação, Recuperação e Uso Sustentável da Biodiversidade do Estado de São Paulo (BIOTA-FAPESP) e o programa Dimensions of Biodiversity, da agência federal norte-americana de fomento à pesquisa National Science Foundation (NSF).

“Além de ajudar a prever o que poderá ocorrer no futuro com as espécies, os modelos ajudam a entender como está hoje distribuída a biodiversidade em áreas onde os cientistas não têm acesso. Como fazemos coletas por amostragem, seria impossível mapear todos os microambientes. Os modelos permitem extrapolar essas informações para áreas não amostradas e podem ser aplicados em qualquer tempo”, explicou Ana Carolina Carnaval, professora da The City University of New York, nos Estados Unidos, e coordenadora do projeto de pesquisa ao lado de Cristina Miyaki, do Instituto de Biociências da Universidade de São Paulo (IB-USP).

A proposta, segundo Carnaval, é promover a integração de pesquisadores de diversas áreas – como ecologia, geologia, biogeografia, genética, fisiologia, climatologia, taxonomia, paleologia, geomorfologia – e unir ciência básica e aplicada em benefício da conservação da Mata Atlântica.

O bioma é considerado um dos 34 hotspots mundiais, ou seja, uma das áreas prioritárias para a conservação por causa de sua enorme biodiversidade, do alto grau de endemismo de suas espécies (ocorrência apenas naquele local) e da grande ameaça de extinção resultante da intensa atividade antrópica na região.

A empreitada coordenada por Carnaval e por Miyaki teve início no segundo semestre de 2013. A rede de pesquisadores esteve reunida pela primeira vez para apresentar suas linhas de pesquisa e seus resultados preliminares na segunda-feira (10/02), durante o “Workshop Dimensions US-BIOTA São Paulo – A multidisciplinary framework for biodiversity prediction in the Brazilian Atlantic forest hotspot”.

“Convidamos alguns colaboradores além de pesquisadores envolvidos no projeto, pois queremos críticas e sugestões que permitam aperfeiçoar os trabalhos”, contou Miyaki. “Essa reunião é um marco para conseguirmos efetivar a integração entre as diversas áreas do projeto e criarmos uma linguagem única focada em compreender a Mata Atlântica e os processos que fazem esse bioma ser tão especial”, acrescentou.

Entre os mistérios que os cientistas tentarão desvendar estão a origem da incrível diversidade existente na Mata Atlântica, possivelmente fruto de conexões existentes há milhões de anos com outros biomas, entre eles a Floresta Amazônica. Outra questão fundamental é entender a importância do sistema de transporte de umidade na região hoje e no passado e como ele permite que a Mata Atlântica se comunique com outros sistemas florestais. Também está entre as metas do grupo investigar como a atividade tectônica influenciou o curso de rios e afetou o padrão de distribuição das espécies aquáticas.

Desafios do BIOTA

Durante a abertura do workshop, o presidente da FAPESP, Celso Lafer, realçou a importância de abordagens inovadoras e multidisciplinares voltadas para a proteção da biodiversidade da Mata Atlântica. Ressaltou ainda que a iniciativa está em consonância com os esforços de internacionalização realizados pela FAPESP nos últimos anos.

“Uma das grandes preocupações da FAPESP tem sido o processo de internacionalização, que basicamente está relacionado ao esforço de juntar pesquisadores de diversas áreas para avançar no conhecimento. Este programa de hoje está relacionado a aspirações dessa natureza e tenho certeza de que os resultados serão altamente relevantes”, afirmou Lafer.

Também durante a mesa de abertura, o diretor do IB-USP, Carlos Eduardo Falavigna da Rocha, afirmou que o programa BIOTA-FAPESP tem sido um exemplo para outros estados e outras fundações de apoio à pesquisa em âmbito federal e estadual.

Carlos Alfredo Joly, professor da Universidade Estadual de Campinas (Unicamp) e coordenador do BIOTA-FAPESP, apresentou um histórico das atividades realizadas pelo programa desde 1999, entre elas a elaboração de um mapa de áreas prioritárias para conservação que serviu de base para mais de 20 documentos legais estaduais – entre leis, decretos e resoluções.

Joly também falou sobre os desafios a serem vencidos até 2020, como empreender esforços de restauração e de reintrodução de espécies, ampliar o entendimento sobre ecossistemas terrestres e sobre os mecanismos que mantêm a biodiversidade no Estado e intensificar as atividades voltadas à educação ambiental.

Para 2014, Joly ressaltou dois desafios na área de conservação. “Estamos iniciando uma campanha para o tombamento da Serra da Mantiqueira. Já fizemos alguns artigos de jornais, estamos lançando um website específico e vamos trabalhar para conseguir tombar regiões acima de 800 metros, áreas apontadas como de extrema prioridade para conservação no atlas do BIOTA”, disse.

Outra meta para 2014, segundo Joly, é trabalhar para que o Brasil ratifique o protocolo de Nagoya – tratado internacional que dispõe sobre a repartição de benefícios do uso da biodiversidade – até outubro, quando ocorrerá a 12ª Conferência das Partes da Convenção sobre Diversidade Biológica.

“É fundamental que um país megadiverso, que tem todo o interesse de ter sua biodiversidade protegida por esse protocolo internacional, se torne signatário do protocolo antes dessa reunião”, afirmou Joly.

Transposição do Rio São Francisco: via de mão única (Agência Pública)

07/2/2014 – 12h13

por Marcia Dementshuk, para a Agência Pública

sertanejos Transposição do Rio São Francisco: via de mão única

Sertanejos convivem com a obra há quase sete anos sem soluções para as consequências da seca. Foto: Mano Carvalho

Na primeira matéria do projeto Reportagem Pública, a repórter viaja ao Eixo Leste – e mostra como a população está sendo afetada pelas obras

“Sem dúvida, com a transposição do rio São Francisco será oferecida segurança hídrica para o Nordeste”, garantiu o diretor-presidente da Agência Nacional das Águas (ANA), Vicente Andreu Guillo, durante nossa entrevista. A aposta do governo federal é alta: o orçamento atual da transposição é de R$ 8.158.024.630,97 (o dobro do previsto inicialmente), financiados pelo Programa de Aceleração ao Crescimento (PAC I e II). Trata-se do maior empreendimento de infraestrutura hídrica já construído no Brasil, que mudará para sempre a cara da região.

Menos de 5% das reservas hídricas do país estão no Nordeste do país, que detém entre 12% e 16% das reservas de água doce no planeta. O clima semiárido, seco, quente e com poucas chuvas domina o sertão, território com mais de 22,5 milhões de habitantes (Censo IBGE/2010).

Neste cenário, a notícia de que seria possível transportar a água do Rio São Francisco para regiões mais secas transformou-se em esperança para os nordestinos de todas as épocas. Fala-se nessa obra desde os tempos do Império, quando, em 1877, o intendente do Crato, no Ceará, apresentou para dom Pedro II um projeto que levaria águas do Rio São Francisco até o rio Jaguaribe, no seu estado.

A obra foi iniciada 130 anos depois, durante o governo de Luiz Inácio Lula da Silva, com base no projeto elaborado no governo de Fernando Henrique Cardoso. Depois do investimento inicial, de cerca de R$ 4 bilhões, o rendimento dos trabalhos diminuiu em 2010 por problemas de adequação do Projeto-Base à realidade da execução , e novas licitações precisaram ser feitas. Somente no final de 2013, conforme o Ministério da Integração Nacional, responsável pelo projeto, as obras foram 100% retomadas.

Hoje, o empreendimento aponta 51% de avanço, e o orçamento dobrou. A nova previsão para a conclusão é em dezembro de 2015, quando as águas deverão alcançar afinal o leito do rio Paraíba, no Eixo Leste, e o reservatório Engenheiro Ávidos, pelo Eixo Norte, ambos na Paraíba.

Ali do lado, falta água

O projeto prevê que as águas captadas do Rio São Francisco em dois canais de aproximação (no Eixo Norte, em Cabrobó e no Eixo Leste, no reservatório de Itaparica, em Floresta,ambos em Pernambuco) serão conduzidas pelos canais até os reservatórios, de onde abastecerão dezenas de municípios dos estados de Pernambuco, Paraíba, Ceará e Rio Grande do Norte, aproveitando a rede de saneamento existente. Projetos referentes a tomadas para uso difuso (pontos de tomada de água captadas ao longo dos canais para abastecer as comunidades instaladas nas proximidades) ainda estão em fase de elaboração. O Ministério da Integração ainda não definiu que pontos serão esses, nem os locais exatos de captação. Da mesma forma, os valores finais do custo desta água para a população ainda estão em estudo por parte do governo federal.

A realidade, porém, é que há mais de dois anos, muitos moradores dos municípios do semiárido nem sequer têm água nas torneiras; usam a água distribuída por caminhões-pipa, de poços particulares ou públicos (a maioria com água salobra) ou da chuva (quando chove).

Manoel Transposição do Rio São Francisco: via de mão única

Em Caiçara, distrito de Custódia, Maria Célia Rodrigues da Silva disse que falta água nas torneiras desde o início das obras do PISF. Foto: Mano Carvalho

Em Caiçara, distrito de Custódia, Pernambuco, próximo ao Lote 10, que corresponde a atual Meta 2L, da construção (veja o mapa), a população toma a água enviada pelo Exército, em caminhões-pipa, uma vez por semana. Toda semana é a mesma cena: a água é despejada em uma cisterna central, e cada morador tem que ir buscar – há carroceiros que cobram em torno de R$ 5,00 ou R$ 7,00 por viagem.

O riacho Custódia passa próximo da casa de Manoel Rodrigues de Melo, agricultor de 52 anos, mas o fio de água que resta é salobra, e só serve para lavar a casa ou os estábulos. “A água boa vem de Fátima, a uns 40 quilômetros daqui. O que a gente mais precisa aqui é água, que não tem”, suplica o agricultor. Nessas condições, ele e a esposas criaram oito filhos. Todos partiram em busca de melhores condições de vida. “É muito filho, até parece mentira! Mas antigamente os invernos eram melhores, chovia mais”.

Manoel Rodrigues de Melo, que nunca saiu da região onde nasceu, viu seu terreno ser dividido pelo canal do Eixo Leste: ficou com seis quilômetros de um lado do canal e com a mesma medida do outro. Dono de um sotaque sertanejo carregado, com poucos dentes na boca, as mãos calejadas e a pele castigada pelo sol, Manoel conta que agora os bichos têm de usar a ponte sobre o canal para passar. “Senão, eles ficam ou do lado de cá, ou do lado de lá, ou tem que fazer um volta tremenda lá por baixo, onde tem um lugar pra passar. Mas o que mais a gente espera é essa água que ‘tá’ pra vir. Isso vai mudar a nossa vida aqui. Vai ser muito bom”, diz o agricultor, ansioso.

“A gente tinha água pela torneira, era ruim, mas dava pra limpeza. Mas desde que começou essa construção (referindo-se à transposição) ela foi cortada”, lembra-se a vizinha de Manoel, a dona de casa Maria Célia Rodrigues da Silva, que cuida da mãe doente, com 82 anos. “Nem as cisternas não enchem. Estamos com dois anos de seca”, completou. A água encanada provinha de um poço escavado em outro vilarejo próximo de Caiçara, Fiúza, mas ela não sabe dizer se foi cortada em função das obras da transposição, ou se o poço secou. Mesmo com o encanamento de sua casa enferrujado e sem saber se terá água para beber no dia seguinte, a vida de Maria Célia continua. Ela não teve filhos. Cria alguns bodes, cabras e galinhas no quintal da casa e conta com o dinheiro da aposentadoria de sua mãe para o sustento das duas. Trabalhava na roça, mas nada mais resistiu à seca de dois anos.

Tradicional como a seca, o pífano de Zabé

Zabe Transposição do Rio São Francisco: via de mão única

Zabé da Loca. Foto: Mano de Carvalho

A tocadora de pífano Zabé da Loca nos recebeu às vésperas de completar 90 anos. Quando tinha 79 anos, 25 dos quais passados em uma gruta, na Serra do Tungão, próximo a Monteiro (PB), Zabé se tornou conhecida no mercado de música regional. Chegou a dividir o palco com músicos como Hermeto Pascoal e Gabriel Pensador em shows no Rio de Janeiro, São Paulo, Recife, Paraíba e Brasília.

Típica sertaneja, que jamais conheceu o conforto de abrir uma torneira de onde corresse água em abundância, Zabé teve 14 irmãos, oito dos quais morreram por doenças originadas pela falta de água e desnutrição. Fumante inveterada, persistiu no hábito mesmo depois do tratamento de combate a um enfisema pulmonar e à pneumonia e não deixou de enrolar um cigarrinho durante a visita, enquanto lembrava: “Nessa serra sempre teve água da chuva que empoçava nas pedras. Mas tinha anos que não encontrávamos água em canto nenhum. A gente tinha que ir até o rio (afluente do rio Paraíba, próximo da nascente) pegar”.

Quando comentamos sobre a transposição do rio São Francisco ela reagiu: “esse negócio existe mesmo?”

Para o ex-presidente da Associação Brasileira de Recursos Hídricos, Luiz Gabriel Azevedo, o custo de operação da água da transposição é elevado e requer investimentos vultosos, quando comparado a outras alternativas. “Parte do pacto, quando se pensou esse projeto, é de que os estados fariam um trabalho forte de racionalizar o uso dentro de seus territórios, de melhorar o sistema de gestão; e os estados estão aquém dessa expectativa”, analisa. Ele alega que os estados deveriam investir mais em obras que garantissem os recursos hídricos, como manutenção e construção de açudes, estudos para perfurações de poços e principalmente em obras de saneamento e rede de distribuição de água.

“Não valerá à pena trazer uma água cara para se desperdiçar do outro lado. Não dá para executar um projeto complexo se os recursos dos açudes não forem bem usados, se não houver um sistema de distribuição, se não se tem um sistema de gestão eficiente nos estados que vão receber para gerir a água”, complementou Luiz Gabriel Azevedo.

Por Lei, o órgão competente que determinará como a água será distribuída é o Conselho Gestor do Projeto de Integração do Rio São Francisco, instituído pelo Decreto 5.995/2006. Esse Conselho é formado por representantes dos estados beneficiados com o empreendimento – Paraíba, Pernambuco, Rio Grande do Norte e Ceará – e tem por objetivo, entre outros, tratar da alocação das águas e dos rateios dos custos correspondentes.

moradores Transposição do Rio São Francisco: via de mão única

Desalentados pela seca, moradores de cidades do Sertão nordestino aguardam a chegada das águas da transposição. Foto: Mano Carvalho

Para o diretor-presidente da Agência Nacional das Águas (ANA) destaca que o Nordeste ainda carece de um conjunto de soluções hídricas, como aproveitamento máximo da escassa água da chuva, o controle do uso das águas dos reservatórios ou a transposição de águas de outras bacias hidrográficas, já que a escavação de poços do semiárido é considerada inviável. De acordo com o relatório de impacto Ambiental do PISF, (RIMA), “a maioria do território semiárido (70% da região) dispõe de pouca água subterrânea e possui solo impermeável, ou seja, absorve pouca água, limitando sua capacidade de disponibilidade. Além desse aspecto, a água, em geral, é de baixa qualidade”.

Realocação de moradores e uma vila partida ao meio

Cerca de 800 famílias foram deslocadas e receberam indenizações entre cerca de R$ 10 mil a R$ 15 mil para dar passagem às obras da transposição – de acordo com a gerência de Comunicação da CMT Engenharia, empresa responsável pelo acompanhamento das ações de compensação socioambiental do PISF – ao longo dos eixos Norte e Leste, em Pernambuco e no Ceará. De acordo com o supervisor de obras da empresa Ecoplan, Adilson Leal, porém, as terras não entraram na avaliação das propriedades a serem indenizadas por possuírem baixo valor de mercado, segundo a empresa, em função da pouca qualidade da terra para o plantio ou para o pasto, em uma região onde a chuva é escassa. Só as benfeitorias foram ressarcidas.

abastecimento Transposição do Rio São Francisco: via de mão única

Abastecimento de água potável para a população em Rio da Barra (PE), por onde passam os canais da transposição, ocorre duas vezes por semana. Foto: Mano de Carvalho

Em Rio da Barra, distrito de Sertânia, em Pernambuco, comunidade que beira o canal na altura do Lote 11, que corresponde à Meta 2L, (veja o mapa), a população se encontra duas vezes por semana na cisterna pública para se abastecer de água potável proveniente de um poço artesiano cavado pela Superintendência do Desenvolvimento do Nordeste (Sudene). Um funcionário da prefeitura de Sertânia controla o abastecimento gratuito dos galões trazidos pela população na noite anterior. O local acaba se tornando o ponto de encontro do povoado. Mães carregando baldões chegam com as crianças arrastando baldes menores, carroças carregadas de galões estacionam ao lado e todos aguardam com paciência pelo precioso líquido. Maria José Araújo Pinheiro, uma dona de casa tímida, mas de olhos atentos, aguardava sua vez quando comentou que sua mãe, Creusa Davi da Silva, aceitou a oferta do governo para desocupar suas terras no sítio Chique-Chique. “Eles ofereceram pra ela R$ 14.400, ela pegou e foi morar em Sertânia. Como ela ganha aposentadoria, está bem. Mas pagaram só pela casa”, disse Maria José.

Marcia Transposição do Rio São Francisco: via de mão única

O marido de Márcia Freire, Adilson Salvador, de Rio da Barra (PE,) é técnico ambiental nas obras da transposição. Foto: Mano de Carvalho

Márcia Maria Freire Araújo vem do outro lado do canal do Eixo Leste da transposição pegar água na cisterna pública de Rio da Barra. Ela chega sempre antes das seis da manhã, na companhia do cunhado que conduz uma carroça puxada a burro onde transportam os galões de água. Andam cerca de dois quilômetros, atravessam o canal por uma ponte provisória e os depositam em uma fila de recipientes que começou a ser formar no dia anterior. Sua família mora em outra propriedade pequena, que teve uma parte indenizada pelo Ministério da Integração Nacional. “Eu não acho que é justo perder um pedaço de terra, mas se é para fazer o bem pra tanta gente, então aceitamos”, conforma-se. Ela vê o lado bom: seu marido, Adilson Salvador, é empregado na construtora SA Paulista como técnico ambiental na transposição. “Ele conseguiu emprego desde o início da obra, primeiro por outra empresa, e agora pela Paulista”, orgulha-se Márcia Maria.

Em outra localidade, na zona rural de Sertânia, os moradores do Sítio Brabo Novo ficaram divididos pelo canal. Pelo menos treze famílias preferiram a remoção para terras acima do reservatório Barro Branco, ainda em fase de retirada da vegetação. Um número bem maior de famílias permaneceu do outro lado do reservatório.

Maria da Conceição Siqueira, viúva, de 51 anos, e seu filho, de 18 anos, deixarão a antiga moradia para trás e irão para Sertânia. “Já recebi R$ 7.500,00 por aquela casinha ali”, diz, apontando para uma casa que ficará submersa pelo reservatório, “e ganhei essa casa aqui. Mas vamos fechá-la e ir embora”. “Fiquei com um pedaço de terra muito pequeno, (cerca de 50m²) não dá pra nada. Meu filho está em tratamento, ele teve um derrame no cérebro e é melhor a gente ficar lá”, diz.

Lucineia Transposição do Rio São Francisco: via de mão única

Lucinéia ferreira Florêncio não acredita em distribuição justa das águas da transposição. Foto: Mano de Carvalho

A família das irmãs Lucicléia e Lucinéia Ferreira Florêncio, vizinhas de Maria da Conceição, tomou uma decisão diferente. “Nossa primeira casa era onde agora vai ser o reservatório, e já foi indenizada em 2007. Mas esse reservatório ocupou quase a metade do nosso terreno. Como ainda sobraram terras desse outro lado e esta é uma área liberada, decidimos construir aqui, com o dinheiro da indenização”, contou Lucinéia. Ela não soube informar o tamanho do sítio, mas a nova casa é grande. No terreno persiste uma plantação de palmas (um tipo de cactos que serve para alimentar os animais) e algumas árvores frutíferas. O resto foi perdido: abacaxi, macaxeira, milho, feijão… A irmã, Luciclélia, casou-se e construiu uma casa menor ao lado, onde vive com o marido e uma bebê de nove meses.

Lucinéia, professora, duvida que no futuro haja uma distribuição justa das águas da transposição. “Tem os pontos positivos, mas acho que vão ter os negativos também. Eu penso que com essa água toda vão começar a fazer mais obras por aqui e eu não sei se toda a comunidade vai ter acesso a essa água quando quiser. O pequeno produtor nunca é beneficiado como os grandes proprietários, nunca tem igualdade. E acho que o crescimento vai ser desordenado. A comunidade já tem uma associação de moradores, mas ainda não sabe como abordar esse assunto”, lamentou Lucinéia, dizendo que não há orientação nenhuma dos governos sobre isso.

sitio Transposição do Rio São Francisco: via de mão única

O Sítio Passagem da Pedra, em Sertânia, dividido para a construção do túnel; zeladores recuam cerca que delimita área da propriedade. Foto: Mano de Carvalho

Na área onde será construído o túnel entre Sertânia e Monteiro, no Lote 12, atual Meta 3L (veja mapa), a retomada das obras em dezembro significou a perda de mais 100 metros de terreno pelos agricultores, além dos 100 metros que já tinham recuado. “Fazer o quê? Os donos já receberam a indenização e agora que vieram construir pediram mais esse pedaço de terra”, explicam Lenilton Cordeiro dos Santos e Quitéria Araújo da Silva, zeladores do sítio Passagem da Pedra, cortado tanto pelo canal da transposição quanto pelo túnel.

Ailton Transposição do Rio São Francisco: via de mão única

“Ninguém sabe”, afirmou o capataz Aílton Ferreira falando sobre a data que deverá chegar as águas da transposição no túnel na divisa entre Pernambuco e Paraíba. Foto: Mano de Carvalho

No sítio ao lado, Aílton Ferreira de Oliveira cuida do terreno da sogra, que também foi reduzido. “Agora, o gado que sobrou, cinco cabeças, está no curral e come mandacaru, pois não tem mais o que comer por causa da seca, e o terreno ficou pequeno pro pasto”.

“E essa água, quando chega?”, interrompe o capataz do sítio, que prossegue, num monólogo: “Ninguém sabe…”.

Leia também as outras quatro reportagens da série e ainda um relato da repórter Márcia Dementshuk, onde ela conta os bastidores da reportagem.

Uma viagem ao canteiro de obras

Na Contramão da Transposição

O povo contra os areeiros

Leia os bastidores da reportagem

A Transposição, um projeto dos tempos do Império

* Publicado originalmente no site Agência Pública.

O homem do tempo (Trip)

Cacique Cobra Coral: um espírito que luta contra o desequilíbrio da natureza

11.07.2012 | Texto: Millos Kaiser | Fotos: Abiuro

Foto: Abiuro

Empenhado em “intervir nos desequilíbrios provocados pelo homem na natureza”, o espírito do velho Cacique Cobra Coral se manifesta no Brasil e faz clientes entre produtoras de shows, governos e até em casamentos reais

De: The Weather Son
Sent from iPad 3 – from Rio City Maravilhosa

Depois de segurar por mais de dez dias a chuva e o vento para a montagem e o início da Rio+20, o cacique Cobra Coral ficou muito triste com a apresentação do relatório que deve ser ratificado pelos chefes de Estado. Acionado pelo prefeito Eduardo Paes diante da previsão de chuva durante a conferência da ONU, o cacique isolou as áreas do Forte de Copacabana e do Riocentro, onde ocorria a Rio+20, e conseguiu espantar totalmente as nuvens carregadas nesses locais, fazendo uma distribuição da chuva pelo estado do Rio de Janeiro.

O remetente do e-mail “The Weather Son”, o filho do tempo, é Osmar Santos, marido da médium Adelaide Scritori. Juntos, eles são responsáveis pela Fundação Cacique Cobra Coral, criada, segundo o site oficial, “para intervir nos desequilíbrios provocados pelo homem na natureza”. Adelaide é a responsável pelo trabalho espiritual (ela prefere o termo “operações”), enquanto Osmar é “o homem do marketing”. “Eu trabalho usando uma conexão concreta, via celular, tablet e notebook, e a Adelaide opera com o cacique, conectada pelo espiritismo”, ele esclarece. A dupla contaria ainda com o auxílio de um professor aposentado da Universidade de São Paulo (USP), de um pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e de outros conselheiros – até o escritor Paulo Coelho já foi um deles, entre 2002 e 2004.

Nos últimos dias, o casal estava na fronteira entre Brasil e Argentina, tentando atrasar a chegada de uma frente fria na Rio+20. No antepenúltimo dia do evento, porém, choveu. O cacique errou? “Não erramos a previsão, porque não é isso que fazemos. Alteramos o tempo para atender o povo. Funcionamos como um airbag, mas cada uma das peças do carro precisa também fazer sua parte. E isso não ocorreu. Céu azul não combina com desatenção, insensibilidade e falta de compromisso dos que se acham donos deste planeta. Não passarão incólumes ao crash climático de 2047, quando a Terra não terá mais água, comida ou ar limpo”, justifica Osmar, adiantando de quebra o ano em que será o apocalipse final.

Nem um mês antes, os dois estavam espantando tempestades no Grande Prêmio de Fórmula 1 em Mônaco e no Rock in Rio Lisboa. Terminando a Rio+20, embarcariam para a edição espanhola do festival, em Madri, e de lá seguiriam para Londres, onde dariam uma forcinha na abertura da Olimpíada. São quase todos clientes de longa data. A FCCC mantém convênio com a secretaria de obras do Rio de Janeiro desde o segundo mandato de César Maia, iniciado em 2001. Réveillon, Carnaval, Jogos Pan-Americanos, visitas de Bush, Obama e do papa à cidade… Em todos esses eventos, o cacique estava lá. Desde o mesmo ano, ele também pode dizer “Rock in Rio, eu fui”. Na época, o espírito teria salvado o festival de uma chuva que acometera toda a Barra da Tijuca, com exceção da Cidade do Rock, e convertido Roberto Medina – em sua autobiografia, o idealizador do RIR escreveu: “O cacique quase faz parte da empresa”.

“Contratamos sempre que dá. É satisfação garantida. Quando não dá para mandar a chuva para outro lugar, ele avisa antes” , diz uma produtora de eventos

Já com a Inglaterra a relação é ainda mais antiga, data do inverno de 1987. Londres agonizava sob 30 graus abaixo de zero e a então primeira-ministra Margaret Thatcher pediu socorro dos brasileiros. No dia seguinte, a temperatura já chegava a tolerável um grau negativo. O jornal The Guardian apelidou os milagreiros de “interceptadores de catástrofes”. Acabaram virando queridinhos do gabinete real, a ponto de intercederem no recente casamento do príncipe William com Kate Middleton.

Convênios com órgãos públicos são gratuitos. Em troca, a fundação pede aos governos que apresentem um comprovante de tudo que fizeram para reduzir os danos ambientais. Quem são os clientes particulares ou quanto pagam, a FCCC não revela, dizendo apenas que “eles estão espalhados por 17 países diferentes”. A produtora de eventos Valeria (nome fictício), que utilizou o serviço seis vezes, revela que o preço varia entre R$ 20 mil e R$ 25 mil, dependendo do porte do evento e do tempo de antecedência da contratação.

Contrata-se, na verdade, a Corporação Tunikito, um conglomerado com mais de dez CNPJs (El Niño Administração, Nostradamus Corretora de Seguros, La Niña Metereology, TWX Capas de chuva etc.) cuja sede fica na cidade de Guarulhos, em São Paulo. Osmar explica melhor: “A contratação pode incluir uma série de bens e serviços, como boletins meteorológicos, seguros contra desastres, aluguel de veículos e de capas de chuva. Mas é natural que quem contrate a Tunikito espere uma retribuiçãozinha providencial do cacique, afastando a chuva no dia de seu evento”. A fundação seria mantida com 20% dos lucros da Tunikito.

Iniciais no bolso
Adelaide e Osmar se conheceram quando eram promotores comerciais da Clam Clube de Assistência Médica, uma empresa do Grupo Silvio Santos. “Sempre trabalhamos com vendas”, ele conta. Quando não estão atuando como “senhores do tempo”, Adelaide trabalha como corretora de imóveis de luxo, “de acima de R$ 1 milhão”; o forte de Osmar são os seguros de automóveis.

A Fundação Cacique Cobra Coral foi fundada em 1931 por Ângelo, pai de Adelaide. Ele teria sido o primeiro Scritori a receber o espírito do índio norte-americano, que antes haveria encarnado no ex-presidente Abraham Lincoln e no cientista Galileu Galilei. Adelaide incorporaria também “uma equipe de engenheiros siderais, cada um responsável por um fenômeno da natureza”, e teria o dom de prever o futuro – no site da fundação há a cópia de uma carta supostamente enviada à Casa Branca comunicando ao presidente George W. Bush sobre o atentado de 11 de setembro, um mês antes do ocorrido. Suas habilidades mediúnicas estão sendo transmitidas para Jorge, o primogênito, 33 anos, de seus três filhos, sacerdote em um centro umbandista.

Abiuro

Osmar e Adelaide raramente dão entrevistas. ÀTrip, toparam falar apenas por e-mail, pois pessoalmente, alegaram, “o Astral não permitiu”. A reclusão suscita notícias a seu respeito que nem sempre procedem. Recentemente, por exemplo, a mídia anunciou que o Cacique Cobra Coral havia sido solicitado na gravação do show de Roberto Carlos em Jerusalém. “Eles estavam lá, é verdade”, esclarece Léa, assessora de comunicação do concerto. “Mas a lazer, até porque a cidade é um deserto e não chove nunca. Eles eram convidados da produção, ficaram no mesmo hotel que a gente, porém acabaram indo embora antes do show por causa de um chamado urgente.”

Geralmente, quem vai até os eventos é Osmar. Adelaide fica em um hotel na cidade ou em algum ponto estratégico. “Ele chega e começa a mapear as dissipações das nuvens, medir a umidade relativa do ar. E não larga do laptop”, conta Valeria. Osmar, em suas palavras, é “um senhor extremamente simpático, de aproximadamente 60 anos, pele clara e rosto arredondado, parecido com um executivo de banco”. Dirige um Citroën C3 e suas camisas costumam ter as iniciais de seu nome bordadas no bolso.

Valeria trabalhou com a FCCC pela primeira vez em 2008. Era cética, até que viu a mágica acontecer. “A tempestade era tanta que não dava nem para montar a estrutura do palco. Faltando cinco minutos para o show começar, o céu abriu em cima do palco, enquanto em volta estava tudo preto ainda”, ela rememora. “Depois dessa, contratamos ele sempre que dá. É satisfação garantida. Quando não dá para mandar a chuva para outro lugar, ele avisa antes.” Após se encontrarem em diversos trabalhos, os dois viraram amigos. “Vou ter um casamento sábado que vem. Escrevi para ele perguntando se vai chover, para saber com que roupa devo ir.” A resposta ainda não havia chegado.

Nature can, selectively, buffer human-caused global warming, say scientists (Science Daily)

Date: February 2, 2014

Source: Hebrew University of Jerusalem

Summary: Can naturally occurring processes selectively buffer the full brunt of global warming caused by greenhouse gas emissions resulting from human activities? Yes, says a group of researchers in a new study.

As the globe warms, ocean temperatures rise, leading to increased water vapor escaping into the atmosphere. Water vapor is the most important greenhouse gas, and its impact on climate is amplified in the stratosphere. Credit: © magann / Fotolia

Can naturally occurring processes selectively buffer the full brunt of global warming caused by greenhouse gas emissions resulting from human activities?

Yes, find researchers from the Hebrew University of Jerusalem, Johns Hopkins University in the US and NASA’s Goddard Space Flight Center.

As the globe warms, ocean temperatures rise, leading to increased water vapor escaping into the atmosphere. Water vapor is the most important greenhouse gas, and its impact on climate is amplified in the stratosphere.

In a detailed study, the researchers from the three institutions examined the causes of changes in the temperatures and water vapor in the tropical tropopause layer (TTL). The TTL is a critical region of our atmosphere with characteristics of both the troposphere below and the stratosphere above.

The TTL can have significant influences on both atmospheric chemistry and climate, as its temperature determines how much water vapor can enter the stratosphere. Therefore, understanding any changes in the temperature of the TTL and what might be causing them is an important scientific question of significant societal relevance, say the researchers.

The Israeli and US scientists used measurements from satellite observations and output from chemistry-climate models to understand recent temperature trends in the TTL. Temperature measurements show where significant changes have taken place since 1979.

The satellite observations have shown that warming of the tropical Indian Ocean and tropical Western Pacific Ocean — with resulting increased precipitation and water vapor there — causes the opposite effect of cooling in the TTL region above the warming sea surface. Once the TTL cools, less water vapor is present in the TTL and also above in the stratosphere.

Since water vapor is a very strong greenhouse gas, this effect leads to a negative feedback on climate change. That is, the increase in water vapor due to enhanced evaporation from the warming oceans is confined to the near- surface area, while the stratosphere becomes drier. Hence, this effect may actually slightly weaken the more dire forecasted aspects of an increasing warming of our climate, the scientists say.

The researchers are Dr. Chaim Garfinkel of the Fredy and Nadine Herrmann Institute of Earth Sciences at the Hebrew University and formerly of Johns Hopkins University, Dr. D. W. Waugh and Dr. L. Wang of Johns Hopkins, and Dr. L. D. Oman and Dr. M. M. Hurwitz of the Goddard Space Flight Center. Their findings have been published in theJournal of Geophysical Research: Atmospheres, and the research was also highlighted in Nature Climate Change.

Journal References:

  1. C. I. Garfinkel, D. W. Waugh, L. D. Oman, L. Wang, M. M. Hurwitz. Temperature trends in the tropical upper troposphere and lower stratosphere: Connections with sea surface temperatures and implications for water vapor and ozoneJournal of Geophysical Research: Atmospheres, 2013; 118 (17): 9658 DOI: 10.1002/jgrd.50772
  2. Qiang Fu. Ocean–atmosphere interactions: Bottom up in the tropicsNature Climate Change, 2013; 3 (11): 957 DOI: 10.1038/nclimate2039

Influência humana é clara no aquecimento “inequívoco” do planeta, diz IPCC (Portal Terra)

JC e-mail 4885, de 31 de janeiro de 2014

Os cientistas do IPCC – que já foram premiados com o Nobel da Paz em 2007 – fizeram um apelo enfático para a redução de gases poluentes

Painel Intergovernamental de Mudanças Climáticas divulga primeira parte de estudo sobre aumento da temperatura no globo e afirma que últimas três décadas foram sucessivamente mais quentes que qualquer outra desde 1850.

O aquecimento do planeta é “inequívoco”, a influência humana no aumento da temperatura global é “clara”, e limitar os efeitos das mudanças climáticas vai requerer reduções “substanciais e sustentadas” das emissões de gases de efeito estufa. A conclusão é do Painel Intergovernamental de Mudanças Climáticas (IPCC), que divulgou nesta quinta-feira (30/01), em Genebra, a primeira parte do quinto relatório sobre o tema.

Os cientistas do IPCC – que já foram premiados com o Nobel da Paz em 2007 – fizeram um apelo enfático para a redução de gases poluentes. “A continuidade das emissões vai continuar causando mudanças e aquecimento em todos os componentes do sistema climático”, afirmou Thomas Stocker, coordenador e principal autor da Parte 1 do quinto Relatório sobre Mudanças Climáticas, cuja versão preliminar já foi apresentada em setembro de 2013.

O documento serviu de base durante a Conferência das Partes (COP) das Nações Unidas sobre o Clima em Varsóvia, na Polônia, no final do ano passado. Em 1500 páginas, cientistas de todo o mundo se debruçaram sobre as bases físicas das mudanças climáticas, apoiados em mais de 9 mil publicações científicas.

“O relatório apresenta informações sobre o que muda no clima, os motivos para as mudanças e como ele vai mudar no futuro”, disse Stocker.

Correções
A versão final divulgada nesta quinta é um texto revisado e editado e não tem muitas mudanças em relação ao documento apresentado em setembro do ano passado, que elevou o alerta pelo aquecimento global e destacou a influência da ação humana no processo.

“A influência humana no clima é clara”, afirma o texto. “Ela foi detectada no aquecimento da atmosfera e dos oceanos, nas mudanças nos ciclos globais de precipitação, e nas mudanças de alguns extremos no clima.”

Segundo o IPCC, desde a década de 1950, muitas das mudanças observadas no clima não tiveram precedentes nas décadas de milênios anteriores. “A atmosfera e os oceanos estão mais quentes, o volume de neve e de gelo diminuíram, os níveis dos oceanos subiram e a concentração de gases poluentes aumentou”, diz um resumo do documento.

“Cada uma das últimas três décadas foi sucessivamente mais quente na superfície terrestre que qualquer década desde 1850. No hemisfério norte, o período entre 1983 e 2012 provavelmente foi o intervalo de 30 anos mais quente dos últimos 800 anos”, prossegue.

Aquecimento dos oceanos
O grupo de cientistas também lembra que o aquecimento dos oceanos domina o aumento de energia acumulada no sistema climático, e que os mares são responsáveis por mais de 90% da energia acumulada entre 1971 e 2010.

“É praticamente certo que o oceano superior (até 700m de profundidade) aqueceu neste período, enquanto é apenas provável que tenha acontecido o mesmo entre 1870 e 1970”, diz o relatório.

O nível dos mares também aumentou mais desde meados do século 20 que durante os dois milênios anteriores, segundo estima o IPCC. Entre 1901 e 2010, o nível médio dos oceanos teria aumentado cerca de 20 centímetros, diz o documento.

As concentrações atmosféricas de dióxido de carbono, metano e protóxido de nitrogênio (conhecido como gás hilariante) aumentaram, principalmente por causa da ação humana. Tais aumentos se devem especialmente às emissões oriundas de combustíveis fósseis. Os oceanos, por exemplo, sofrem acidificação por absorver uma parte do CO2 emitido.

Futuro sombrio
A temperatura global deverá ultrapassar 1,5ºC até o final deste século em comparação com níveis estimados entre 1850 e 1900. O aquecimento global também deverá continuar além de 2100, mas não será uniforme, dizem os cientistas do clima. As mudanças nos ciclos da água no mundo também não serão homogêneos neste século, e o contraste entre regiões secas e úmidas e regiões de seca e de chuvas deverá aumentar.

O resumo do texto ainda constata que a acumulação de emissões de CO2 deverá ser determinante para o aquecimento global no final do século 21 e adiante. “A maioria dos efeitos das mudanças climáticas deverão perdurar por vários séculos, mesmo com o fim das emissões.”

Até outubro, o IPCC ainda vai publicar mais duas partes do relatório e também um documento final. A segunda parte será divulgada em março, no Japão, e detalhará os impactos, a adaptação e a vulnerabilidade a mudanças climáticas. Em abril, Berlim será palco das conclusões do IPCC sobre mitigação.

(Portal Terra)

Proposta anula leilão de exploração de petróleo no campo de Libra (Agência Câmara)

JC e-mail 4883, de 29 de janeiro de 2014

SBPC e ABC defendem mais pesquisas sobre eventuais danos ambientais da exploração do gás de xisto

Tramita na Câmara dos Deputados o Projeto de Decreto Legislativo (PDC) 1289/13, do deputado Chico Alencar (Psol-RJ), que susta a autorização do leilão de exploração de petróleo e gás no campo de Libra (RJ), realizado em outubro de 2013.

O deputado quer cancelar quatro normas que permitiram o leilão do campo onde haverá exploração do pré-sal brasileiro: as resoluções 4/13 e 5/13 do Conselho Nacional de Política Energética; a Portaria 218/13 do Ministério das Minas e Energia e o Edital de Licitação do Campo de Libra.

Com previsão de produção de 8 a 12 bilhões de barris de petróleo, o campo de Libra foi leiloado sob protestos e com forte proteção policial. Apesar da expectativa de participação de até quatro consórcios, houve apenas um, formado pelas empresas Petrobras, Shell, Total, CNPC e CNOOC. Ele venceu o leilão com a proposta de repassar à União 41,65% do excedente em óleo extraído – o percentual mínimo fixado no edital.

Alencar é contra as concessões para exploração de petróleo por considerar que a Petrobras pode explorar sozinha os campos brasileiros. Ele argumenta ainda que há vícios nas normas que permitiram o leilão. “A Agência Nacional do Petróleo publicou o texto final do edital e do contrato referentes ao leilão de Libra antes do parecer do Tribunal de Contas (TCU)”, apontou.

O deputado ressaltou ainda que as denúncias de espionagem estrangeira na Petrobras colocam suspeitas sobre o leilão. “A obtenção ilegal de informações estratégicas da Petrobras beneficia suas concorrentes no mercado e compromete a realização do leilão”, criticou.

Tramitação
A proposta será discutida pelas comissões de Minas e Energia; Finanças e Tributação; e Constituição e Justiça e de Cidadania. Depois, a proposta precisa ser aprovada em Plenário.

Íntegra da proposta:

PDC-1289/2013

(Carol Siqueira/ Agência Câmara)

Manifesto da comunidade científica
SBPC e ABC pedem mais pesquisas sobre eventuais danos ambientais da exploração do gás de xisto – http://www.sbpcnet.org.br/site/artigos-e-manifestos/detalhe.php?p=2011

Up the Financier: Studying the California Carbon Market (AAA, Anthropology and Environment Society Blog)

Posted on January 26, 2014

ENGAGEMENT co-editor Chris Hebdon catches up with University of Kentucky geographer Patrick Bigger.

Patrick Bigger at the Chicago Board of Trade

Patrick Bigger at the Chicago Board of Trade

How would you explain your dissertation research on the California carbon market?

At the broadest level, my research is about understanding how a brand new commodity market tied to environmental improvement is brought into the world, and then how it functions once it is in existence. Taking as a starting point Polanyi’s (1944) observation that markets are inherently social institutions, my work sorts though the social, geographical, and ideological relationships that are being mobilized in California and brought from across the world to build the world’s second largest carbon market. And those constitutive processes and practices are no small undertaking.

Making a multi-billion dollar market from scratch is a process that entails the recruitment and hiring of a small army of bureaucrats and lawyers, the creation of new trading and technology firms, the involvement of offset developers and exchange operators who had been active in other environmental commodities markets, and learning from more than fifty years of environmental economics and the intellectual work of think tanks and NGOs. There are literally tens of thousands of hours of people’s time embodied in the rule-making process, which result in texts (in the form of regulatory documents) that profoundly influence how California’s economy is performed every day. These performances range from rice farmers considering how much acreage to sow in the Sacramento Delta to former Enron power traders building new trading strategies based on intertemporal price differences of carbon futures for different compliance periods in California’s carbon market.

My work uses ethnographic methods such as participant-observation in public rule-making workshops and semi-structured interviews with regulators, industry groups, polluters, NGOs, and academics to try to recreate the key socio-geographical relationships that have had the most impact on market design and function. It’s about how regulatory and financial performances are intertwined, as events in the market (and in other financial markets, most notably the deregulated electric power market in California) are brought back to bear on rule-making, and then how rule-making impacts how the market and the associated regulated industrial processes are enacted. And the key thing is that there isn’t some isolated cabal of carbon’s ‘masters of the universe’ pulling the strings––it’s bureaucrats in cubicles, academics writing books, and offset developers planting trees out there making a market. And they’re people you can go observe and talk with.


Who are buying and selling these carbon credits?

That’s a trickier question than it seems. Most of the credits (aka allowances) are effectively created out of thin air by the California Air Resources board which then distributes them via either free allocation or by auction to anyone who requests authorization to bid. A significant proportion of those are given away directly to regulated industries to ease their transition to paying for their carbon output. Another way the auction works is that electric utilities are given almost all the credits they need to fulfill their obligation, but they are required to sell (consign) those permits in the auction, while they are typically also buyers. This is to prevent windfall profits, like what happened in the EU, for the electric utilities. The utilities must return the value of what they make selling their permits at auction to ratepayers, which they have done to the tune of $1.5 billion so far.

More to the spirit of the question though, it’s a pretty big world. Literally anyone can buy California Carbon on the Intercontinental Exchange (ICE), based in Chicago. From what I’ve been told, a lot of allowances pass through Houston because there is a major agglomeration of energy traders there, and carbon is often bundled into transactions like power purchase agreements that are traded over-the-counter (OTC). There’s an interesting division in who buys their credits where––companies that must comply with climate regulations tend to buy through the auction, while people trading for presumably speculative purposes tend to buy on the exchange. This isn’t even getting into who produces, sells, and buys carbon offsets, which is another market entirely unto itself. To attempt to be succinct, I’d say there is a ‘carbon industry’ in the same sense that Leigh Johnson (2010) talks about a ‘risk industry’; a constellation of brokers, lawyers, traders, insurers, and industrial concerns, and the size of these institutional actors range from highly specialized carbon traders to the commodities desk at transnational investment banks.


Would you be able to outline some ways your research could affect public policy? And how is it in dialogue with environmental justice literature and engaged scholarship?

There are a number of ways that my work could be taken up by policy makers, though to be clear I did not set out to write a dissertation that would become a how-to-build-a-carbon-market manual. Just being around regulators and market interlocutors has provided insights into the most challenging aspects to market creation and maintenance, like what sorts of expertise a bureaucracy needs, how regulators can encourage public participation in seemingly esoteric matters, or the order which regulator decisions need to be made. Beyond the nuts-and-bolts, there’s a fairly substantial literature on ‘fast policy transfer’ in geography that critiques the ways certain kinds of policy become wildly popular and are then plopped down anywhere regardless of geographical and political-economic context; I am interested in contributing to that literature because California’s carbon market was specifically designed to ‘travel’ through linkages with other sub-national carbon markets. I would also note that there are aspects of what I’m thinking about that problematize the entire concept of the marketization of nature in ways that would also be applicable to the broader ecosystem service literature and the NGOs and regulators who are trying to push back against that paradigm.

As far as the EJ literature is concerned, I’ll admit to having a somewhat fraught relationship. I set out to do a project on the economic geography of environmental finance, not to explicitly document the kinds injustices that environmental finance has, or has the potential, to produce. As a result some critics have accused me of being insufficiently justice-y. I’d respond by noting that my work is normative, even if it isn’t framed in the language of environmental justice; it certainly isn’t Kuhnian normal science. But EJ arguments, if they are any good, do depend on empirical grounding and I would hope that my work provides that.

At the Chicago Board of Trade.

“I’d be really happy if scholars of other markets could find parallels to my work that demonstrated that all markets, not just environmental ones, were as much about the state as they are about finance.”

Your advisor Morgan Robertson has written about “oppositional research,” and research “behind enemy lines,” drawing on his experience working inside the Environmental Protection Agency. What has oppositional research meant for you?

I think about it as using ethnographic methods to poke and prod at the logics and practices that go into building a carbon market. I think for Morgan it was more about the specific problems and opportunities of being fully embedded in an institution whose policies you want to challenge. That position of being fully ‘inside’ isn’t where I’m at right now, and it’s a difficult position to get into either because you just don’t have access, because the researcher doesn’t want to or isn’t comfortable becoming a full-fledged insider, or because academics often just don’t have time to do that sort research. It’s also contingent on what sort of conversational ethnographic tact you want to take––when you’re fully embedded you lose the option of performing the research space as a neophyte, which can be a very productive strategy. One thing that I will mention is that oppositional research is based on trust. You must have established some rapport with your research participants before you challenge them head-on, or they may just walk away and then you’ve done nothing to challenge their practices or world view, you’ve potentially sewn ill will with future research participants, and you won’t get any of the interesting information that you might have otherwise.


How about the method of “studying up”?

For starters, the logistics of ‘studying up’ (Nader 1969) are substantially different than other kinds of fieldwork. There’s lots of downtime (unless you’re in a situation where you’ve got 100% access to whatever you’re studying, e.g.  having a job as a banker or regulator) because there aren’t hearings or rule-making workshops everyday, or even every week, and the people making the market are busy white-collar people with schedules. I feel like I’ve had a really productive week if I can get 3 interviews done.

Beyond the logistics, one of the most challenging parts of studying a regulatory or financial process you’re not fully onboard with is walking the line between asking tough questions of your research participants and yet not alienating them. It has been easy for me to go in the other direction as well––even though I think carbon markets are deeply problematic and emblematic of really pernicious global trends toward the marketization of everything, I really like most of my research participants. They’re giving me their time, they tell me fascinating stories, and they’ve really bent over backward to help me connect with other people or institutions it never would have occurred to me to investigate. And that can make it tough to want to challenge them during interviews. After a while, it’s also possible to start feeling you’re on the inside of the process, at least as far as sharing a language and being part of a very small community. There aren’t many people in the world that I can have a coffee with and make jokes about one company’s consistently bizarre font choices in public comments documents. So even though the market feels almost overwhelmingly big in one sense, it’s also very intimate in another. I’m still working out how to write a trenchant political-economic critique with a much more sympathetic account of regulatory/market performance. Even many guys in the oil-refining sector are deeply concerned about climate change.


Would you ever take a job in a carbon trading firm?

Absolutely. There’s a rich literature developing that gets into the nuts and bolts of many aspects of finance, including carbon trading in the social studies of finance/cultural economics that overlaps with scholarship in critical accounting and even work coming out of some business schools. Some of those folks, like Ekaterina Svetlova (see especially 2012), have worked or done extended participant observation in the financial institutions that are being unpacked in broader literatures around performative economics and have provided useful critiques or correctives that is helping this literature to mature.

However, much of this work is subject to the same pitfalls as other work in the social studies of finance, especially the sense that scholars ‘fall in love’ with the complexity of their research topic and the ingenuity of their research participants qua coworkers and ultimately fail to link them back to meaningful critiques of the broader world. All that said, I’m not sure I’ve got the chops to work in finance. I’d be more interested in, and comfortable with, working in the environmental and economic governance realm where I could see, on a daily basis, how the logics of traders meet the logics of regulation and science.


What advice would you give to scholars who may do research on carbon markets in the future?

Get familiar with the language and logics of neoclassical economics. Really familiar. Take some classes. If you’re studying neoliberal environmental policy, it shouldn’t come as a surprise that regulation is shot through with the logics of market triumphalism at a level that just reading David Harvey (2003, 2005) probably wouldn’t prepare you for. A little engineering, or at least familiarity with engineers, wouldn’t be amiss either.

On a really pragmatic level, if you can get access, get familiar with being in an office setting if you haven’t spent much time in one. Being in a new kind of space can be really stressful and if you’re not comfortable in your surroundings you might not be getting the most out of your interviews.

If you’re studying a carbon market specifically, take the time to understand how the electricity grid works. I lost a lot of time sitting through workshops that were well over my head dealing with how the electric power industry would count its carbon emissions. I would have gotten much more out of them if I’d had even a cursory understanding of how the electricity gets from the out-of-state coal-fired power plant to my toaster.

Don’t expect to just pop in-and-out of fieldwork. Make yourself at home. Take some time to figure out what the points of tension are. That’s not to say you must do an ‘E’thnography, but taking the time at the beginning to understand the playing field will make it easier to understand the maneuvering later.

Read the specialist and general press every single day. Set up some news aggregator service to whatever market or regulation you’re looking at. It’s what your participants will be reading, and if they aren’t then you’ll really look like you know what you’re doing.


What are broad implications of your research?

I think starting to come to grips on the creation, from nothing, of a commodity market worth more than a billion dollars could have all sorts of impacts I can’t even imagine. I’d be really happy if scholars of other markets could find parallels to my work that demonstrated that all markets, not just environmental ones, were as much about the state as they are about finance, and not just in the way that Polanyi wrote about them. I’d also like to help people think through the relationship between the economic structures that people build, and then how they inhabit them through economic ideology, the performance of that ideology and their modern representation, the economic model. In some ways this is reopening the structure-agency debates that have been simmering for a long time. I also want to provide more grist for the mill in terms of unpacking variegated neoliberalisms––there are quite a few examples I’ve run across in my work where discourses about the efficiencies of markets run up against either therealpolitik of institutional inertia or perceived risks to the broader economy (which can be read as social reproduction).

In terms of policy, I hope that regulatory readers of my work will think about the relative return on investment (if I can appropriate a financial concept) in deploying market-based environmental policy as opposed to direct regulation, particularly around climate change. We’re in a situation that demands urgency to curb the worst impacts of carbon pollution, so it is of the utmost importance that the state take dramatic action, and soon. That said, wouldn’t it be interesting if this carbon market ended up accomplishing its goals? If it does, then I hope my work would take on different kinds of significance.

* * *

Harvey, David. 2003. The New Imperialism. New York: Oxford University Press.

Harvey, David. 2005. A Brief History of Neoliberalism. New York: Oxford University Press.

Johnson, Leigh. 2010. Climate Change and the Risk Industry: The Multiplication of Fear and Value. Richard Peet, Paul Robbins and Michael Watts, eds. Global Political Ecology. London: Routledge.

Nader, Laura. 1969. Up the Anthropologist: Perspectives Gained from Studying Up. Dell Hymes, ed. Reinventing Anthropology. New York: Random House.

Polanyi, Karl. 1944. The Great Transformation. Boston: Beacon.

Svetlova, Ekaterina. 2012. On the Performative Power of Financial Models. Economy and Society 41(3): 418-434.

IPCC: próximos 15 anos serão vitais para frear aquecimento global (CarbonoBrasil)

20/1/2014 – 12h54

por Jéssica Lipinski , do CarbonoBrasil

secawiki 300x204 IPCC: próximos 15 anos serão vitais para frear aquecimento global

Foto: Wikimedia commons

Rascunho do novo relatório da entidade afirma que evitar as piores consequências das mudanças climáticas custará até 4% da produção econômica mundial, valor que aumentará se demorarmos para agir.

Diversos veículos da imprensa internacional divulgaram nos últimos dias dados do próximo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), que será publicado oficialmente apenas em abril.

De acordo com essas informações, o que o IPCC destaca é que a menos que o mundo aja agora para frear as emissões de gases do efeito estufa (GEEs), os efeitos negativos do aquecimento global representarão enormes desafios para a humanidade ainda neste século, tornando-se cada vez mais caros e difíceis de serem resolvidos.

Segundo o documento, manter o aquecimento global dentro de limites considerados toleráveis, algo perto de dois graus Celsius, vai exigir investimentos bilionários, grandes reduções nas emissões de GEEs e soluções tecnológicas caras e complexas para retirar tais gases da atmosfera.

Tudo isso deve ser feito nos próximos 15 anos, caso contrário será ainda mais difícil lidar com a questão. “Adiar a mitigação até 2030 aumentará os desafios… e reduzirá as opções”, alerta o sumário do relatório.

O estudo aponta que uma das principais razões para o aumento das emissões é o crescimento econômico baseado na queima de fontes de energia fóssil, como o carvão e o petróleo, atividade que estima-se que deve crescer nas próximas décadas.

Por isso, a pesquisa indica que as emissões de dióxido de carbono devem ser reduzidas de 40% a 70% até 2050 para que a meta de dois graus Celsius de aquecimento estipulada pela ONU seja atendida.

Isso significa que os governos terão que apoiar e utilizar uma série de tecnologias para retirar o CO2 da atmosfera, como a captura e armazenamento de carbono (CCS) e o plantio de mais florestas.

O relatório também sugere que, para limitar o aquecimento global de forma significativa, serão necessários investimentos da ordem de US$ 147 bilhões por ano até 2029 em fontes de energia alternativa, como eólica, solar e nuclear.

Ao mesmo tempo, investimentos em energias fósseis teriam que cair em US$ 30 bilhões por ano, enquanto bilhões de dólares anuais teriam que ser gastos na melhoria da eficiência energética em setores importantes como transporte, construção e indústria.

O documento, contudo, afirma que o caminho para mitigar as mudanças climáticas não será nada fácil, visto que vai em direção contrária do que está acontecendo atualmente. De acordo com o estudo, as emissões globais subiram, em média, 2,2% ao ano entre 2000 e 2010, quase o dobro em relação ao ritmo do período de 1970 a 2000, que era de 1,3% ao ano.

“A crise econômica global em 2007-2008 reduziu as emissões temporariamente, mas não mudou a tendência”, diz o relatório.

Além disso, o combate ao aquecimento global custaria 4% da produção econômica mundial, e exigiria uma diminuição gradativa no consumo de bens e serviços: entre 1% e 4% até 2030, entre 2% e 6% até 2050 e entre 2% e 12% até 2100.

“Sem esforços explícitos para reduzir as emissões de gases do efeito estufa, os fatores fundamentais do crescimento das emissões devem persistir”, afirma o estudo.

Outro problema que a pesquisa aponta é que as emissões de países desenvolvidos estão sendo transferidas para nações emergentes, ou seja, a suposta redução de emissões de alguns países ricos é na verdade menor do que se imagina.

Desde 2000, as emissões de carbono para China e outras economias emergentes mais do que dobrou para quase 14 gigatoneladas por ano, mas destas, cerca de duas gigatoneladas foram da produção de bens para a exportação.

“Uma parcela crescente das emissões de CO2 da queima de combustíveis fósseis em países em desenvolvimento é liberada da produção de bens e serviços exportados, principalmente de países de renda média-alta para países de renda alta”, colocou o documento.

Esse estudo é o terceiro documento da quinta avaliação do IPCC sobre o que se sabe sobre as causas, efeitos e futuro das mudanças climáticas.

Em setembro de 2013, o painel divulgou a primeira parte da avaliação, que confirma com 95% de certeza a influência humana sobre o aquecimento global.

O segundo relatório, sobre os impactos das mudanças climáticas, será concluído e divulgado em março, no Japão. Este terceiro será finalizado e divulgado em abril, na Alemanha. Um documento final, sintetizando as três partes, deve ser lançado em outubro deste ano.

Os cientistas do painel concordaram em comentar o estudo assim que ele estiver finalizado. “É um trabalho em progresso, e estamos ansiosos para discuti-lo quando ele for finalizado, em abril”, observou Jonathan Lynn, porta-voz do IPCC, em uma entrevista por telefone à Bloomberg.

* Publicado originalmente no site CarbonoBrasil.

Get Used to Heat Waves: Extreme El Nino Events to Double (Science Daily)

Jan. 19, 2014 — Extreme weather events fueled by unusually strong El Ninos, such as the 1983 heatwave that led to the Ash Wednesday bushfires in Australia, are likely to double in number as our planet warms.

Bush fires (stock photo). The latest research based on rainfall patterns, suggests that extreme El Niño events are likely to double in frequency as the world warms leading to direct impacts on extreme weather events worldwide. (Credit: © Dusan Kostic / Fotolia)

An international team of scientists from organizations including the ARC Centre of Excellence for Climate System Science (CoECSS), the US National Oceanic and Atmospheric Administration and CSIRO, published their findings in the journal Nature Climate Change.

“We currently experience an unusually strong El Niño event every 20 years. Our research shows this will double to one event every 10 years,” said co-author, Dr Agus Santoso of CoECSS.

“El Nino events are a multi-dimensional problem, and only now are we starting to understand better how they respond to global warming,” said Dr Santoso. Extreme El Niño events develop differently from standard El Ninos, which first appear in the western Pacific. Extreme El Nino’s occur when sea surface temperatures exceeding 28°C develop in the normally cold and dry eastern equatorial Pacific Ocean. This different location for the origin of the temperature

increase causes massive changes in global rainfall patterns.

“The question of how global warming will change the frequency of extreme El Niño events has challenged scientists for more than 20 years,” said co-author Dr Mike McPhaden of US National Oceanic and Atmospheric Administration.

“This research is the first comprehensive examination of the issue to produce robust and convincing results,” said Dr McPhaden.

The impacts of extreme El Niño events extend to every continent across the globe.

The 1997-98 event alone caused $35-45 US billion in damage and claimed an estimated 23,000 human lives worldwide.

“During an extreme El Niño event countries in the western Pacific, such as Australia and Indonesia, experienced devastating droughts and wild fires, while catastrophic floods occurred in the eastern equatorial region of Ecuador and northern Peru,” said lead author, CSIRO’s Dr Wenju Cai

In Australia, the drought and dry conditions induced by the 1982-83 extreme El Niño preconditioned the Ash Wednesday Bushfire in southeast Australia, leading to 75 fatalities.

To achieve their results, the team examined 20 climate models that consistently simulate major rainfall reorganization during extreme El Niño events. They found a substantial increase in events from the present-day through the next 100 years as the eastern Pacific Ocean warmed in response to global warming.

“This latest research based on rainfall patterns, suggests that extreme El Niño events are likely to double in frequency as the world warms leading to direct impacts on extreme weather events worldwide.”

“For Australia, this could mean summer heat waves, like that recently experienced in the south-east of the country, could get an additional boost if they coincide with extreme El Ninos,” said co-author, Professor Matthew England from CoECSS.

Journal Reference:

  1. Wenju Cai, Simon Borlace, Matthieu Lengaigne, Peter van Rensch, Mat Collins, Gabriel Vecchi, Axel Timmermann, Agus Santoso, Michael J. McPhaden, Lixin Wu, Matthew H. England, Guojian Wang, Eric Guilyardi, Fei-Fei Jin.Increasing frequency of extreme El Niño events due to greenhouse warmingNature Climate Change, 2014; DOI:10.1038/nclimate2100

O Brasil ‘bipolar’ vem a Davos (Folha de S.Paulo)

23/01/2014  03h26

Clóvis Rossi

DAVOS – Marcelo Neri, o economista que chefia a Secretaria de Assuntos Estratégicos, lamenta que o Brasil viva o que chama de “situação bipolar”: uma boa parte do empresariado está pessimista com os rumos da economia, ao passo que o que Elio Gaspari chamaria de “andar de baixo” está satisfeito com a inclusão ocorrida nos últimos anos.

O ideal, para Neri, seria que “pessimistas fossem menos pessimistas, e otimistas menos otimistas”.

A segunda parte da equação é inalcançável, brinca o ministro, na medida em que “o brasileiro foi heptacampeão mundial de otimismo” (ficou em primeiro lugar na pesquisa Gallup sobre a satisfação com a própria vida, entre 2006 e 2012).

Em 2013, no entanto, as coisas mudaram ligeiramente: houve uma queda na satisfação, para o 18º lugar no mundo, coincidindo com as manifestações de junho. Mas, já em outubro, de 0 a 10, o brasileiro dava 7 para a sua satisfação com a vida, o terceiro lugar no planeta.

O ministro tem uma explicação para a “bipolaridade”: economistas e executivos costumam olhar muito para o PIB, que, de fato, está crescendo mediocremente, como disse ontem a mexicana Alícia Bárcenas, secretária-executiva da Cepal, a Comissão Econômica para a América Latina e o Caribe.

Já o comum dos mortais olha para a sua própria vida e vê que ela melhorou nos últimos anos, inclusive no ano passado: enquanto o PIB per capita, até novembro, crescia apenas 1,8%, a renda mediana subia 5,2%.

Como, então, explicar os protestos de junho? Para Neri, “a casa melhorou, mas o seu entorno [leia-se: serviços públicos] não. As pessoas querem uma outra agenda, após o crescimento com redução da desigualdade”.

Neste ponto, uma observação pessoal que já fiz várias vezes ao hoje ministro e da qual ele não discorda: caiu a desigualdade entre salários, mas não entre o rendimento do capital e do trabalho, até porque é muito difícil medir o primeiro desses rendimentos.

E os rolezinhos? Neri admitiu, em mesa-redonda ontem em Davos: “Não acho que saibamos o que está acontecendo”.

Mas, em conversa com jornalistas, arriscou palpites: primeiro, a sociedade está muito mais interligada, do que decorre o uso das redes sociais como ponto de referência para os rolezinhos, e “a população jovem nunca foi e nunca mais será tão grande como agora”.

É desse Brasil “bipolar” que Dilma embarcou ontem para se apresentar amanhã a uma parte do público, inclusive estrangeiro, que está majoritariamente entre inquieta e pessimista sobre o Brasil.

Palpite meu: se ela focar sua fala na sessão plenária e na conversa reservada com executivos no “feel good factor”, esse sentir-se bem do andar de baixo, não vai desfazer o mal-estar. O que o povo de Davos quer são certezas sobre a situação fiscal brasileira, ou seja, sobre as sobras para pagar a dívida.

Não por acaso, esse tema apareceu no primeiro lugar entre os riscos globais medidos por uma grupo de peritos para o Fórum Econômico Mundial, ao lado do crescimento da desigualdade.

Climate Change Research Is Globally Skewed (Science Daily)

Jan. 22, 2014 — The supply of climate change knowledge is biased towards richer countries — those that pollute the most and are least vulnerable to climate change — and skewed away from the poorer, fragile and more vulnerable regions of the world. That creates a global imbalance between the countries in need of knowledge and those that build it. This could have implications for the quality of the political decisions countries and regions make to prevent and adapt to climate change, warn the researchers behind the study from the University of Copenhagen.

Climate change research, shown here by number of publications, primarily concerns countries that are less vulnerable to climate change and have a higher emission of CO2. The countries are also politically stable, less corrupt, and have a higher investment in education and research. (Credit: Image courtesy of University of Copenhagen)

“80 % of all the climate articles we examined were published by researchers from developed countries, although these countries only account for 18 % of the world’s population. That is of concern because the need for climate research is vital in developing countries. It could have political and societal consequences if there are regional shortages of climate scientists and research to support and provide contextually relevant advice for policy makers in developing countries,” says Professor Niels Strange from the Center for Macroecology, Evolution and Climate, University of Copenhagen, which is supported by the Danish National Research Foundation.

Climate change research, shown here by number of publications, primarily concerns countries that are less vulnerable to climate change and have a higher emission of CO2. The countries are also politically stable, less corrupt, and have a higher investment in education and research.

Together with PhD student Maya Pasgaard from the Department of Food and Resource Economics at the University of Copenhagen, Niels Strange analysed over 15,000 scientific papers on climate research from 197 countries. The analysis clearly shows that the research is biased towards countries that are wealthier, better educated, more stable and less corrupt, emit the most carbon, and are less vulnerable to climate change.

As an example, the study shows that almost 30 % of the total number of publications concerns the United States of America, Canada and China, while India is the only highly vulnerable country in the top 10 list. However, Greenland and small island states like the Seychelles and the Maldives that are generally considered vulnerable, also find their way into the top 10 list if it is calculated per capita.

The content of climate studies is also skewed

The study shows that not only the authorship, but also the choice of topic in climate research, is geographically skewed:

Articles from Europe and North America are more often biased towards issues of climate change mitigation, such as emission reductions, compared with articles from the southern hemisphere. In contrast, climate research from Africa and South and Latin America deals more with issues of climate change adaptation and impacts such as droughts and diseases compared to Europe.

“The tendency is a geographical bias where climate knowledge is produced mainly in the northern hemisphere, while the most vulnerable countries are found in the southern hemisphere. The challenge for the scientific community is to improve cooperation and knowledge sharing across geographical and cultural barriers, but also between practitioners and academics. Ultimately, it will require financial support and political will, if we as a society are to address this imbalance in the fight against climate change,” says Maya Pasgaard. The study was recently published online in the journal Global Environmental Change.

Journal Reference:

  1. M. Pasgaard, N. Strange. A quantitative analysis of the causes of the global climate change research distributionGlobal Environmental Change, 2013; 23 (6): 1684 DOI: 10.1016/j.gloenvcha.2013.08.013

An insider’s story of the global attack on climate science (The Conversation)

23 January 2014, 6.40am AEST

Stormy weather hits New Zealand’s capital, Wellington. Flickr.com/wiifm69 (Sean Hamlin)

A recent headline – Failed doubters trust leaves taxpayers six-figure loss – marked the end of a four-year epic saga of secretly-funded climate denial, harassment of scientists and tying-up of valuable government resources in New Zealand.It’s likely to be a familiar story to my scientist colleagues in Australia, the UK, USA and elsewhere around the world.But if you’re not a scientist, and are genuinely trying to work out who to believe when it comes to climate change, then it’s a story you need to hear too. Because while the New Zealand fight over climate data appears finally to be over, it’s part of a much larger, ongoing war against evidence-based science.

From number crunching to controversy

In 1981 as part of my PhD work, I produced a seven-station New Zealand temperature series, known as 7SS, to monitor historic temperature trends and variations from Auckland to as far south as Dunedin in southern New Zealand.A decade later, in 1991-92 while at the NZ Meteorological Service, I revised the 7SS using a new homogenisation approach to make New Zealand’s temperature records more accurate, such as adjusting for when temperature gauges were moved to new sites.

The Kelburn Cable Car trundles up into the hills of Wellington. Shutterstock/amorfati.art

For example, in 1928 Wellington’s temperature gauge was relocated from an inner suburb near sea level up into the hills at Kelburn, where – due to its higher, cooler location – it recorded much cooler temperatures for the city than before.With statistical analysis, we could work out how much Wellington’s temperature has really gone up or down since the city’s temperature records began back in 1862, and how much of that change was simply due to the gauge being moved uphill. (You can read more about re-examining NZ temperatures here.) So far, so uncontroversial.But then in 2008, while working for a NZ government-owned research organisation, theNational Institute of Water and Atmospheric Research (NIWA), we updated the 7SS. And we found that at those seven stations across the country, from Auckland down to Dunedin, between 1909 and 2008 there was a warming trend of 0.91°C.Soon after that, things started to get heated.The New Zealand Climate Science Coalition, linked to a global climate change denial group, the International Climate Science Coalition, began to question the adjustments I had made to the 7SS.And rather than ever contacting me to ask for an explanation of the science, as I’ve tried to briefly cover above, the Coalition appeared determined to find a conspiracy.

“Shonky” claims

The attack on the science was led by then MP for the free market ACT New Zealand party, Rodney Hide, who claimed in the NZ Parliament in February 2010 that:

NIWA’s raw data for their official temperature graph shows no warming. But NIWA shifted the bulk of the temperature record pre-1950 downwards and the bulk of the data post-1950 upwards to produce a sharply rising trend… NIWA’s entire argument for warming was a result of adjustments to data which can’t be justified or checked. It’s shonky.

Mr Hide’s attack continued for 18 months, with more than 80 parliamentary questions being put to NIWA between February 2010 and July 2011, all of which required NIWA input for the answers.The science minister asked NIWA to re-examine the temperature records, which required several months of science time. In December 2010, the results were in. After the methodology was reviewed and endorsed by the Australian Bureau of Meteorology, it was found that at the seven stations from Auckland to Dunedin, between 1909 and 2008 there was a warming trend of 0.91°C.That is, the same result as before.But in the meantime, before NIWA even had had time to produce that report, a new line of attack had been launched.

Off to court

In July 2010, a statement of claim against NIWA was filed in the High Court of New Zealand, under the guise of a new charitable trust: the New Zealand Climate Science Education Trust (NZCSET). Its trustees were all members of the NZ Climate Science Coalition.The NZCSET challenged the decision of NIWA to publish the adjusted 7SS, claiming that the “unscientific” methods used created an unrealistic indication of climate warming.The Trust ignored the evidence in the Meteorological Service report I first authored, which stated a particular adjustment methodology had been used. The Trust incorrectly claimed this methodology should have been used but wasn’t.In July 2011 the Trust produced a document that attempted to reproduce the Meteorological Service adjustments, but failed to, instead making lots of errors.On September 7 2012, High Court Justice Geoffrey Venning delivered a 49-page ruling, finding that the NZCSET had not succeeded in any of its challenges against NIWA.

The NZ weather wars in the news. The New Zealand Herald

The judge was particularly critical about retired journalist and NZCSET Trustee Terry Dunleavy’s lack of scientific expertise.Justice Venning described some of the Trust’s evidence as tediously lengthy and said “it is particularly unsuited to a satisfactory resolution of a difference of opinion on scientific matters”.

Taxpayers left to foot the bill

After an appeal that was withdrawn at the last minute, late last year the NZCSET was ordered to pay NIWA NZ$89,000 in costs from the original case, plus further costs from the appeal.But just this month, we have learned that the people behind the NZCSET have sent it into liquidation as they cannot afford the fees, leaving the New Zealand taxpayer at a substantial, six-figure loss.Commenting on the lost time and money involved with the case, NIWA’s chief executive John Morgan has said that:

On the surface it looks like the trust was purely for the purpose of taking action, which is not what one would consider the normal use of a charitable trust.

This has been an insidious saga. The Trust aggressively attacked the scientists, instead of engaging with them to understand the technical issues; they ignored evidence that didn’t suit their case; and they regularly misrepresented NIWA statements by taking them out of context.Yet their attack has now been repeatedly rejected in Parliament, by scientists, and by the courts.The end result of the antics by a few individuals and this Trust is probably going to be a six-figure bill for New Zealanders to pay.My former colleagues have had valuable weeks tied up with wasted time in defending these manufactured allegations. That’s time that could have profitably been used investigating further what is happening with our climate.But there is a bigger picture here too.

Merchants of doubt

Doubt-mongering is an old strategy. It is a strategy that has been pursued before to combat the ideas that cigarette smoking is harmful to your health, and it has been assiduously followed by climate deniers for the past 20 years.One of the best known international proponents of such strategies is US think tank, the Heartland Institute.

The first in a planned series of anti-global warming billboards in the US, comparing “climate alarmists” with terrorists and mass murderers. The campaign was canned after a backlash. The Heartland Institute

Just to be clear: there is no evidence that the Heartland Institute helped fund the NZ court challenge. In 2012, one of the Trustees who brought the action against NIWA said Heartland had not donated anything to the case.

However, Heartland is known to have been active in NZ in the past, providing funding to theNZ Climate Science Coalition and a related International Coalition, as well as financially backing prominent climate “sceptic” campaigns in Australia.

An extract from a 1999 letter from the Heartland Institute to tobacco company Philip Morris.University of California, San Francisco, Legacy Tobacco Documents Library

The Heartland Institute also has a long record ofworking with tobacco companies, as the letter on the right illustrates. (You can read that letter and other industry documents in full here. Meanwhile, Heartland’s reply to critics of its tobacco and fossil fuel campaigns is here.)

Earlier this month, the news broke that major tobacco companies will finally admit they “deliberately deceived the American public”, in “corrective statements”that would run on prime-time TV, in newspapers and even on cigarette packs.

It’s taken a 15-year court battle with the US government to reach this point, and it shows that evidence can trump doubt-mongering in the long run.

A similar day may come for those who actively work to cast doubt on climate science.

Industry Awakens to Threat of Climate Change (New York Times)

A Coke bottling plant in Winona, Minn. The company has been affected by global droughts. Andrew Link/Winona Daily News, via Associated Press

By CORAL DAVENPORT

JAN. 23, 2014

WASHINGTON — Coca-Cola has always been more focused on its economic bottom line than on global warming, but when the company lost a lucrative operating license in India because of a serious water shortage there in 2004, things began to change.

Today, after a decade of increasing damage to Coke’s balance sheet as global droughts dried up the water needed to produce its soda, the company has embraced the idea of climate change as an economically disruptive force.

“Increased droughts, more unpredictable variability, 100-year floods every two years,” said Jeffrey Seabright, Coke’s vice president for environment and water resources, listing the problems that he said were also disrupting the company’s supply of sugar cane and sugar beets, as well as citrus for its fruit juices. “When we look at our most essential ingredients, we see those events as threats.”

Coke reflects a growing view among American business leaders and mainstream economists who see global warming as a force that contributes to lower gross domestic products, higher food and commodity costs, broken supply chains and increased financial risk. Their position is at striking odds with the longstanding argument, advanced by the coal industry and others, that policies to curb carbon emissions are more economically harmful than the impact of climate change.

“The bottom line is that the policies will increase the cost of carbon and electricity,” said Roger Bezdek, an economist who produced a report for the coal lobby that was released this week. “Even the most conservative estimates peg the social benefit of carbon-based fuels as 50 times greater than its supposed social cost.”

Some tycoons are no longer listening.

At the Swiss resort of Davos, corporate leaders and politicians gathered for the annual four-day World Economic Forum will devote all of Friday to panels and talks on the threat of climate change. The emphasis will be less about saving polar bears and more about promoting economic self-interest.

In Philadelphia this month, the American Economic Association inaugurated its new president, William D. Nordhaus, a Yale economist and one of the world’s foremost experts on the economics of climate change.

“There is clearly a growing recognition of this in the broader academic economic community,” said Mr. Nordhaus, who has spent decades researching the economic impacts of both climate change and of policies intended to mitigate climate change.

In Washington, the World Bank president, Jim Yong Kim, has put climate change at the center of the bank’s mission, citing global warming as the chief contributor to rising global poverty rates and falling G.D.P.’s in developing nations. In Europe, the Organization for Economic Cooperation and Development, the Paris-based club of 34 industrialized nations, has begun to warn of the steep costs of increased carbon pollution.

Nike, which has more than 700 factories in 49 countries, many in Southeast Asia, is also speaking out because of extreme weather that is disrupting its supply chain. In 2008, floods temporarily shut down four Nike factories in Thailand, and the company remains concerned about rising droughts in regions that produce cotton, which the company uses in its athletic clothes.

“That puts less cotton on the market, the price goes up, and you have market volatility,” said Hannah Jones, the company’s vice president for sustainability and innovation. Nike has already reported the impact of climate change on water supplies on its financial risk disclosure forms to the Securities and Exchange Commission.

Both Nike and Coke are responding internally: Coke uses water-conservation technologies and Nike is using more synthetic material that is less dependent on weather conditions. At Davos and in global capitals, the companies are also lobbying governments to enact environmentally friendly policies.

But the ideas are a tough sell in countries like China and India, where cheap coal-powered energy is lifting the economies and helping to raise millions of people out of poverty. Even in Europe, officials have begun to balk at the cost of environmental policies: On Wednesday, the European Union scaled back its climate change and renewable energy commitments, as high energy costs, declining industrial competitiveness and a recognition that the economy is unlikely to rebound soon caused European policy makers to question the short-term economic trade-offs of climate policy.

In the United States, the rich can afford to weigh in. The California hedge-fund billionaire Thomas F. Steyer, who has used millions from his own fortune to support political candidates who favor climate policy, is working with Michael R. Bloomberg, the former New York mayor, and Henry M. Paulson Jr., a former Treasury secretary in the George W. Bush administration, to commission an economic study on the financial risks associated with climate change. The study, titled “Risky Business,” aims to assess the potential impacts of climate change by region and by sector across the American economy.

“This study is about one thing, the economics,” Mr. Paulson said in an interview, adding that “business leaders are not adequately focused on the economic impact of climate change.”

Also consulting on the “Risky Business” report is Robert E. Rubin, a former Treasury secretary in the Clinton administration. “There are a lot of really significant, monumental issues facing the global economy, but this supersedes all else,” Mr. Rubin said in an interview. “To make meaningful headway in the economics community and the business community, you’ve got to make it concrete.”

Last fall, the governments of seven countries — Colombia, Ethiopia, Indonesia, South Korea, Norway, Sweden and Britain — created the Global Commission on the Economy and Climate and jointly began another study on how governments and businesses can address climate risks to better achieve economic growth. That study and the one commissioned by Mr. Steyer and others are being published this fall, just before a major United Nations meeting on climate change.

Although many Republicans oppose the idea of a price or tax on carbon pollution, some conservative economists endorse the idea. Among them are Arthur B. Laffer, senior economic adviser to President Ronald Reagan; the Harvard economist N. Gregory Mankiw, who was economic adviser to Mitt Romney’s presidential campaign; and Douglas Holtz-Eakin, the head of the American Action Forum, a conservative think tank, and an economic adviser to the 2008 presidential campaign of Senator John McCain, the Arizona Republican.

“There’s no question that if we get substantial changes in atmospheric temperatures, as all the evidence suggests, that it’s going to contribute to sea-level rise,” Mr. Holtz-Eakin said. “There will be agriculture and economic effects — it’s inescapable.” He added, “I’d be shocked if people supported anything other than a carbon tax — that’s how economists think about it.”

Soap Bubbles for Predicting Cyclone Intensity? (Science Daily)

Jan. 8, 2014 — Could soap bubbles be used to predict the strength of hurricanes and typhoons? However unexpected it may sound, this question prompted physicists at the Laboratoire Ondes et Matière d’Aquitaine (CNRS/université de Bordeaux) to perform a highly novel experiment: they used soap bubbles to model atmospheric flow. A detailed study of the rotation rates of the bubble vortices enabled the scientists to obtain a relationship that accurately describes the evolution of their intensity, and propose a simple model to predict that of tropical cyclones.

Vortices in a soap bubble. (Credit: © Hamid Kellay)

The work, carried out in collaboration with researchers from the Institut de Mathématiques de Bordeaux (CNRS/université de Bordeaux/Institut Polytechnique de Bordeaux) and a team from Université de la Réunion, has just been published in the journal NatureScientific Reports.

Predicting wind intensity or strength in tropical cyclones, typhoons and hurricanes is a key objective in meteorology: the lives of hundreds of thousands of people may depend on it. However, despite recent progress, such forecasts remain difficult since they involve many factors related to the complexity of these giant vortices and their interaction with the environment. A new research avenue has now been opened up by physicists at the Laboratoire Ondes et Matière d’Aquitaine (CNRS/Université Bordeaux 1), who have performed a highly novel experiment using, of all things, soap bubbles.

The researchers carried out simulations of flow on soap bubbles, reproducing the curvature of the atmosphere and approximating as closely as possible a simple model of atmospheric flow. The experiment allowed them to obtain vortices that resemble tropical cyclones and whose rotation rate and intensity exhibit astonishing dynamics-weak initially or just after the birth of the vortex, and increasing significantly over time. Following this intensification phase, the vortex attains its maximum intensity before entering a phase of decline.

A detailed study of the rotation rate of the vortices enabled the researchers to obtain a simple relationship that accurately describes the evolution of their intensity. For instance, the relationship can be used to determine the maximum intensity of the vortex and the time it takes to reach it, on the basis of its initial evolution. This prediction can begin around fifty hours after the formation of the vortex, a period corresponding to approximately one quarter of its lifetime and during which wind speeds intensify. The team then set out to verify that these results could be applied to real tropical cyclones. By applying the same analysis to approximately 150 tropical cyclones in the Pacific and Atlantic oceans, they showed that the relationship held true for such low-pressure systems. This study therefore provides a simple model that could help meteorologists to better predict the strength of tropical cyclones in the future.

Journal Reference:

  1. T. Meuel, Y. L. Xiong, P. Fischer, C. H. Bruneau, M. Bessafi, H. Kellay. Intensity of vortices: from soap bubbles to hurricanesScientific Reports, 2013; 3 DOI:10.1038/srep03455

Climate Engineering: What Do the Public Think? (Science Daily)

Jan. 12, 2014 — Members of the public have a negative view of climate engineering, the deliberate large-scale manipulation of the environment to counteract climate change, according to a new study.

The results are from researchers from the University of Southampton and Massey University (New Zealand) who have undertaken the first systematic large-scale evaluation of the public reaction to climate engineering.

The work is published in Nature Climate Change this week (12 January 2014).

Some scientists think that climate engineering approaches will be required to combat the inexorable rise in atmospheric CO2 due to the burning of fossil fuels. Climate engineering could involve techniques that reduce the amount of CO2 in the atmosphere or approaches that slow temperature rise by reducing the amount of sunlight reaching the Earth’s surface.

Co-author Professor Damon Teagle of the University of Southampton said: “Because even the concept of climate engineering is highly controversial, there is pressing need to consult the public and understand their concerns before policy decisions are made.”

Lead author, Professor Malcolm Wright of Massey University, said: “Previous attempts to engage the public with climate engineering have been exploratory and small scale. In our study, we have drawn on commercial methods used to evaluate brands and new product concepts to develop a comparative approach for evaluating the public reaction to a variety of climate engineering concepts.”

The results show that the public has strong negative views towards climate engineering. Where there are positive reactions, they favour approaches that reduce carbon dioxide over those that reflected sunlight.

“It was a striking result and a very clear pattern,” said Professor Wright. “Interventions such as putting mirrors in space or fine particles into the stratosphere are not well received. More natural processes of cloud brightening or enhanced weathering are less likely to raise objections, but the public react best to creating biochar (making charcoal from vegetation to lock in CO2) or capturing carbon directly from the air.”

Nonetheless, even the most well regarded techniques still has a net negative perception.

The work consulted large representative samples in both Australia and New Zealand. Co-author Pam Feetham said: “The responses are remarkably consistent from both countries, with surprisingly few variations except for a slight tendency for older respondents to view climate engineering more favourably.”

Professor Wright noted that giving the public a voice so early in technological development was unusual, but increasingly necessary. “If these techniques are developed the public must be consulted. Our methods can be employed to evaluate the responses in other countries and reapplied in the future to measure how public opinion changes as these potential new technologies are discussed and developed,” he said.

Journal Reference:

  1. Malcolm J. Wright, Damon A. H. Teagle, Pamela M. Feetham. A quantitative evaluation of the public response to climate engineeringNature Climate Change, 2014; DOI: 10.1038/nclimate2087

Our singularity future: should we hack the climate? (Singularity Hub)

Written By: 

Posted: 01/8/14 8:31 AM

Basaltlake-coring_greenland

Even the most adamant techno-optimists among us must admit that new technologies can introduce hidden dangers: Fire, as the adage goes, can cook the dinner, but it can also burn the village down.

The most powerful example of unforeseen disadvantages stemming from technology is climate change. Should we attempt to fix a problem caused by technology, using more novel technology to hack the climate? The question has spurred heated debate.

Those in favor point to failed efforts to curb carbon dioxide emissions and insist we need other options. What if a poorly understood climatic tipping point tips and the weather becomes dangerous overnight; how will slowing emissions help us then?

“If you look at the projections for how much the Earth’s air temperature is supposed to warm over the next century, it is frightening. We should at least know the options,” said Rob Wood, a University of Washington climatologist who edited a recent special issue of the journal Climatic Change devoted to geoengineering.

Wood’s view is gaining support, as the predictions about the effects of climate change continue to grow more dire, and the weather plays its part to a tee.

But big, important questions need answers before geoengineering projects take off. Critics point to science’s flimsy understanding of the complex systems that drive the weather. And even supporters lament the lack of any experimental framework to contain disparate experiments on how to affect it.

“Proposed projects have been protested or canceled, and calls for a governance framework abound,” Lisa Dilling and Rachel Hauser wrote in a paper that appears in the special issue. “Some have argued, even, that it is difficult if not impossible to answer some research questions in geoengineering at the necessary scale without actually implementing geoengineering itself.”

Most proposed methods of geoengineering derive from pretty basic science, but questions surround how to deploy them at a planetary scale and how to measure desired and undesired effects on complex weather and ocean cycles. Research projects that would shed light on those questions would be big enough themselves potentially to affect neighboring populations, raising ethical questions as well.

stratoshieldEarlier efforts to test fertilizing the ocean with iron to feed algae that would suck carbon dioxide from the air and to spray the pollutant sulfur dioxide, which reflects solar radiation, into the atmosphere were mired in controversy. A reputable UK project abandoned its plans to test its findings in the field.

But refinements on those earlier approaches are percolating. They include efforts both to remove previously emitted carbon dioxide from the atmosphere and to reduce the portion of the sun’s radiation that enters the atmosphere.

One method of carbon dioxide removal (or CDR) would expose large quantities of carbon-reactive minerals to the air and then store the resulting compounds underground; another would use large C02 vacuums to suck the greenhouse gas directly from the air into underground storage.

Solar radiation management (or SRM) methods include everything from painting roofs white to seeding the clouds with salt crystals to make them more reflective and mimicking the climate-cooling effects of volcanic eruptions by spraying  sulfur compounds into the atmosphere.

The inevitable impact of geoengineering research on the wider population has led many scientists to compare geoengineering to genetic research. The comparison to genetic research also hints at the huge benefits geoengineering could have if it successfully wards off the most savage effects of climate change.

As with genetic research, principles have been developed to shape the ethics of the research. Still, the principles remain vague, according to a 2012 Nature editorial, and flawed, according to a philosophy-of-science take in the recent journal issue. Neither the U.S. government nor international treaties have addressed geoengineering per se, though many treaties would influence its testing implementation.

The hottest research now explores how long climate-hacks would take to work, lining up their timelines with the slow easing of global warming that would result from dramatically lowered carbon dioxide emissions, and how to weigh the costs of geoengineering projects and accommodate public debate.

Proceeding with caution won’t get fast answers, but it seems a wise way to address an issue as thorny as readjusting the global thermostat.

Funding Problems Threaten U. S. Disaster Preparedness (Science Daily)

Jan. 9, 2014 — The Sept. 11, 2001 attacks in New York City prompted large increases in government funding to help communities respond and recover after human-made and natural disasters. But, this funding has fallen considerably since the economic crisis in 2008. Furthermore, disaster funding distribution is deeply inefficient: huge cash infusions are disbursed right after a disaster, only to fall abruptly after interest wanes. These issues have exposed significant problems with our nation’s preparedness for public health emergencies.

In a report published by the Institute of Medicine, authors Jesse Pines, M.D., director of the Office of Clinical Practice Innovation at the George Washington University (GW) School of Medicine and Health Sciences (SMHS); Seth Seabury, Ph.D., associate professor of emergency medicine at the Keck School of Medicine of the University of Southern California (USC); and William Pilkington, DPA, of the Cabarrus Health Alliance, make seven recommendations to provide a road map to enhance the sustainability of preparedness efforts in the United States.

“With more limited government funding in the foreseeable future, the government needs to be smarter about how it spends its money on emergency preparedness in this country,” said Seabury, who is also with the Leonard D. Schaeffer Center for Health Policy & Economics at USC. “We need to know which communities are prepared and which aren’t, when money is spent, and whether it’s really making these communities better off in handling a disaster.”

The authors make the following recommendations:

1. The federal government should develop and assess measures of emergency preparedness both at the community-level and across communities in the U.S.

2. Measures developed by the federal government should be used to conduct a nation-wide gap analysis of community preparedness.

3. Alternative ways of distributing funding should be considered to ensure all communities have the ability to build and sustain local coalitions to support sufficient infrastructure.

4. When monies are released for projects, there should be clear metrics of grant effectiveness.

5. There should be better coordination at the federal level, including funding and grant guidance.

6. Local communities should build coalitions or use existing coalitions to build public-private partnerships with local hospitals and other businesses with a stake in preparedness.

7. Communities should be encouraged to engage in ways to finance local preparedness efforts.

“A lot of communities out there have found creative ways to get local businesses to invest in preparedness. The more locals buying into the importance of preparedness, the more resilient a community is,” said Pines, who is also a professor of emergency medicine at GW SMHS and professor of health policy at the GW School of Public Health and Health Services. “How Boston responded and recovered so effectively after the marathon bombings is a great example of a prepared community.”

The study, titled “Value-Based Models for Sustaining Emergency Preparedness Capacity and Capability in the United States,” was published by The Institute of Medicine Preparedness Forum.