Arquivo da tag: Mediação tecnológica

The New Abolitionism (The Nation)

Lectures Aren’t Just Boring, They’re Ineffective, Too, Study Finds (Science)

12 May 2014 3:00 pm

Blah? Traditional lecture classes have higher undergraduate failure rates than those using active learning techniques, new research finds.

Wikimedia. Blah? Traditional lecture classes have higher undergraduate failure rates than those using active learning techniques, new research finds.

Are your lectures droning on? Change it up every 10 minutes with more active teaching techniques and more students will succeed, researchers say. A new study finds that undergraduate students in classes with traditional stand-and-deliver lectures are 1.5 times more likely to fail than students in classes that use more stimulating, so-called active learning methods.

“Universities were founded in Western Europe in 1050 and lecturing has been the predominant form of teaching ever since,” says biologist Scott Freeman of the University of Washington, Seattle. But many scholars have challenged the “sage on a stage” approach to teaching science, technology, engineering, and math (STEM) courses, arguing that engaging students with questions or group activities is more effective.

To weigh the evidence, Freeman and a group of colleagues analyzed 225 studies of undergraduate STEM teaching methods. The meta-analysis, published online today in theProceedings of the National Academy of Sciences, concluded that teaching approaches that turned students into active participants rather than passive listeners reduced failure rates and boosted scores on exams by almost one-half a standard deviation. “The change in the failure rates is whopping,” Freeman says. And the exam improvement—about 6%—could, for example, “bump [a student’s] grades from a B– to a B.”

“This is a really important article—the impression I get is that it’s almost unethical to be lecturing if you have this data,” says Eric Mazur, a physicist at Harvard University who has campaigned against stale lecturing techniques for 27 years and was not involved in the work. “It’s good to see such a cohesive picture emerge from their meta-analysis—an abundance of proof that lecturing is outmoded, outdated, and inefficient.”

Although there is no single definition of active learning approaches, they include asking students to answer questions by using handheld clickers, calling on individuals or groups randomly, or having students clarify concepts to each other and reach a consensus on an issue.

Freeman says he’s started using such techniques even in large classes. “My introductory biology course has gotten up to 700 students,” he says. “For the ultimate class session—I don’t say lecture—I’m showing PowerPoint slides, but everything is a question and I use clickers and random calling. Somebody droning on for 15 minutes at a time and then doing cookbook labs isn’t interesting.” Freeman estimates that scaling up such active learning approaches could enable success for tens of thousands of students who might otherwise drop or fail STEM courses.

Despite its advantages, active learning isn’t likely to completely kill the lecture, says Noah Finkelstein, a physics professor who directs the Center for STEM Learning at the University of Colorado, Boulder, and was not involved in the study. The new study “is consistent with what the benefits of active learning are showing us,” he says. “But I don’t think there should be a monolithic stance about lecture or no lecture. There are still times when lectures will be needed, but the traditional mode of stand-and-deliver is being demonstrated as less effective at promoting student learning and preparing future teachers.”

The current study didn’t directly address the effectiveness of one new twist in the traditional lecturing format: massive open online courses that can beam talks to thousands or even millions of students. But Freeman says the U.S. Department of Education has conducted its own meta-analysis of distance learning, and it found there was no difference in being lectured at in a classroom versus through a computer screen at home. So, Freeman says: “If you’re going to get lectured at, you might as well be at home in bunny slippers.”

The Change Within: The Obstacles We Face Are Not Just External (The Nation)

The climate crisis has such bad timing, confronting it not only requires a new economy but a new way of thinking.

Naomi Klein

April 21, 2014

(Reuters/China Daily)

This is a story about bad timing.

One of the most disturbing ways that climate change is already playing out is through what ecologists call “mismatch” or “mistiming.” This is the process whereby warming causes animals to fall out of step with a critical food source, particularly at breeding times, when a failure to find enough food can lead to rapid population losses.

The migration patterns of many songbird species, for instance, have evolved over millennia so that eggs hatch precisely when food sources such as caterpillars are at their most abundant, providing parents with ample nourishment for their hungry young. But because spring now often arrives early, the caterpillars are hatching earlier too, which means that in some areas they are less plentiful when the chicks hatch, threatening a number of health and fertility impacts. Similarly, in West Greenland, caribou are arriving at their calving grounds only to find themselves out of sync with the forage plants they have relied on for thousands of years, now growing earlier thanks to rising temperatures. That is leaving female caribou with less energy for lactation, reproduction and feeding their young, a mismatch that has been linked to sharp decreases in calf births and survival rates.

Scientists are studying cases of climate-related mistiming among dozens of species, from Arctic terns to pied flycatchers. But there is one important species they are missing—us. Homosapiens. We too are suffering from a terrible case of climate-related mistiming, albeit in a cultural-historical, rather than a biological, sense. Our problem is that the climate crisis hatched in our laps at a moment in history when political and social conditions were uniquely hostile to a problem of this nature and magnitude—that moment being the tail end of the go-go ’80s, the blastoff point for the crusade to spread deregulated capitalism around the world. Climate changeis a collective problem demanding collective action the likes of which humanity has never actually accomplished. Yet it entered mainstream consciousness in the midst of an ideological war being waged on the very idea of the collective sphere.

This deeply unfortunate mistiming has created all sorts of barriers to our ability to respond effectively to this crisis. It has meant that corporate power was ascendant at the very moment when we needed to exert unprecedented controls over corporate behavior in order to protect life on earth. It has meant that regulation was a dirty word just when we needed those powers most. It has meant that we are ruled by a class of politicians who know only how to dismantle and starve public institutions, just when they most need to be fortified and reimagined. And it has meant that we are saddled with an apparatus of “free trade” deals that tie the hands of policy-makers just when they need maximum flexibility to achieve a massive energy transition.

Confronting these various structural barriers to the next economy is the critical work of any serious climate movement. But it’s not the only task at hand. We also have to confront how the mismatch between climate change and market domination has created barriers within our very selves, making it harder to look at this most pressing of humanitarian crises with anything more than furtive, terrified glances. Because of the way our daily lives have been altered by both market and technological triumphalism, we lack many of the observational tools necessary to convince ourselves that climate change is real—let alone the confidence to believe that a different way of living is possible.

And little wonder: just when we needed to gather, our public sphere was disintegrating; just when we needed to consume less, consumerism took over virtually every aspect of our lives; just when we needed to slow down and notice, we sped up; and just when we needed longer time horizons, we were able to see only the immediate present.

This is our climate change mismatch, and it affects not just our species, but potentially every other species on the planet as well.

The good news is that, unlike reindeer and songbirds, we humans are blessed with the capacity for advanced reasoning and therefore the ability to adapt more deliberately—to change old patterns of behavior with remarkable speed. If the ideas that rule our culture are stopping us from saving ourselves, then it is within our power to change those ideas. But before that can happen, we first need to understand the nature of our personal climate mismatch.

› Climate change demands that we consume less, but being consumers is all we know.Climate change is not a problem that can be solved simply by changing what we buy—a hybrid instead of an SUV, some carbon offsets when we get on a plane. At its core, it is a crisis born of overconsumption by the comparatively wealthy, which means the world’s most manic consumers are going to have to consume less.

The problem is not “human nature,” as we are so often told. We weren’t born having to shop this much, and we have, in our recent past, been just as happy (in many cases happier) consuming far less. The problem is the inflated role that consumption has come to play in our particular era.

Late capitalism teaches us to create ourselves through our consumer choices: shopping is how we form our identities, find community and express ourselves. Thus, telling people that they can’t shop as much as they want to because the planet’s support systems are overburdened can be understood as a kind of attack, akin to telling them that they cannot truly be themselves. This is likely why, of the original “Three Rs”—reduce, reuse, recycle—only the third has ever gotten any traction, since it allows us to keep on shopping as long as we put the refuse in the right box. The other two, which require that we consume less, were pretty much dead on arrival.

› Climate change is slow, and we are fast. When you are racing through a rural landscape on a bullet train, it looks as if everything you are passing is standing still: people, tractors, cars on country roads. They aren’t, of course. They are moving, but at a speed so slow compared with the train that they appear static.

So it is with climate change. Our culture, powered by fossil fuels, is that bullet train, hurtling forward toward the next quarterly report, the next election cycle, the next bit of diversion or piece of personal validation via our smartphones and tablets. Our changing climate is like the landscape out the window: from our racy vantage point, it can appear static, but it is moving, its slow progress measured in receding ice sheets, swelling waters and incremental temperature rises. If left unchecked, climate change will most certainly speed up enough to capture our fractured attention—island nations wiped off the map, and city-drowning superstorms, tend to do that. But by then, it may be too late for our actions to make a difference, because the era of tipping points will likely have begun.

› Climate change is place-based, and we are everywhere at once. The problem is not just that we are moving too quickly. It is also that the terrain on which the changes are taking place is intensely local: an early blooming of a particular flower, an unusually thin layer of ice on a lake, the late arrival of a migratory bird. Noticing those kinds of subtle changes requires an intimate connection to a specific ecosystem. That kind of communion happens only when we know a place deeply, not just as scenery but also as sustenance, and when local knowledge is passed on with a sense of sacred trust from one generation to the next.

But that is increasingly rare in the urbanized, industrialized world. We tend to abandon our homes lightly—for a new job, a new school, a new love. And as we do so, we are severed from whatever knowledge of place we managed to accumulate at the previous stop, as well as from the knowledge amassed by our ancestors (who, at least in my case, migrated repeatedly themselves).

Even for those of us who manage to stay put, our daily existence can be disconnected from the physical places where we live. Shielded from the elements as we are in our climate-controlled homes, workplaces and cars, the changes unfolding in the natural world easily pass us by. We might have no idea that a historic drought is destroying the crops on the farms that surround our urban homes, since the supermarkets still display miniature mountains of imported produce, with more coming in by truck all day. It takes something huge—like a hurricane that passes all previous high-water marks, or a flood destroying thousands of homes—for us to notice that something is truly amiss. And even then we have trouble holding on to that knowledge for long, since we are quickly ushered along to the next crisis before these truths have a chance to sink in.

Climate change, meanwhile, is busily adding to the ranks of the rootless every day, as natural disasters, failed crops, starving livestock and climate-fueled ethnic conflicts force yet more people to leave their ancestral homes. And with every human migration, more crucial connections to specific places are lost, leaving yet fewer people to listen closely to the land.

› Climate pollutants are invisible, and we have stopped believing in what we cannot see.When BP’s Macondo well ruptured in 2010, releasing torrents of oil into the Gulf of Mexico, one of the things we heard from company CEO Tony Hayward was that “the Gulf of Mexico is a very big ocean. The amount of volume of oil and dispersant we are putting into it is tiny in relation to the total water volume.” The statement was widely ridiculed at the time, and rightly so, but Hayward was merely voicing one of our culture’s most cherished beliefs: that what we can’t see won’t hurt us and, indeed, barely exists.

So much of our economy relies on the assumption that there is always an “away” into which we can throw our waste. There’s the away where our garbage goes when it is taken from the curb, and the away where our waste goes when it is flushed down the drain. There’s the away where the minerals and metals that make up our goods are extracted, and the away where those raw materials are turned into finished products. But the lesson of the BP spill, in the words of ecological theorist Timothy Morton, is that ours is “a world in which there is no ‘away.’”

When I published No Logo a decade and a half ago, readers were shocked to learn of the abusive conditions under which their clothing and gadgets were manufactured. But we have since learned to live with it—not to condone it, exactly, but to be in a state of constant forgetfulness. Ours is an economy of ghosts, of deliberate blindness.

Air is the ultimate unseen, and the greenhouse gases that warm it are our most elusive ghosts. Philosopher David Abram points out that for most of human history, it was precisely this unseen quality that gave the air its power and commanded our respect. “Called Sila, the wind-mind of the world, by the Inuit; Nilch’i, or Holy Wind, by the Navajo; Ruach, or rushing-spirit, by the ancient Hebrews,” the atmosphere was “the most mysterious and sacred dimension of life.” But in our time, “we rarely acknowledge the atmosphere as it swirls between two persons.” Having forgotten the air, Abram writes, we have made it our sewer, “the perfect dump site for the unwanted by-products of our industries…. Even the most opaque, acrid smoke billowing out of the pipes will dissipate and disperse, always and ultimately dissolving into the invisible. It’s gone. Out of sight, out of mind.”

* * *

Another part of what makes climate change so very difficult for us to grasp is that ours is a culture of the perpetual present, one that deliberately severs itself from the past that created us as well as the future we are shaping with our actions. Climate change is about how what we did generations in the past will inescapably affect not just the present, but generations in the future. These time frames are a language that has become foreign to most of us.

This is not about passing individual judgment, nor about berating ourselves for our shallowness or rootlessness. Rather, it is about recognizing that we are products of an industrial project, one intimately, historically linked to fossil fuels.

And just as we have changed before, we can change again. After listening to the great farmer-poet Wendell Berry deliver a lecture on how we each have a duty to love our “homeplace” more than any other, I asked him if he had any advice for rootless people like me and my friends, who live in our computers and always seem to be shopping for a home. “Stop somewhere,” he replied. “And begin the thousand-year-long process of knowing that place.”

That’s good advice on lots of levels. Because in order to win this fight of our lives, we all need a place to stand.

Read more of The Nation’s special #MyClimateToo coverage:

Mark Hertsgaard: Why Today Is All About Climate
Christopher Hayes: The New Abolitionism
Dani McClain: The ‘Environmentalists’ Who Scapegoat Immigrants and Women on Climate Change
Mychal Denzel Smith: Racial and Environmental Justice Are Two Sides of the Same Coin
Katrina vanden Heuvel: Earth Day’s Founding Father
Wen Stephenson: Let This Earth Day Be The Last
Katha Pollitt: Climate Change is the Tragedy of the Global Commons
Michelle Goldberg: Fighting Despair to Fight Climate Change
George Zornick: We’re the Fossil Fuel Industry’s Cheap Date
Dan Zegart: Want to Stop Climate Change? Take the Fossil Fuel Industry to Court
Jeremy Brecher: ‘Jobs vs. the Environment’: How to Counter the Divisive Big Lie
Jon Wiener: Elizabeth Kolbert on Species Extinction and Climate Change
Dave Zirin: Brazil’s World Cup Will Kick the Environment in the Teeth
Steven Hsieh: People of Color Are Already Getting Hit the Hardest by Climate Change
John Nichols: If Rick Weiland Can Say “No” to Keystone, So Can Barack Obama
Michelle Chen: Where Have All the Green Jobs Gone?
Peter Rothberg: Why I’m Not Totally Bummed Out This Earth Day
Leslie Savan: This Is My Brain on Paper Towels

‘Dressed’ laser aimed at clouds may be key to inducing rain, lightning (Science Daily)

Date: April 18, 2014

Source: University of Central Florida

Summary: The adage “Everyone complains about the weather but nobody does anything about it” may one day be obsolete if researchers further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning. Other possible uses of this technique could be used in long-distance sensors and spectrometers to identify chemical makeup.

The adage “Everyone complains about the weather but nobody does anything about it,” may one day be obsolete if researchers at the University of Central Florida’s College of Optics & Photonics and the University of Arizona further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning. Credit: © Maksim Shebeko / Fotolia

The adage “Everyone complains about the weather but nobody does anything about it” may one day be obsolete if researchers at the University of Central Florida’s College of Optics & Photonics and the University of Arizona further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning.

The solution? Surround the beam with a second beam to act as an energy reservoir, sustaining the central beam to greater distances than previously possible. The secondary “dress” beam refuels and helps prevent the dissipation of the high-intensity primary beam, which on its own would break down quickly. A report on the project, “Externally refueled optical filaments,” was recently published in Nature Photonics.

Water condensation and lightning activity in clouds are linked to large amounts of static charged particles. Stimulating those particles with the right kind of laser holds the key to possibly one day summoning a shower when and where it is needed.

Lasers can already travel great distances but “when a laser beam becomes intense enough, it behaves differently than usual — it collapses inward on itself,” said Matthew Mills, a graduate student in the Center for Research and Education in Optics and Lasers (CREOL). “The collapse becomes so intense that electrons in the air’s oxygen and nitrogen are ripped off creating plasma — basically a soup of electrons.”

At that point, the plasma immediately tries to spread the beam back out, causing a struggle between the spreading and collapsing of an ultra-short laser pulse. This struggle is called filamentation, and creates a filament or “light string” that only propagates for a while until the properties of air make the beam disperse.

“Because a filament creates excited electrons in its wake as it moves, it artificially seeds the conditions necessary for rain and lightning to occur,” Mills said. Other researchers have caused “electrical events” in clouds, but not lightning strikes.

But how do you get close enough to direct the beam into the cloud without being blasted to smithereens by lightning?

“What would be nice is to have a sneaky way which allows us to produce an arbitrary long ‘filament extension cable.’ It turns out that if you wrap a large, low intensity, doughnut-like ‘dress’ beam around the filament and slowly move it inward, you can provide this arbitrary extension,” Mills said. “Since we have control over the length of a filament with our method, one could seed the conditions needed for a rainstorm from afar. Ultimately, you could artificially control the rain and lightning over a large expanse with such ideas.”

So far, Mills and fellow graduate student Ali Miri have been able to extend the pulse from 10 inches to about 7 feet. And they’re working to extend the filament even farther.

“This work could ultimately lead to ultra-long optically induced filaments or plasma channels that are otherwise impossible to establish under normal conditions,” said professor Demetrios Christodoulides, who is working with the graduate students on the project.

“In principle such dressed filaments could propagate for more than 50 meters or so, thus enabling a number of applications. This family of optical filaments may one day be used to selectively guide microwave signals along very long plasma channels, perhaps for hundreds of meters.”

Other possible uses of this technique could be used in long-distance sensors and spectrometers to identify chemical makeup. Development of the technology was supported by a $7.5 million grant from the Department of Defense.

Journal Reference:

  1. Maik Scheller, Matthew S. Mills, Mohammad-Ali Miri, Weibo Cheng, Jerome V. Moloney, Miroslav Kolesik, Pavel Polynkin, Demetrios N. Christodoulides.Externally refuelled optical filamentsNature Photonics, 2014; 8 (4): 297 DOI:10.1038/nphoton.2014.47

Repercussões do novo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC)

Brasil já se prepara para adaptações às mudanças climáticas, diz especialista (Agência Brasil)

JC e-mail 4925, de 02 de abril de 2014

Com base no relatório do IPCC,dirigente do INPE disse que o Brasil já revela um passo adiante em termos de adaptação às mudanças climáticas

Com o título Mudanças Climáticas 2014: Impactos, Adaptação e Vulnerabilidade, o relatório divulgado ontem (31) pelo Painel Intergovernamental sobre Mudanças Climáticas (IPCC) sinaliza que os efeitos das mudanças do clima já estão sendo sentidos em todo o mundo. O relatório aponta que para se alcançar um aquecimento de apenas 2 graus centígrados, que seria o mínimo tolerável para que os impactos não sejam muito fortes, é preciso ter emissões zero de gases do efeito estufa, a partir de 2050.

“O compromisso é ter emissões zero a partir de 2040 /2050, e isso significa uma mudança de todo o sistema de desenvolvimento, que envolve mudança dos combustíveis”, disse hoje (1º) o chefe do Centro de Ciência do Sistema Terrestr,e do Instituto Nacional de Pesquisas Espaciais (Inpe), José Marengo, um dos autores do novo relatório do IPCC. Marengo apresentou o relatório na Academia Brasileira de Ciências (ABC), no Rio de Janeiro, e destacou que alguns países interpretam isso como uma tentativa de frear o crescimento econômico. Na verdade, ele assegurou que a intenção é chegar a um valor para que o aquecimento não seja tão intenso e grave.

Com base no relatório do IPCC, Marengo comentou que o Brasil já revela um passo adiante em termos de adaptação às mudanças climáticas. “Eu acho que o Brasil já escutou a mensagem. Já está começando a preparar o plano nacional de adaptação, por meio dos ministérios do Meio Ambiente e da Ciência, Tecnologia e Inovação”. Essa adaptação, acrescentou, é acompanhada de avaliações de vulnerabilidades, “e o Brasil é vulnerável às mudanças de clima”, lembrou.

A adaptação, segundo ele, atenderá a políticas governamentais, mas a comunidade científica ajudará a elaborar o plano para identificar regiões e setores considerados chave. “Porque a adaptação é uma coisa que muda de região e de setor. Você pode ter uma adaptação no setor saúde, no Nordeste, totalmente diferente do Sul. Então, essa é uma política que o governo já está começando a traçar seriamente”.

O plano prevê análises de risco em setores como agricultura, saúde, recursos hídricos, regiões costeiras, grandes cidades. Ele está começando a ser traçado como uma estratégia de governo. Como as vulnerabilidades são diferentes, o plano não pode criar uma política única para o país. Na parte da segurança alimentar, em especial, José Marengo ressaltou a importância do conhecimento indígena, principalmente para os países mais pobres.

Marengo afiançou, entretanto, que esse plano não deverá ser concluído no curto prazo. “É uma coisa que leva tempo. Esse tipo de estudo não pode ser feito em um ou dois anos. É uma coisa de longo prazo, porque vai mudando continuamente. Ou seja, é um plano dinâmico, que a cada cinco anos tem que ser reavaliado e refeito. Poucos países têm feito isso, e o Brasil está começando a elaborar esse plano agora”, manifestou.

Marengo admitiu que a adaptação às mudanças climáticas tem que ter também um viés econômico, por meio da regulação. “Quando eu falo em adaptação, é uma mistura de conhecimento científico para identificar que área é vulnerável. Mas tudo isso vem acompanhado de coisas que não são climáticas, mas sim, econômicas, como custos e investimento. Porque adaptação custa dinheiro. Quem vai pagar pela adaptação? “, indagou.

O IPCC não tem uma posição a respeito, embora Marengo mencione que os países pobres querem que os ricos paguem pela sua adaptação às mudanças do clima. O tema deverá ser abordado na próxima reunião da 20ª Convenção-Quadro sobre Mudança do Clima COP-20, da Organização das Nações Unidas (ONU), que ocorrerá em Lima, no Peru, no final deste ano.

Entretanto, o IPCC aponta situações sobre o que está ocorrendo nas diversas partes do mundo, e o que poderia ser feito. As soluções, salientou, serão indicadas no próximo relatório do IPCC, cuja divulgação é aguardada para este mês. O relatório, segundo ele, apontará que “a solução está na mitigação”. Caso, por exemplo, da redução das emissões de gases de efeito estufa, o uso menor de combustíveis fósseis e maior uso de fontes de energia renováveis, novas opções de combustíveis, novas soluções de tecnologia, estabilização da população. “Tudo isso são coisas que podem ser consideradas”. Admitiu, porém, que são difíceis de serem alcançadas, porque alguns países estão dispostos a isso, outros não. “É uma coisa que depende de acordo mundial”.

De acordo com o relatório do IPCC, as tendências são de aumento da temperatura global, aumento e diminuição de precipitações (chuvas), degradação ambiental, risco para as áreas costeiras e a fauna marinha, mudança na produtividade agrícola, entre outras. A adaptação a essas mudanças depende do lugar e do contexto. A adaptação para um setor pode não ser aplicável a outro. As medidas visando a adaptação às mudanças climáticas devem ser tomadas pelos governos, mas também pela sociedade como um todo e pelos indivíduos, recomendam os cientistas que elaboraram o relatório.

Para o Nordeste brasileiro, por exemplo, a construção de cisternas pode ser um começo no sentido de adaptação à seca. Mas isso tem de ser uma busca permanente, destacou José Marengo. Observou que programas de reflorestamento são formas de mitigação e, em consequência, de adaptação, na medida em que reduzem as emissões e absorvem as emissões excedentes.

No Brasil, três aspectos se distinguem: segurança hídrica, segurança energética e segurança alimentar. As secas no Nordeste e as recentes enchentes no Norte têm ajudado a entender o problema da vulnerabilidade do clima, acrescentou o cientista. Disse que, de certa forma, o Brasil tem reagido para enfrentar os extremos. “Mas tem que pensar que esses extremos podem ser mais frequentes. A experiência está mostrando que alguns desses extremos devem ser pensados no longo prazo, para décadas”, salientou.

O biólogo Marcos Buckeridge, pesquisador do Instituto de Biociências da Universidade de São Paulo (USP) e membro do IPCC, lembrou que as queimadas na Amazônia, apesar de mostrarem redução nos últimos anos, ainda ocorrem com intensidade. “O Brasil é o país que mais queima floresta no mundo”, e isso leva à perda de muitas espécies animais e vegetais, trazendo, como resultado, impactos no clima.

Para a pesquisadora sênior do Centro de Estudos Integrados sobre Meio Ambiente e Mudanças Climáticas – Centro Clima da Universidade Federal do Rio de Janeiro, Carolina Burle Schmidt Dubeux, a economia da adaptação deve pensar o gerenciamento também do lado da demanda. Isso quer dizer que tem que englobar não só investimentos, mas também regulação econômica em que os preços reflitam a redução da oferta de bens. “Regulação econômica é muito importante para que a gente possa se adaptar [às mudanças do clima]. As políticas têm que refletir a escassez da água e da energia elétrica e controlar a demanda”, apontou.

Segundo a pesquisadora, a internalização de custos ambientais nos preços é necessária para que a população tenha maior qualidade de vida. “A questão da adaptação é um constante gerenciamento do risco das mudanças climáticas, que é desconhecido e imprevisível”, acrescentou. Carolina defendeu que para ocorrer a adaptação, deve haver uma comunicação constante entre o governo e a sociedade. “A mídia tem um papel relevante nesse processo”, disse.

(Agência Brasil)

* * *

Mudanças climáticas ameaçam produtos da cesta básica brasileira (O Globo)

JC e-mail 4925, de 02 de abril de 2014

Dieta será prejudicada por queda das safras e da atividade pesqueira

Os impactos das mudanças climáticas no país comprometerão o rendimento das safras de trigo, arroz, milho e soja, produtos fundamentais da cesta básica do brasileiro. Outro problema desembarca no litoral. Segundo prognósticos divulgados esta semana pelo Painel Intergovernamental de Mudanças Climáticas (IPCC), grandes populações de peixes deixarão a zona tropical nas próximas décadas, buscando regiões de alta latitude. Desta forma, a pesca artesanal também é afetada.

A falta de segurança alimentar também vai acometer outros países. Estima-se que a atividade agrícola da União Europeia caia significativamente até o fim do século. Duas soluções já são estudadas. Uma seria aumentar as importações – o Brasil seria um importante mercado, se conseguir nutrir a sua população e, além disso, desenvolver uma produção excedente. A outra possibilidade é a pesquisa de variedades genéticas que deem resistência aos alimentos diante das novas condições climáticas.

– Os eventos extremos, mesmo quando têm curta duração, reduzem o tamanho da safra – contou Marcos Buckeridge, professor do Departamento de Botânica da USP e coautor do relatório do IPCC, em uma apresentação realizada ontem na Academia Brasileira de Ciências. – Além disso, somos o país que mais queima florestas no mundo, e a seca é maior justamente na Amazônia Oriental, levando a perdas na agricultura da região.

O aquecimento global também enfraquecerá a segurança hídrica do país.

– É preciso encontrar uma forma de garantir a disponibilidade de água no semiárido, assim como estruturas que a direcione para as áreas urbanas – recomenda José Marengo, climatologista do Instituto Nacional de Pesquisas Espaciais (Inpe) e também autor do relatório.

Marengo lembra que o Nordeste enfrenta a estiagem há três anos. Segundo ele, o uso de carros-pipa é uma solução pontual. Portanto, outras medidas devem ser pensadas. A transposição do Rio São Francisco também pode não ser suficiente, já que a região deve passar por um processo de desertificação até o fim do século.

De acordo com um estudo realizado em 2009 por diversas instituições brasileiras, e que é citado no novo relatório do IPCC, as chuvas no Nordeste podem diminuir até 2,5mm por dia até 2100, causando perdas agrícolas em todos os estados da região. O déficit hídrico reduziria em 25% a capacidade de pastoreiro dos bovinos de corte. O retrocesso da pecuária é outro ataque à dieta do brasileiro.

– O Brasil perderá entre R$ 719 bilhões e R$ 3,6 trilhões em 2050, se nada fizer . Enfrentaremos perda agrícola e precisaremos de mais recursos para o setor hidrelétrico – alerta Carolina Dubeux, pesquisadora do Centro Clima da Coppe/UFRJ, que assina o documento. – A adaptação é um constante gerenciamento de risco.

(Renato Grandelle / O Globo)

* * *

Impactos mais graves no clima do país virão de secas e de cheias (Folha de S.Paulo)

JC e-mail 4925, de 02 de abril de 2014

Brasileiros em painel da ONU dizem que país precisa se preparar para problemas opostos em diferentes regiões

As previsões regionais do novo relatório do IPCC (painel do clima da ONU) aponta como principais efeitos da mudança climática no país problemas na disponibilidade de água, com secas persistentes em alguns pontos e cheias recordes em outros. Lançado anteontem no Japão, o documento do grupo de trabalho 2 do IPCC dá ênfase a impactos e vulnerabilidades provocados pelo clima ao redor do mundo. Além de listar os principais riscos, o documento ressalta a necessidade de adaptação aos riscos projetados. No Brasil, pela extensão territorial, os efeitos serão diferentes em cada região.

Além de afetar a floresta e seus ecossistemas, a mudança climática deve prejudicar também a geração de energia, a agricultura e até a saúde da população. “Tudo remete à água. Onde nós tivermos problemas com a água, vamos ter problemas com outras coisas”, resumiu Marcos Buckeridge, professor da USP e um dos autores do relatório do IPCC, em entrevista coletiva com outros brasileiros que participaram do painel.

Na Amazônia, o padrão de chuvas já vem sendo afetado. Atualmente, a cheia no rio Madeira já passa dos 25 m –nível mais alto da história– e afeta 60 mil pessoas. No Nordeste, que nos últimos anos passou por secas sucessivas, as mudanças climáticas podem intensificar os períodos sem chuva, e há um risco de que o semiárido vire árido permanentemente.

Segundo José Marengo, do Inpe (Instituto Nacional de Pesquisas Espaciais) e um dos autores principais do documento, ainda é cedo para saber se a seca persistente em São Paulo irá se repetir no ano que vem ou nos outros, mas alertou que é preciso que o Brasil se prepare melhor.

O IPCC fez previsões para diferentes cenários, mas, basicamente, indica que as consequências são mais graves quanto maiores os níveis de emissões de gases-estufa. “Se não dá para reduzir as ameaças, precisamos pelo menos reduzir os riscos”, disse Marengo, destacando que, no Brasil, nem sempre isso acontece. No caso das secas, a construção de cisternas e a mobilização de carros-pipa seriam alternativas de adaptação. Já nos locais onde deve haver aumento nas chuvas, a remoção de populações de áreas de risco, como as encostas, seria a alternativa.

Carolina Dubeux, da UFRJ, que também participa do IPCC, afirma que, para que haja equilíbrio entre oferta e demanda, é preciso que a economia reflita a escassez dos recursos naturais, sobretudo em áreas como agricultura e geração de energia. “É necessário que os preços reflitam a escassez de um bem. Se a água está escassa, o preço dela precisa refletir isso. Não podemos só expandir a oferta”, afirmou.

Neste relatório, caiu o grau de confiança sobre projeções para algumas regiões, sobretudo em países em desenvolvimento. Segundo Carlos Nobre, secretário do Ministério de Ciência, Tecnologia e Inovação, isso não significa que o documento tenha menos poder político ou científico.

Everton Lucero, chefe de clima no Itamaraty, diz que o documento será importante para subsidiar discussões do próximo acordo climático mundial. “Mas há um desequilíbrio entre os trabalhos científicos levados em consideração pelo IPCC, com muito mais ênfase no que é produzido nos países ricos. As nações em desenvolvimento também produzem muita ciência de qualidade, que deve ter mais espaço”, disse.

(Giuliana Miranda/Folha de S.Paulo)

* * *

Relatório do IPCC aponta riscos e oportunidades para respostas (Ascom do MCTI)

JC e-mail 4925, de 02 de abril de 2014

Um total de 309 cientistas de 70 países, entre coordenadores, autores, editores e revisores, foram selecionados para produzir o relatório

O novo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) diz que os efeitos das mudanças climáticas já estão ocorrendo em todos os continentes e oceanos e que o mundo, em muitos casos, está mal preparado para os riscos. O documento também conclui que há oportunidades de repostas, embora os riscos sejam difíceis de gerenciar com os níveis elevados de aquecimento.

O relatório, intitulado Mudanças Climáticas 2014: Impactos, Adaptação e Vulnerabilidade, foi elaborado pelo Grupo de Trabalho 2 (GT 2) do IPCC e detalha os impactos das mudanças climáticas até o momento, os riscos futuros e as oportunidades para uma ação eficaz para reduzir os riscos. Os resultados foram apresentados à imprensa brasileira em entrevista coletiva no Rio de Janeiro nesta terça-feira (1º).

Um total de 309 cientistas de 70 países, entre coordenadores, autores, editores e revisores, foram selecionados para produzir o relatório. Eles contaram com a ajuda de 436 autores contribuintes e 1.729 revisores especialistas.

Os autores concluem que a resposta às mudanças climáticas envolve fazer escolhas sobre os riscos em um mundo em transformação, assinalando que a natureza dos riscos das mudanças climáticas é cada vez mais evidente, embora essas alterações também continuem a produzir surpresas. O relatório identifica as populações, indústrias e ecossistemas vulneráveis ao redor do mundo.

Segundo o documento, o risco da mudança climática provém de vulnerabilidade (falta de preparo), exposição (pessoas ou bens em perigo) e sobreposição com os riscos (tendências ou eventos climáticos desencadeantes). Cada um desses três componentes pode ser alvo de ações inteligentes para diminuir o risco.

“Vivemos numa era de mudanças climáticas provocadas pelo homem”, afirma o copresidente do GT 2 Vicente Barros, da Universidade de Buenos Aires, Argentina. “Em muitos casos, não estamos preparados para os riscos relacionados com o clima que já enfrentamos. Investimentos num melhor preparo podem melhorar os resultados, tanto para o presente e para o futuro.”

A adaptação para reduzir os riscos das mudanças climáticas começa a ocorrer, mas com um foco mais forte na reação aos acontecimentos passados do que na preparação para um futuro diferente, de acordo com outro copresidente do GT, Chris Field, da Carnegie Institution for Science, dos Estados Unidos.

“A adaptação às mudanças climáticas não é uma agenda exótica nunca tentada. Governos, empresas e comunidades ao redor do mundo estão construindo experiência com a adaptação”, explica Field. “Esta experiência constitui um ponto de partida para adaptações mais ousadas e ambiciosas, que serão importantes à medida que o clima e a sociedade continuam a mudar”.

Riscos futuros decorrentes das mudanças no clima dependem fortemente da quantidade de futuras alterações climáticas. Magnitudes crescentes de aquecimento aumentam a probabilidade de impactos graves e generalizados que podem ser surpreendentes ou irreversíveis.

“Com níveis elevados de aquecimento, que resultam de um crescimento contínuo das emissões de gases de efeito estufa, será um desafio gerenciar os riscos e mesmo investimentos sérios e contínuos em adaptação enfrentarão limites”, afirma Field.

Impactos observados da mudança climática já afetaram a agricultura, a saúde humana, os ecossistemas terrestres e marítimos, abastecimento de água e a vida de algumas pessoas. A característica marcante dos impactos observados é que eles estão ocorrendo a partir dos trópicos para os polos, a partir de pequenas ilhas para grandes continentes e dos países mais ricos para os mais pobres.

“O relatório conclui que as pessoas, sociedades e ecossistemas são vulneráveis em todo o mundo, mas com vulnerabilidade diferentes em lugares diferentes. As mudanças climáticas muitas vezes interagem com outras tensões para aumentar o risco”, diz Chris Field.

A adaptação pode desempenhar um papel-chave na redução destes riscos, observa Vicente Barros. “Parte da razão pela qual a adaptação é tão importante é que, devido à mudança climática, o mundo enfrenta uma série de riscos já inseridos no sistema climático, acentuados pelas emissões passadas e infraestrutura existente”.

Field acrescenta: “A compreensão de que a mudança climática é um desafio na gestão de risco abre um leque de oportunidades para integrar a adaptação com o desenvolvimento econômico e social e com as iniciativas para limitar o aquecimento futuro. Nós definitivamente enfrentamos desafios, mas compreender esses desafios e ultrapassá-los de forma criativa pode fazer da adaptação à mudança climática uma forma importante de ajudar a construir um mundo mais vibrante em curto prazo e além”.

O relatório do GT 2 é composto por dois volumes. O primeiro contém Resumo para Formuladores de Políticas, Resumo Técnico e 20 capítulos que avaliam riscos por setor e oportunidades para resposta. Os setores incluem recursos de água doce, os ecossistemas terrestres e oceânicos, costas, alimentos, áreas urbanas e rurais, energia e indústria, a saúde humana e a segurança, além dos meios de vida e pobreza.

Em seus dez capítulos, o segundo volume avalia os riscos e oportunidades para a resposta por região. Essas regiões incluem África, Europa, Ásia, Australásia (Austrália, a Nova Zelândia, a Nova Guiné e algumas ilhas menores da parte oriental da Indonésia), América do Norte, América Central e América do Sul, regiões polares, pequenas ilhas e oceanos.

Acesse a contribuição do grupo de trabalho (em inglês) aqui ou no site da instituição.

A Unidade de Apoio Técnico do GT 2 é hospedada pela Carnegie Institution for Science e financiada pelo governo dos Estados Unidos.

“O relatório do Grupo de Trabalho 2 é outro importante passo para a nossa compreensão sobre como reduzir e gerenciar os riscos das mudanças climáticas”, destaca o presidente do IPCC, RajendraPachauri. “Juntamente com os relatórios dos grupos 1 e 3, fornece um mapa conceitual não só dos aspectos essenciais do desafio climático, mas as soluções possíveis.”

O relatório do GT 1 foi lançado em setembro de 2013, e o do GT 3 será divulgado neste mês. O quinto relatório de avaliação (AR5) será concluído com a publicação de uma síntese em outubro.

O Painel Intergovernamental sobre Mudança do Clima é o organismo internacional para avaliar a ciência relacionada à mudança climática. Foi criado em 1988 pela Organização Meteorológica Mundial e pelo Programa das Nações Unidas para o Ambiente (Pnuma), para fornecer aos formuladores de políticas avaliações regulares da base científica das mudanças climáticas, seus impactos e riscos futuros, e opções para adaptação e mitigação.

Foi na 28ª Sessão do IPCC, realizada em abril de 2008, que os membros do painel decidiram preparar o AR5. O documento envolveu 837 autores e editores de revisão.

(Ascom do MCTI, com informações do IPCC)

Exoesqueleto do projeto ‘Walk Again’ funciona em teste documentado no Facebook (O Globo)

JC e-mail 4924, de 01 de abril de 2014

Voluntários já estão treinando em um laboratório de São Paulo para usar a veste robótica

Um paraplégico se levanta da cadeira de rodas, anda e dá o primeiro chute da Copa do Mundo de 2014 vestindo um exoesqueleto robótico controlado pela mente. O traje robótico complexo, construído a partir de ligas leves e alimentado por sistema hidráulico, foi construído por Gordon Cheng, da Universidade Técnica de Munique, e tem a função de trabalhar os músculos da perna paralisada.

O exoesqueleto é fruto de anos de trabalho de uma equipe internacional de cientistas e engenheiros do projeto “Walk Again”, liderado pelo brasileiro Miguel Nicolelis, que lança nesta terça-feira, em sua página no Facebook, a documentação do projeto até as vésperas da Copa do Mundo. Nicolelis já está treinando em um laboratório de São Paulo nove homens e mulheres paraplégicos, com idades de 20 a 40 anos, para usar o exoesqueleto. Três deles serão escolhidos para participar do jogo de abertura entre Brasil e Croácia.

No mês passado, a equipe de pesquisadores foi a jogos de futebol em São Paulo para verificar se a radiação do telefone móvel das multidões pode interferir com o processo. As ondas eletromagnéticas poderiam fazer o exoesqueleto se comportar mal, mas os testes foram animadores. As chances de mau funcionamento são poucas.

O voluntário que usar o exoesqueleto vestirá também um boné equipado com eletrodos para captar suas ondas cerebrais. Estes sinais serão transmitidos para um computador em uma mochila, onde serão descodificados e usados para mover condutores hidráulicos na roupa. O exoesqueleto é alimentado por uma bateria que permite a duas horas de uso contínuo.

Sob os pés do operador estarão placas com sensores para detectar quando o contato é feito com o solo. A cada pisada, um sinal dispara até um dispositivo vibratório costurado no antebraço da camisa do usuário. O dispositivo parece enganar o cérebro, que pensar que a sensação vem de seu pé. Em simulações de realidade virtual, os pacientes sentiram que suas pernas estavam se movendo e tocando alguma coisa. Em outros testes, os pacientes usaram o sistema para andar em uma esteira.

Relatório do IPCC sugere adaptação baseada em ecossistemas (Estado de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Modelo adotado no Brasil e região foi indicado como alternativa a infraestutura cara

Além das recomendações usuais para que os países invistam mais em infraestrutura para aumentar sua resiliência às mudanças climáticas, no novo relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), divulgado neste domingo, 30, ganhou espaço uma alternativa mais barata que pode, em alguns locais, conseguir efeitos parecidos: a adaptação baseada em ecossistemas.

O tema aparece em maior ou menor profundidade em cerca de metade dos capítulos e teve destaque especial no capítulo regional de América Central e do Sul, onde técnicas como criação de áreas protegidas, acordos para conservação e manejos comunitários de áreas naturais estão sendo testadas.

Mas o que isso tem a ver com adaptação? De acordo com o ecólogo Fabio Scarano, da Conservação Internacional, e um dos autores do capítulo, a ideia é fortalecer serviços ecossistêmicos que são fundamentais. Um ambiente bem preservado tem a capacidade de prover um clima estável, o fornecimento de água, a presença de polinizadores. “Como se fosse uma infraestrutura da própria natureza”, diz.

Como premissa, está a conservação da natureza aliada ao incentivo do seu uso sustentável – a fim também de evitar a pobreza, que é um dos principais motores da vulnerabilidade de populações.

“Normalmente quando se fala em adaptação se pensa na construção de grandes estruturas, como um dique, por exemplo, para evitar uma inundação. O que em geral é muito caro, mas em uma adaptação baseada em ecossistemas, conservar a natureza e usá-la bem é uma forma de diminuir a vulnerabilidade das pessoas às mudanças climáticas”, afirma.

Ele cita como exemplo uma região costeira em que o mangue tenha sido degradado. “Esse ecossistema funciona como uma barreira. Em um cenário de ressacas mais fortes, elevação do nível do mar, a costa vai ficar mais vulnerável, será necessário construir diques. Mas se mantém o mangue em pé e se oferece um auxílio para que as pessoas possam ter uma economia básica desse mangue, com técnicas mais sustentáveis, e elas recebam para mantê-lo assim, vai ser mais barato do que depois ter de fazer um dique.”

Segundo o pesquisador, para ser mais resiliente é importante acabar com a pobreza e preservar a natureza. “Se for possível ter os dois, a gente consegue o tão falado desenvolvimento sustentável”, opina.

(Giovana Girardi / Estado de S.Paulo),relatorio-do-ipcc-sugere-adaptacao-baseada-em-ecossistemas,1147134,0.htm

Outras matérias sobre o assunto:

O Globo
Painel da ONU apresenta medidas contra aquecimento global

Valor Econômico
Mudança do clima afeta a todos e está acontecendo agora, alerta IPCC

Esqueleto-robô da Copa usará técnica já criticada por criador (Folha de S.Paulo)

JC e-mail 4923, de 31 de março de 2014

Cientista Miguel Nicolelis muda método para fazer criança paraplégica dar chute inicial na competição

Na abertura da Copa do Mundo do Brasil, uma criança com lesão medular usando um exoesqueleto dará o pontapé inicial da competição. A demonstração pública será o primeiro resultado do projeto “Andar de Novo”, liderado pelo neurocientista brasileiro Miguel Nicolelis. Mas uma recente mudança na maneira como serão captados os sinais cerebrais que controlarão o exoesqueleto traz dúvidas sobre os avanços do projeto no campo da neurociência.

Em sua carreira, Nicolelis sempre fez uma defesa intransigente do implante de eletrodos dentro do cérebro para captar a atividade simultânea de neurônios individuais. Era crítico de métodos não invasivos, como a eletroencefalografia (EEG) –técnica desenvolvida no começo do século passado que usa eletrodos colocados no couro cabeludo para obter tais registros.

Até pelo menos maio do ano passado, Nicolelis ainda dava declarações públicas sobre o desenvolvimento de eletrodos para serem implantados. Mas a partir de outubro de 2013, passou a dizer que usaria sinais obtidos por EEG. Críticas a essa técnica estão em seu livro, em artigos e já rendeu até embates públicos.

Em artigo publicado em 2008 na revista “Scientific American Brasil” e assinado com John Chapin, Nicolelis diz: “Os sinais de EEG, no entanto, não podem ser usados diretamente em próteses de membros, pois mostram a atividade elétrica média de populações amplas de neurônios. É difícil extrair desses sinais as pequeníssimas variações necessárias para codificar movimentos precisos dos braços ou das mãos.”

Em um debate da Associação Americana para o Avanço da Ciência de 2013, o brasileiro dirigiu provocações a Todd Coleman, da Universidade da Califórnia em San Diego, que pesquisa a EEG para controlar próteses. Na ocasião, Nicolelis disse que “haverá aplicações de implantes invasivos porque eles são muito melhores do que dispositivos de superfície”.

Segundo Márcio Dutra Moraes, neurocientista da UFMG, a mudança de metodologia é uma modificação “conceitual em como abordar a questão”. Ele aponta que isso ocorreu não porque a EEG é melhor, mas porque a proposta original era “estupidamente mais complexa” e o uso da EEG simplifica muito as coisas, ainda que não traga nenhum avanço substancial. Segundo Moraes, a mudança “certamente se deu pela impossibilidade de resolver de forma satisfatória e ética o projeto inicial dentro do limite de tempo imposto pela Copa”.

Segundo um cientista com experiência internacional que não quis se identificar, o projeto atual, como será apresentado na Copa, não justificaria os R$ 33 milhões investidos pelo governo.

Edward Tehovnik, pesquisador do Instituto do Cérebro da UFRN, chegou a trabalhar com Nicolelis, mas rompeu com o cientista, que o demitiu. Ele questiona quanto da demonstração de junho será controlada pelo exoesqueleto e quanto será controlada pelo cérebro da criança.

“Minha análise, baseada nos dados publicados, sugere que menos de 1% do sinal virá do cérebro da criança. Os outros 99% virão do robô”. E ele pergunta: “Será mesmo a criança paralisada que vai chutar a bola?”.

Sergio Neuenschwander, professor titular da UFRN, diz que a opção pelo EEG é uma mudança muito profunda no projeto original. Ele diz que é possível usar sinais de EEG para dar comandos ao robô, mas isso é diferente de obter o que seria o código neural de andar, sentar, chutar etc.

“O fato de ele ter optado por uma mudança de técnica mostra o tamanho do desafio pela frente.”

(Fernando Tadeu Moraes/Folha de S.Paulo)

Global warming dials up our risks, UN report says (AP)

By SETH BORENSTEIN, 30 March 2014

FILE – In this Aug. 20, 2013 file photo, Syrian refugees cross into Iraq at the Peshkhabour border point in Dahuk, 260 miles (430 kilometers) northwest of Baghdad, Iraq. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Hadi Mizban, File)
FILE – In this Dec. 17, 2011 file photo, an Egyptian protester throws a stone toward soldiers, unseen, as a building burns during clashes near Tahrir Square, in Cairo, Egypt. In an authoritative report due out Monday, March 31, 2014, a United Nations climate panel for the first time is connecting hotter global temperatures to hotter global tempers. Top scientists are saying that climate change will complicate and worsen existing global security problems, such as civil wars, strife between nations and refugees. (AP Photo/Ahmad Hammad, File).
FILE – In this Nov. 10, 2013 file photo, a survivor walks by a large ship after it was washed ashore by strong waves caused by powerful Typhoon Haiyan in Tacloban city, Leyte province, central Philippines. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Aaron Favila, File).
FILE – This Nov. 9, 2013 file photo provided by NASA shows Typhoon Haiyan taken by astronaut Karen L. Nyberg aboard the International Space Station. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/NASA, Karen L. Nyberg, File).
FILE – This May 6, 2008 file photo, shows an aerial view of devastation caused by Cyclone Nargis, seen at an unknown location in Myanmar. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/File).
FILE – This Oct. 31, 2012 file photo, shows an aerial view of the damage to an amusement park left in the wake of Superstorm Sandy, in Seaside Heights, N.J. Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, Maarten van Aalst, a top official at the International Federation of Red Cross and Red Crescent Societies said. Global warming is driving humanity toward a whole new level of many risks, a United Nations scientific panel reports, warning that the wild climate ride has only just begun. (AP Photo/Mike Groll, File)
FILE – In this Oct. 22, 2005 file photo, a motorcyclist rides past a mountain of trash, sheet rock and domestic furniture, removed from homes damaged by Hurricane Katrina, at one of three dump areas setup for that purpose, in New Orleans, LA. In the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, a United Nations scientific panel reports said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor. (AP Photo/Nati Harnik, File)
FILE – In this Aug. 7, 2010 file photo, a firefighter tries to stop a forest fire near the village of Verkhnyaya Vereya in Nizhny Novgorod region, some 410 km (255 miles) east of Moscow. Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, says a massive new report from a Nobel Prize-winning group of scientists released early Monday, March 31, 2014. (AP Photo/Alexander Zemlianichenko Jr., File)
FILE - This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight ``key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
FILE – This Nov. 13, 2013 file photo, shows typhoon damaged fuel tanks along the coast in Tanawan, central Philippines. A United Nations panel of scientists has drafted a list of eight “key risks” about climate change that’s easy to understand and illustrates the issues that have the greatest potential to cause harm to the planet. The list is part of a massive report on how global warming is affecting humans and the planet and how the future will be worse unless something is done about it. The report is being finalized at a meeting on the weekend of March 29, 2014 by the Intergovernmental Panel on Climate Change. (AP Photo/Wally Santana, File)
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Renate Christ, Secretary of the IPCC attends a press conference during the 10th Plenary of Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Rajendra Pachauri (L) Chairman of the Intergovernmental Panel on Climate Change (IPCC) and Christopher Field (R), IPCC Working Group II Co-Chair attend a press conference during the tenth Plenary IPCC Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
CJ. Yokohama (Japan), 31/03/2014.- Christopher Field, IPCC Working Group II Co-Chair, speaks at a press conference during the tenth Plenary of the Intergovernmental Panel on Climate Change (IPCC) Working Group II and 38th Session of the IPCC in Yokohama, south of Tokyo, Japan, 31 March 2014. The IPCC announced that the effects of climate change are already taking place globally on all continents and across ocean waters. Although the world today is not prepared for risks resulting from a climate change, there are opportunities to act on such risks. EFE/EPA/CHRISTOPHER JUE
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Smoke is discharged from chimneys at a plant in Tokyo, Tuesday, March 25, 2014. Along with the enormous risks global warming poses for humanity are opportunities to improve public health and build a better world, scientists gathered in Yokohama for a climate change conference said Tuesday. (AP Photo/Eugene Hoshiko)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Demonstrators participate in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
Chairman of the Intergovernmental Panel on Climate Change (IPCC) Rajendra K. Pachauri, center, speaks during a press conference in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)
A guard speaks on a mobile phone in front of demonstrators participating in a silence protest in front of a conference hall where the Intergovernmental Panel on Climate Change is meeting in Yokohama, near Tokyo, Monday, March 31, 2014. (AP Photo/Shizuo Kambayashi)

YOKOHAMA, Japan (AP) — If the world doesn’t cut pollution of heat-trapping gases, the already noticeable harms of global warming could spiral “out of control,” the head of a United Nations scientific panel warned Monday.

And he’s not alone. The Obama White House says it is taking this new report as a call for action, with Secretary of State John Kerry saying “the costs of inaction are catastrophic.”

Rajendra Pachauri, chairman of the Intergovernmental Panel on Climate Change that issued the 32-volume, 2,610-page report here early Monday, told The Associated Press: “it is a call for action.” Without reductions in emissions, he said, impacts from warming “could get out of control.”

One of the study’s authors, Maarten van Aalst, a top official at the International Federation of the Red Cross and Red Crescent Societies, said, “If we don’t reduce greenhouse gases soon, risks will get out of hand. And the risks have already risen.”

Twenty-first century disasters such as killer heat waves in Europe, wildfires in the United States, droughts in Australia and deadly flooding in Mozambique, Thailand and Pakistan highlight how vulnerable humanity is to extreme weather, according to the report from the Nobel Prize-winning group of scientists. The dangers are going to worsen as the climate changes even more, the report’s authors said.

“We’re now in an era where climate change isn’t some kind of future hypothetical,” said the overall lead author of the report, Chris Field of the Carnegie Institution for Science in California. “We live in an area where impacts from climate change are already widespread and consequential.”

Nobody is immune, Pachauri and other scientists said.

“We’re all sitting ducks,” Princeton University professor Michael Oppenheimer, one of the main authors of the report, said in an interview.

After several days of late-night wrangling, more than 100 governments unanimously approved the scientist-written 49-page summary — which is aimed at world political leaders. The summary mentions the word “risk” an average of about 5 1/2 times per page.

“Changes are occurring rapidly and they are sort of building up that risk,” Field said.

These risks are both big and small, according to the report. They are now and in the future. They hit farmers and big cities. Some places will have too much water, some not enough, including drinking water. Other risks mentioned in the report involve the price and availability of food, and to a lesser and more qualified extent some diseases, financial costs and even world peace.

“Things are worse than we had predicted” in 2007, when the group of scientists last issued this type of report, said report co-author Saleemul Huq, director of the International Centre for Climate Change and Development at the Independent University in Bangladesh. “We are going to see more and more impacts, faster and sooner than we had anticipated.”

The problems have gotten so bad that the panel had to add a new and dangerous level of risks. In 2007, the biggest risk level in one key summary graphic was “high” and colored blazing red. The latest report adds a new level, “very high,” and colors it deep purple.

You might as well call it a “horrible” risk level, said van Aalst: “The horrible is something quite likely, and we won’t be able to do anything about it.”

The report predicts that the highest level of risk would first hit plants and animals, both on land and the acidifying oceans.

Climate change will worsen problems that society already has, such as poverty, sickness, violence and refugees, according to the report. And on the other end, it will act as a brake slowing down the benefits of a modernizing society, such as regular economic growth and more efficient crop production, it says.

“In recent decades, changes in climate have caused impacts on natural and human systems on all continents and across the oceans,” the report says.

And if society doesn’t change, the future looks even worse, it says: “Increasing magnitudes of warming increase the likelihood of severe, pervasive, and irreversible impacts.”

While the problems from global warming will hit everyone in some way, the magnitude of the harm won’t be equal, coming down harder on people who can least afford it, the report says. It will increase the gaps between the rich and poor, healthy and sick, young and old, and men and women, van Aalst said.

But the report’s authors say this is not a modern day version of the Four Horsemen of the Apocalypse. Much of what they warn of are more nuanced troubles that grow by degrees and worsen other societal ills. The report also concedes that there are uncertainties in understanding and predicting future climate risks.

The report, the fifth on warming’s impacts, includes risks to the ecosystems of the Earth, including a thawing Arctic, but it is far more oriented to what it means to people than past versions.

The report also notes that one major area of risk is that with increased warming, incredibly dramatic but ultra-rare single major climate events, sometimes called tipping points, become more possible with huge consequences for the globe. These are events like the melting of the Greenland ice sheet, which would take more than 1,000 years.

“I can’t think of a better word for what it means to society than the word ‘risk,'” said Virginia Burkett of the U.S. Geological Survey, one of the study’s main authors. She calls global warming “maybe one of the greatest known risks we face.”

Global warming is triggered by heat-trapping gases, such as carbon dioxide, that stay in the atmosphere for a century. Much of the gases still in the air and trapping heat came from the United States and other industrial nations. China is now by far the No. 1 carbon dioxide polluter, followed by the United States and India.

Unlike in past reports, where the scientists tried to limit examples of extremes to disasters that computer simulations can attribute partly to man-made warming, this version broadens what it looks at because it includes the larger issues of risk and vulnerability, van Aalst said.

Freaky storms like 2013’s Typhoon Haiyan, 2012’s Superstorm Sandy and 2008’s ultra-deadly Cyclone Nargis may not have been caused by warming, but their fatal storm surges were augmented by climate change’s ever rising seas, he said.

And in the cases of the big storms like Haiyan, Sandy and Hurricane Katrina in 2005, the poor were the most vulnerable, Oppenheimer and van Aalst said. The report talks about climate change helping create new pockets of poverty and “hotspots of hunger” even in richer countries, increasing inequality between rich and poor.

Report co-author Maggie Opondo of the University of Nairobi said that especially in places like Africa, climate change and extreme events mean “people are going to become more vulnerable to sinking deeper into poverty.” And other study authors talked about the fairness issue with climate change.

“Rich people benefit from using all these fossil fuels,” University of Sussex economist Richard Tol said. “Poorer people lose out.”

Huq said he had hope because richer nations and people are being hit more, and “when it hits the rich, then it’s a problem” and people start acting on it.

Part of the report talks about what can be done: reducing carbon pollution and adapting to and preparing for changing climates with smarter development.

The report echoes an earlier U.N. climate science panel that said if greenhouse gases continue to rise, the world is looking at another about 6 or 7 degrees Fahrenheit (3.5 or 4 degrees Celsius) of warming by 2100 instead of the international goal of not allowing temperatures to rise more than 2 degrees Fahrenheit (1.2 degrees Celsius). The difference between those two outcomes, Princeton’s Oppenheimer said, “is the difference between driving on an icy road at 30 mph versus 90 mph. It’s risky at 30, but deadly at 90.”

Tol, who is in the minority of experts here, had his name removed from the summary because he found it “too alarmist,” harping too much on risk.

But the panel vice chairman, Jean-Pascal van Ypersele, said that’s not quite right: “We are pointing for reasons for alarm … It’s because the facts and the science and the data show that there are reasons to be alarmed. It’s not because we’re alarmist.”

The report is based on more than 12,000 peer reviewed scientific studies. Michel Jarraud, secretary general of the World Meteorological Organization, a co-sponsor of the climate panel, said this report was “the most solid evidence you can get in any scientific discipline.”

Michael Mann, a climate scientist at Pennsylvania State University who wasn’t part of this report, said he found the report “very conservative” because it is based on only peer reviewed studies and has to be approved unanimously.

There is still time to adapt to some of the coming changes and reduce heat-trapping emissions, so it’s not all bad, said study co-author Patricia Romero-Lankao of the National Center for Atmospheric Research in Colorado.

“We have a closing window of opportunity,” she said. “We do have choices. We need to act now.”



The Intergovernmental Panel on Climate Change:



Seth Borenstein can be followed at

Um oceano nos ares (Fapesp)

Radares e sobrevoos detalham os mecanismos de formação de chuva e o efeito da poluição urbana sobre o clima da Amazônia

CARLOS FIORAVANTI | Edição 217 – Março de 2014

O mundo das águas: nuvens escuras cobrem o rio Negro e Manaus no dia 18 de fevereiro de 2014, antecipando mais uma chuva amazônica

De Manaus

Aqui em Manaus e por esta vasta região Norte chove muito o ano todo, mas as chuvas são diferentes. No início do ano – fevereiro e março – chove quase todo dia, com poucos relâmpagos, e o aguaceiro lava a floresta e as cidades durante horas seguidas. Já no final do ano – de setembro a novembro – as tempestades são mais intensas, com muitos relâmpagos, acordando medos atávicos, e as chuvas são localizadas e mais breves. Para confirmar e detalhar os mecanismos de formação da chuva – diferente em cada região do país e mesmo dentro de uma mesma região – e o efeito da poluição de Manaus sobre o clima da Amazônia, um grupo de 100 pesquisadores do Brasil, dos Estados Unidos e da Alemanha começou a escrutinar o céu da região de Manaus com radares e aviões, por meio do programa Green OceanAmazon (GOAmazon). Lançado oficialmente no dia 18 de fevereiro em Manaus, o GOAmazon conta com orçamento de R$ 24 milhões e apoio financeiro da FAPESP, Fundação de Amparo à Pesquisa do Estado do Amazonas (Fapeam) e Departamento de Energia e Fundação Nacional de Ciência (NSF) dos Estados Unidos.

A expressão green ocean nasceu em 1999, na primeira grande campanha do programa Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia (LBA). Sobrevoando a floresta de Ji-Paraná, em Rondônia, os pesquisadores – muitos deles integrantes deste novo programa – notaram que as nuvens não se comportavam como o esperado. Nessa região da Amazônia já próxima à Bolívia, imaginava-se que as nuvens tivessem até 20 quilômetros (km) de altura e apresentassem alta concentração de material particulado e de gotas pequenas de chuva, características das chamadas nuvens continentais. Em vez disso, elas tinham características das nuvens oceânicas, com pouco material particulado, de formação mais rápida e topos relativamente baixos, como em áreas oceânicas – era um oceano, não azul, mas verde, por estar sobre a floresta. Antonio Manzi, pesquisador do Instituto Nacional de Pesquisas da Amazônia (Inpa), que participou daquela e de outras expedições do LBA e agora integra o GOAmazon, lembra-se de que foi também em 1999 que verificaram que as chamadas nuvens quentes, que não formam cristais de gelo, eram as predominantes na região – um fato inesperado em áreas continentais.


016-021_CAPA_Chuva_217-extraO volume de chuva que cai sobre a bacia amazônica equivale a um oceano. Segundo Manzi, são em média 27 trilhões de toneladas de água por ano. Em termos mais concretos, a chuva, se se acumulasse em vez de escoar no solo, formaria uma lâmina d’água com uma espessura de 2,3 metros ao longo dos 6,1 milhões de quilômetros quadrados da bacia amazônica, que se espalha pelo Brasil e por vários países vizinhos. Luiz Augusto Machado, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe), calculou o volume médio da água de chuva em todo o país: são 14 trilhões de toneladas por ano. Caso se acumulasse, essa água da chuva formaria uma camada de 1,7 metro de altura cobrindo todo o país. Machado é também o coordenador do Projeto Chuva, que integra o GOAmazon e fará agora em Manaus a última etapa de um levantamento sobre os tipos e distribuição de nuvens de chuva no Brasil. 

Ainda não está claro como esse oceano aéreo se forma. “As nuvens podem ou não gerar chuva”, diz Gilberto Fisch, do Instituto de Aeronáutica e Espaço (IAE), de São José dos Campos, e pesquisador do Projeto Chuva. “Costuma-se dizer que, quando há vapor-d’água, a chuva se forma e cai, mas não é bem assim.” A maioria das gotículas que formam as nuvens, com dezenas de micrômetros de diâmetro, se dispersa na forma de vapor. Só uma minoria consegue ganhar volume e se transformar em gotas com diâmetro de 1 a 5 milímetros e cair, por ação da gravidade. Entender como as nuvens se formam e crescem e em quais a chuva efetivamente se forma é uma das metas da equipe do GOAmazon.

Em um dos locais de coleta de informações, no município de Manacapuru, 80 km a oeste de Manaus, 120 equipamentos estão funcionando dia e noite – alguns expostos, outros no interior de 15 contêineres – para levantar informações sobre o clima na região, com o reforço dos balões meteorológicos, soltados a cada seis horas. Sobre um dos contêineres está um radar com alcance de 100 km que examina o formato e a constituição de nuvens formadoras de chuva e, desde 2010, fez o mesmo serviço em outras cidades brasileiras. As informações apuradas sobre as nuvens serão confrontadas com as do satélite GPM, que deve ser lançado em 27 de fevereiro do Japão e permanecer em uma órbita de 400 km de altura, enviando informações sobre as nuvens de chuva em quase todo o planeta. “O GPM vai passar duas vezes por dia sobre Manaus, complementando nossas informações”, diz Machado.

Um avião de pesquisa vindo dos Estados Unidos chegou a Manaus no dia 16 de fevereiro com a previsão de começar a voar nos dias seguintes para examinar diretamente os tipos de cristais de gelo do interior das nuvens e os teores de gás carbônico (CO2) e material particulado. O avião norte-americano e outro da Alemanha devem sobrevoar a cidade e a floresta em setembro para medir as eventuais alterações do clima na estação seca.

Os experimentos, previstos para terminarem em dezembro de 2015, devem resultar em previsões meteorológicas de curto prazo (duas horas) e modelos computacionais de circulação atmosférica mais apurados. Em algumas regiões do país o monitoramento do volume de chuvas, dependente de satélites meteorológicos, ainda é muito impreciso, adiando as medidas de alerta que poderiam salvar vidas antes de as chuvas fortes chegarem.

Varrendo o céu: o radar de nuvem (esquerda) e o de chuva, instalados em Manacapuru, a 80 km de Manaus

Uma metrópole na floresta
Com forte base industrial,  uma frota de 700 mil veículos e quase 2 milhões de habitantes, Manaus, capital do estado do Amazonas, é a maior metrópole tropical do mundo cercada por centenas de quilômetros de floresta. Como a pluma de poluentes produzida por essa megacidade no centro da Amazônia altera o ciclo de vida dos aerossóis e das nuvens em áreas de mata preservada e como esses elementos interagem na atmosfera e provocam mais ou menos chuvas na região?

Essas são as questões centrais que o experimento internacional GOAmazon tentará responder nos próximos anos. Um conjunto detalhado de medidas sobre aerossóis, gases traço (gás carbônico, metano e outros) e nuvens será realizado em seis diferentes sítios. Três se encontram a leste, antes de o vento passar por Manaus, e, portanto, sua atmosfera ainda não foi contaminada pela pluma de poluição da capital. Um quarto posto de medição será na própria metrópole e os dois últimos se situam em Iranduba e Manacapuru, a oeste, onde a atmosfera já carrega a influência dos poluentes emitidos em Manaus.

“Não há outra cidade com uma situação similar à da capital do Amazonas”, afirma Paulo Artaxo, coordenador de projeto temático ligado ao GOAmazon. “Sabemos que a poluição altera a precipitação, mas em que tipo de nuvem e em que circunstância?” Os estudos de Scott Martin, pesquisador da Universidade Harvard e integrante do GOAmazon, indicaram que o efeito dos aerossóis sobre o clima da Amazônia varia de acordo com a época do ano. Já se viu também que as nuvens que passam sobre a cidade recebem poluição e apresentam uma refletividade maior que as sem poluição. As nuvens da floresta têm uma carga de material particulado equivalente à da era pré-industrial.

Maria Assunção da Silva Dias, pesquisadora do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP) que coordenou a campanha do LBA em 1999, vai modelar a influência da brisa fluvial originada pelos rios Negro, Solimões e Amazonas sobre o vento que carrega a pluma de poluentes da capital amazonense. A brisa sopra do rio para a terra durante o dia. À noite, ela inverte o sentido.  “Em rios com margens largas, como o Negro, a brisa pode ser um fator capaz de alterar a direção e a intensidade dos ventos, modificando o regime de chuvas em áreas próximas”, diz Maria Assunção, que em 2004 realizou um estudo semelhante sobre a brisa do rio Tapajós, em Santarém, no Pará.

Neve no nordeste
Dispostos a entender melhor a formação de chuva pelo país e a evitar tragédias climáticas, a equipe do Inpe coletou nos últimos quatro anos dados em cinco pontos de amostragem: Alcântara, no Maranhão; Fortaleza, no Ceará; Belém, no Pará; São José dos Campos, em São Paulo; e Santa Maria, no Rio Grande do Sul. Um radar e outros equipamentos agora instalados em Manaus medem o tamanho das gotas nas nuvens e os tipos de cristais que as formam. As formas das gotas, a propósito, são bem diferentes: podem ser horizontais, elípticas ou oblongas, mas todas longe do formato abaulado com que normalmente se representam as gotas de chuva.

Preparando balão meteorológico para soltura

“Esse é o primeiro recenseamento da distribuição de gotas de chuvas e cristais de gelo no território nacional”, diz Machado. O que se notou, em linhas gerais, é que diferentes tipos de nuvens (mais altas ou mais baixas), com diferentes tipos de cristais de gelo (em forma de estrela, coluna ou cone), se formam e se desfazem continuamente em todas as regiões do país. Também se viu que há particularidades regionais, que indicam processos distintos de formação de chuvas e fenômenos surpreendentes. As formas e os humores da chuva pelo país ao longo do ano são diversificados a ponto de lembrarem o poema Caso pluvioso, no qual o poeta Carlos Drummond de Andrade descobre que Maria é que chovia (ele não conta quem era Maria) e a chama de chuvadeira, chuvadonha, chuvinhenta, chuvil e pluvimedonha. E em seguida: “Choveu tanto Maria em minha casa / que a correnteza forte criou asa / e um rio se formou, ou mar, não sei, / sei apenas que nele me afundei”.

A realidade também exibiu um pouco de poesia. “Detectamos neve nas nuvens mais altas sobre a cidade de Fortaleza”, diz Machado. Para decepção dos moradores locais, porém, a neve derrete e cai como chuva comum. No Nordeste predominam as nuvens quentes, assim chamadas porque o topo está abaixo do limite de temperatura de 0oCelsius (ºC) e, por essa razão, nelas não se formam cristais de gelo, como nas regiões mais altas dos outros tipos de nuvens. Por não abrigarem gelo, essas nuvens passam despercebidas pelos satélites meteorológicos e pelos equipamentos de micro-ondas usados para prever a formação de chuvas, resultando em medições imprecisas. As medições de nuvens quentes feitas por radar em Alcântara indicaram que os valores de volume de água, comparados com as medições feitas por satélite, estavam subestimados em mais de 50%, como descrito por Carlos Morales, pesquisador da USP que integra o Projeto Chuva.

O limite – ou isoterma – de 0ºC separa cristais de gelo (acima) e água líquida (abaixo): é uma espécie de porta invisível da chuva, onde o gelo derrete e forma água. Não é lá muito rigorosa, porque no Sudeste, por causa das fortes correntes ascendentes, a água permanece líquida a temperaturas de até 20 graus negativos, acima da camada de derretimento do gelo. “A combinação entre água e gelo em altitudes mais elevadas é a principal razão da maior incidência das descargas elétricas na região Sudeste”, diz Machado.

Manaus sob chuva

Por meio do radar, pode-se examinar a proporção de água e de gelo no interior das nuvens, desse modo obtendo informações que escapam dos satélites usados na previsão do tempo. “Os satélites não detectam as gotas grandes de água e de baixa concentração que vêm do Atlântico e formam as nuvens das regiões Nordeste e Sudeste”, Machado exemplifica. No Nordeste as nuvens, que se concentram na zona costeira, são alimentadas pelas massas de ar vindas de regiões próximas ao equador, que se movem do oceano para o continente. Já no Sul e no Sudeste as chuvas se devem principalmente às massas de ar frio (frentes frias) que vêm da Argentina. Os especialistas dizem que os satélites também não detectam fenômenos que não escapariam ao radar, como a transformação de um vento quente que veio do oceano, esfriou rapidamente ao encontrar as regiões mais frias do alto das serras no Sul do Brasil e desabou como uma chuva impiedosa sobre Blumenau e toda a região leste de Santa Catarina em 2008.

O radar de dupla polarização, em conjunto com outros instrumentos, envia ondas horizontais e verticais que, por reflexão, indicam o formato dos cristais de gelo e das gotas de chuva, desse modo elucidando a composição das nuvens e os mecanismos de formação e intensificação das descargas elétricas (raios) durante as tempestades. Os pesquisadores verificaram que as nuvens com muitos raios são mais altas e abrigam uma diversidade maior de cristais de gelo e mais granizo (pedras de gelo) do que aquelas que produzem menos raios. Além disso, de acordo com esse levantamento, as cargas elétricas negativas permanecem na mesma altura, logo acima do limite de 0oC, e as positivas podem ficar mais altas, acompanhando o topo das nuvens e o aumento da intensidade da descarga elétrica (ver detalhes no infográfico).

“Quem não quer saber onde vai chover antes de sair de casa?”, indaga Machado. Os especialistas acreditam que os dados coletados, combinados com a modelagem computacional já utilizada para a previsão do clima, podem criar uma base sólida de conhecimento teórico e aplicado sobre a chuva continental. Em uma das ramificações do Projeto Chuva – o SOS, Sistema de Observação de Tempo Severo –, o grupo do Inpe trabalhou com equipes da Defesa Civil e de universidades em cada uma das cidades em que se instalaram com os equipamentos para prever a chegada de chuvas com duas horas de antecedência e uma resolução espacial que define possíveis pontos de alagamentos nos bairros, complementando as previsões fornecidas por supercomputadores como o Tupã, instalado no Inpe. Com base nessas experiências, Machado acredita que o radar, acoplado a um sistema de informação geográfica (SIG) e às tecnologias já em uso de previsão de chuva em alta resolução, da ordem de centenas de metros, viabiliza a previsão imediata de tempestades e desastres climáticos, para que o morador de um bairro possa saber, antes de sair de casa, se está chovendo no bairro vizinho, para onde está indo. “Para isso”, ele diz, “precisamos conhecer o tamanho das gotas de chuva e dos fenômenos que se passam no interior das nuvens, como já estamos fazendo”. Eles continuam trabalhando, enquanto agora, como na canção de Tom Jobim, chegam as águas de março, fechando o verão.

Com colaboração de Marcos Pivetta

1. Processos de nuvens associados aos principais sistemas precipitantes no Brasil: uma contribuição a modelagem da escala de nuvens e ao GPM (medida global de precipitação) (nº 2009/15235-8); Modalidade Projeto Temático; Pesquisador responsável Luiz Augusto Toledo Machado – Inpe; Investimento R$ 2.188.914,06 (FAPESP).
2. GoAmazon: interação da pluma urbana de Manaus com emissões biogênicas da floresta amazônica (nº 2013/05014-0); Modalidade Projeto temático; Pesquisador responsável Paulo Eduardo Artaxo Netto – IF-USP; Investimento R$ 3.236.501,79 (FAPESP).

Northern and southern hemisphere climates follow the beat of different drummers (Science Daily)

Date: March 30, 2014

Source: University of Bern

Summary: Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across the Earth with implications for regional predictions.

Field work in the Indian Ocean. The corals off the Broome coast, Western Australia, store information about past climate. Credit: Copyright Eric Matson, Australian Institute of Marine Science

Over the last 1000 years, temperature differences between the Northern and Southern Hemispheres were larger than previously thought. Using new data from the Southern Hemisphere, researchers have shown that climate model simulations overestimate the links between the climate variations across Earth with implications for regional predictions.

These findings are demonstrated in a new international study coordinated by Raphael Neukom from the Oeschger Centre of the University of Bern and the Swiss Federal Research Institute WSL and are published today in the journal Nature Climate Change.

The Southern Hemisphere is a challenging place for climate scientists. Its vast oceans, Antarctic ice, and deserts make it particularly difficult to collect information about present climate and, even more so, about past climate. However, multi-centennial reconstructions of past climate from so-called proxy archives such as tree-rings, lake sediments, corals, and ice-cores are required to understand the mechanisms of the climate system. Until now, these long-term estimates were almost entirely based on data from the Northern Hemisphere.

Over the past few years, an international research team has made a coordinated effort to develop and analyse new records that provide clues about climate variation across the Southern Hemisphere. Climate scientists from Australia, Antarctic-experts, as well as data specialists and climate modellers from South and North America and Europe participated in the project. They compiled climate data from over 300 different locations and applied a range of methods to estimate Southern Hemisphere temperatures over the past 1000 years. In 99.7 percent of the results, the warmest decade of the millennium occurs after 1970.

Surprisingly, only twice over the entire last millennium have both hemispheres simultaneously shown extreme temperatures. One of these occasions was a global cold period in the 17th century; the other one was the current warming phase, with uninterrupted global warm extremes since the 1970s. “The ‘Medieval Warm Period’, as identified in some European chronicles, was a regional phenomenon,” says Raphael Neukom. “At the same time, temperatures in the Southern Hemisphere were only average.” The researchers ascribe these large differences to so-called “internal variability.” This term describes the chaotic interplay of the ocean and atmosphere within the climate system that leads to temperatures changing in one or the other direction. Regional differences in these fluctuations appear to be larger than previously thought.

The scientists discovered that most climate models are unable to satisfactorily simulate the considerable differences between the hemispheres. The models appear to underestimate the influence of internal variability, in comparison with external forcings like solar irradiation, volcanic eruptions or human greenhouse gas emissions. “Regional differences in the climatic evolution of the next decades could therefore be larger than the current models predict,” says Neukom.

Journal Reference:

  1. Raphael Neukom, Joëlle Gergis, David J. Karoly, Heinz Wanner, Mark Curran, Julie Elbert, Fidel González-Rouco, Braddock K. Linsley, Andrew D. Moy, Ignacio Mundo, Christoph C. Raible, Eric J. Steig, Tas van Ommen, Tessa Vance, Ricardo Villalba, Jens Zinke, David Frank. Inter-hemispheric temperature variability over the past millenniumNature Climate Change, 2014; DOI:10.1038/NCLIMATE2174

Luciana Vanni Gatti: Na trilha do carbono (Fapesp)

MARCOS PIVETTA e RICARDO ZORZETTO | Edição 217 – Março de 2014



Emoldurado por um nascer do sol no município acreano de Senador Guiomard, um castanheiro-do-pará ocupou o primeiro plano da capa de 6 de fevereiro da revista científica inglesa Nature, uma das mais prestigiadas do mundo. A árvore tropical simbolizava a Amazônia, tema central de um artigo que teve como autor principal Luciana Vanni Gatti, 53 anos, coordenadora do Laboratório de Química Atmosférica do Instituto de Pesquisas Energéticas e Nucleares (Ipen). Luciana e os coautores do trabalho calcularam o chamado balanço de carbono da floresta amazônica  que é uma comparação entre a quantidade de carbono na forma de dióxido de carbono (CO2) emitida e a absorvida pela bacia Amazônica – em dois anos consecutivos que apresentaram temperaturas acima da média dos últimos 30 anos, mas uma variação significativa no regime de chuvas.

O ano de 2010 foi marcado por uma estiagem extrema e o de 2011 por chuvas acima da média. “Vimos que a Amazônia se comportou como uma fonte de carbono no ano seco quando também levamos em conta as queimadas”, diz Luciana, que dividiu a coautoria do artigo com Emanuel Gloor, da Universidade de Leeds, na Inglaterra, e John Miller, da Universidade do Colorado, em Boulder, nos Estados Unidos. “Mas, no ano úmido, seu balanço de carbono foi próximo a neutro, a quantidade emitida e a absorvida foram mais ou menos equivalentes.” Os dados do estudo sobre gases atmosféricos foram obtidos por uma iniciativa comandada desde 2010 pela brasileira, cujos esforços de pesquisa fazem parte do Amazonica (Amazon Integrated Carbon Analysis), um grande projeto internacional coordenado por Gloor. A cada duas semanas, pequenos aviões alçam voo de quatro localidades amazônicas (Santarém, Alta Floresta, Rio Branco e Tabatinga) e coletam amostras de ar ao longo de um perfil vertical descendente, entre 4,4 quilômetros de altitude e 200 ou 300 metros do solo. As amostras são enviadas para o laboratório de Luciana no Ipen onde são quantificados gases de efeito estufa, entre outros. No trabalho foram estudados o CO2, o monóxido de carbono (CO) e o hexafluoreto de enxofre (SF6).

Os resultados foram interpretados como preocupantes, pois sugerem que a capacidade de a Amazônia absorver da atmosfera o CO2, principal gás de efeito estufa, parece estar associada à quantidade de chuvas. Em anos secos, como 2010, ocorrem mais incêndios em áreas com floresta e também nas já desmatadas, que liberam grandes quantidades de CO, e o estresse hídrico aparentemente reduz os níveis de fotossíntese das plantas e as fazem retirar menos CO2 da atmosfera. Nesta entrevista, Luciana fala dos resultados e das implicações de seu estudo e conta um pouco de sua carreira.

Você esperava que o trabalho parasse na capa daNature?
Mais pela importância do tema do que pela qualidade do trabalho, esperava que saísse sim, mas não imaginava que fosse capa. Vou a muitos congressos e encontro gente do mundo inteiro falando da Amazônia. Essas pessoas não têm ideia do que é a região. Nunca vieram aqui e ficam fazendo modelagem, extrapolando dado local como se fosse representativo de toda a região. Vejo resultados muito variados de modelagem, mostrando a Amazônia como sendo desde grande absorvedora até grande emissora de CO2. A Amazônia faz diferença no balanço global de carbono. Por isso, descobrir qual é o seu peso nesse balanço é tremendamente importante. Hoje do que mais se fala? De mudança climática. O planeta está ficando hostil ao ser humano. Mas inicialmente pretendíamos publicar na Science.

Por quê?
Era meu objetivo porque o [Simon] Lewis [pesquisador da Universidade de Leeds] publicou na Science em 2010 um paper com conclusões que queríamos contestar. Ele disse que a Amazônia tinha emitido naquele ano o equivalente à queima de combustíveis fósseis de todo os Estados Unidos. Era um trabalho feito com modelagem e tinha chegado a um resultado muito exagerado. Queria publicar na Science para responder ao Lewis. Chegamos a submeter para a revista uma versão de nosso artigo, na época apenas com os dados de 2010, um ano muito seco. Era um trabalho que determinava o balanço de carbono naquele ano. A Science disse que era um estudo relevante, mas que tinha um escopo técnico demais, fora de sua linha editorial. Nem mandaram o artigo para ser analisado por referees e sugeriram que o enviássemos para uma revista mais especializada. Mas, quando analisamos os dados de 2011, encontramos uma situação completamente diferente daquela de 2010. O entendimento de por que os efeitos sobre o balanço de carbono foram tão diferentes em 2010 e 2011 foi o que fez a Nature gostar do paper. Por esse motivo, sou a favor de estudos de longa duração. Se tivesse feito uma campanha em 2010, ia achar que a Amazônia se comporta daquele jeito todos os anos.

Em editorial, a Nature disse que os resultados do artigo são uma notícia ruim. Concorda com essa avaliação?
Concordo. É uma notícia bem triste. Não esperávamos que a Amazônia pudesse apresentar um resultado tão baixo de absorção de carbono. Nunca ninguém mediu isso da forma como fizemos agora. Existem vários trabalhos que, a partir de um dado local, extrapolam uma média para a região. Mas tirar uma média é válido? Já sabemos que existe muita variação dentro da Amazônia.

Qual era o senso comum sobre o balanço de carbono na região?
Que a Amazônia absorvia em torno de meio petagrama de carbono por ano, era o que se estimava. Todo mundo acha que a Amazônia é um grande sink [sumidouro] de carbono. Mas em 2010, por causa do estresse hídrico, as plantas fizeram menos fotossíntese e aumentou sua mortalidade. Então a floresta na média absorveu apenas 0,03 petagrama de carbono. Muito pouco. Isso equivale a 30 milhões de toneladas de carbono. O valor é igual à margem de erro do estudo. Devido a queimadas propositais e a incêndios florestais, a Amazônia emitiu 0,51 petagrama de carbono (510 milhões de toneladas de carbono). Portanto, no balanço de carbono a emissão foi muito maior do que a absorção. É uma notícia horrível. Em 2011, que foi mais úmido, o balanço foi praticamente neutro [a floresta emitiu 0,30 petagrama de carbono, mas abosorveu 0,25 petagrama, oito vezes mais que no ano anterior].

A quantidade de chuvas é o fator principal para entender o balanço de carbono na Amazônia?
Não é bem isso. Nosso estudo mostra que a disponibilidade de água é um fator mais importante do que a temperatura. É questão de peso. Mas isso não quer dizer que a temperatura não seja importante. A grande diferença entre 2010 e 2011 foi a questão hídrica, só que ela também está ligada à variação de temperatura. É difícil dar uma resposta definitiva. Esse dado indica que não dá para fazer modelo de previsão climática levando em conta apenas o aumento de temperatura. É preciso colocar todas as consequências desse aumento de temperatura. Um modelo muito simplista vai ficar longe do que vai acontecer no futuro.

A seca de 2010 e as chuvas de 2011 foram anormais para a Amazônia?
Não podemos dizer que a chuva de 2011 foi extrema, porque ela não foi acima da máxima histórica. Foi um ano chuvoso, acima da média, mas não incomum. É uma questão de definição. Houve outros anos com níveis semelhantes de precipitação. A seca de 2010 foi extrema, incomum, abaixo da mínima histórica. No entanto, não posso dizer que a capacidade de absorção em 2011 equivale à média de um ano chuvoso. Em 2010, a floresta tinha sofrido muito com a seca e, no ano seguinte, a vegetação ainda poderia estar sob efeito do impacto desse estresse absurdo. A história de um ano pode estar influenciando o ano seguinte. Pode ser que, depois de um ano chuvoso, o sequestro de carbono seja maior se houver em seguida um segundo ano também chuvoso.

Os dados de um ano não devem ser analisados de forma isolada.
Exatamente! Por isso, temos que realizar estudos de longo prazo. Quando participei de campanhas e vi que havia essa variabilidade de ano para ano, desisti desse tipo de estudo. Acho vantajoso o fato de se reunir [em campanhas] muitos pesquisadores de varias áreas e os estudos de uns complementarem o de outros. Os avanços em alguns aspectos do conhecimento são muitos nesse tipo de situação, mas não no sentido de se conhecer um valor significativo que represente toda a Amazônia. Nesse aspecto existe muita variabilidade. Não dá pra estudar um mês na estação seca e outro na chuvosa e achar que esses períodos representam tudo o que ocorre no período de estiagem e no úmido e se estender o resultado para todo o ano. Esse número pode ser o dobro ou a metade do real, por exemplo. Durante nosso estudo de 10 anos em Santarém, vi essa grande variabilidade. Sou muito perfeccionista. Se sei que meu número pode estar muito errado, isso não me satisfaz.

Com dados de apenas dois anos, é seguro chegar a alguma conclusão sobre o balanço de carbono na Amazônia?
Como 2010 foi tão diferente de 2011, concluímos que nem com quatro ou cinco anos, que era nosso plano original, chegaremos a uma média conclusiva. Agora estamos à procura de recursos para financiar a continuidade desse projeto por uma década. A média de 10 anos é suficiente? Sim, estudos sobre o ciclo de carbono são mais conclusivos se forem decadais. Mas é importante entender que a Amazônia está sendo alterada, tanto pelo homem como pelo clima, que o homem também está alterando. Então o que acharmos de resultado mediano pode ser diferente do que ocorreu na década passada e na retrasada. Vamos submeter um projeto para continuar esse estudo. Mas, além de recursos para as medidas, precisamos de recursos para ter uma equipe para conduzir o projeto também. Sou a única funcionária do Ipen atuando no projeto, todos os demais são pagos pelos projetos envolvidos nesse estudo. E, sem essa equipe tão afinada, não existiria esse projeto incrível. É um esforço muito grande de muitas pessoas.

Alguns estudos sugerem que o aumento dos gases de efeito estufa pode levar algumas plantas a fazer mais fotossíntese. Isso não poderá alterar o balanço de carbono na Amazônia no longo prazo?
Não é só isso. É verdade que mais COna atmosfera estimula a planta a fazer mais fotossíntese. Mas há outros mecanismos. Em uma situação de estresse hídrico, a raiz absorve menos água. A planta diminui seu metabolismo e assim absorve menos carbono. O que sabemos ao certo é que a floresta reduz sua capacidade de absorver carbono com a diminuição da disponibilidade de água.

Como o ar coletado em quatro pontos da Amazônia pode representar a atmosfera de toda essa enorme região?
Em qualquer um dos pontos, as amostras coletadas nos voos representam uma massa de ar que passou por várias partes da Amazônia, desde a costa brasileira até o ponto de coleta e, no caso de Santarém, até de trechos do Nordeste. Se ela levou sete dias para chegar até o ponto de coleta, representa uma semana e não apenas o momento em que foi obtida. Ela guarda toda a história do caminho que percorreu dentro da Amazônia nesses sete dias, de todas as emissões e absorções que ocorreram nesse percurso. Não estamos, portanto, coletando uma amostra de ar referente a uma hora. Estamos coletando a história de uma coluna de ar que viajou todo esse caminho desde a costa brasileira. Calculamos o caminho que cada massa de ar fez até ser coletada em cada altitude amostrada.

Esse método não tem alguma limitação?
A grande limitação é só termos feito coletas até 4,4 quilômetros de altura. O que ocorre acima disso está fora da nossa área de medição. Uma nuvem convectiva pode levar o ar que estava embaixo para cima e vice-versa. Isso pode fazer com que nossa coluna de ar seja parcialmente levada para uma altitude acima do nosso limite de voo. Nesse caso, perdemos informação. Essa é a maior fonte de erro do nosso método. O ideal seria voarmos a até 8 ou 12 quilômetros de altura. Já começamos a fazer isso no inicio de 2013 no ponto de estudo próximo a Rio Branco e os resultados são muito animadores. Nessa faixa de altitude, em um ano, não observamos uma variação muito significativa que indique um erro grande. Isso é muito animador.

Os quatro pontos de coleta de amostras de ar se comportam iguais?
O ponto próximo a Santarém é diferente de tudo em termos de resultado. Vamos pensar em sua área de influência. Todo litoral tem uma densidade populacional grande. Nesse ponto da região amazônica temos a maior relação área/população. Nossos dados coletados ali sofrem influência urbana, antropogênica e de combustíveis fósseis que não aparecem tanto em outros pontos da Amazônia. Haveria influência inclusive da poluição vinda das cidades do Nordeste. Às vezes, na estação chuvosa, observamos nesse ponto emissão de carbono, enquanto nos outros três pontos que monitoramos há absorção.

O que explica essa diferença?
Podem ser as atividades antropogênicas em áreas próximas a Santarém. As Guianas estão acima do equador. Quando é a estação chuvosa no Brasil, lá é a seca. Tem também as queimadas e as atividades antrópicas nas cidades próximas de nosso litoral. Dizem para eu parar as medidas em Santarém, que não representa a Amazônia. Mas tenho uma série histórica de 14 anos. O Brasil não tem série histórica de medidas desse tipo. Se pararmos de medir em Santarém… Fico em um dilema.

Mas Santarém não representa uma parte importante da Amazônia oriental?
Na área de influência de Santarém, 40% é floresta. Se considerar a área de toda a floresta amazônica, Santarém pega uma “fatiazinha”, entre aspas porque é gigante, de 20%. Só descobrimos isso quando passamos a estudar o outro lado da Amazônia. As amostras obtidas no avião são resultantes de uma história de tudo o que aconteceu antes de o ar chegar lá. Com exceção do monóxido de carbono, que vem das queimadas de floresta, não há como saber a contribuição de cada fonte de carbono. No caso de Santarém, essa abordagem não funciona muito bem. Acreditamos que uma parte do monóxido de carbono venha de outras queimas de biomassa, talvez de combustíveis fósseis e não basicamente da queima de vegetação florestal.

Como começou seu trabalho na Amazônia?
Participei do LBA [Experimento de Grande Escala da Biosfera-Atmosfera na Amazônia] desde o início, em 1998. Fiz campanhas de campo. Há 10 anos, comecei as medidas sistemáticas em Santarém. Até então, as amostras dos perfis de ar iam para os Estados Unidos para serem analisadas em um laboratório da Noaa [National Oceanic and Atmospheric Administration]. Em 2004 montei meu laboratório no Ipen e as amostras pararam de ir para os Estados Unidos. Meu laboratório é uma réplica do laboratório da Noaa, o melhor laboratório do planeta de gás de efeito estufa. Fiz tudo igualzinho e importamos uma réplica do laboratório deles. Botamos tudo dentro de caixas e trouxemos para cá. Tudo, tudo. Do mouse à estante. O sistema todinho encaixotado. Podemos medir CO2, CH4, N2O, CO, SF6 e H2. O laboratório foi pago pela Nasa e o usamos no LBA. Tudo o que aprendi nessa área foi com a equipe da Global Monitoring Division da Noaa. Passei três temporadas lá. Estamos juntos sempre, eles têm acesso ao Magic, que é esse nosso sistema de análise. Tudo é feito em parceria com eles. São 10 anos trabalhando com esses caras. Sou filha deles. Depois de 2004 conseguimos uma frequência maior de medidas em Santarém. Naquele ano, voamos na estação seca e na estação chuvosa pela primeira vez. Tentamos também realizar medições em Manaus, mas dos três anos de coletas tivemos problemas de autorização de voo em um ano e no ano seguinte com as análises de CO2. Então o dinheiro acabou. Como só tinha dados de um ano inteiro, acabei nunca publicando essas informações. Mas isso é uma falha que tenho de corrigir. Ficamos só em Santarém até 2009, quando ganhamos verba da FAPESP e da Nerc [agência do Reino Unido de financiamento de pesquisas] e passamos a fazer medições em mais três pontos.

Quando os estudos se restringiam a Santarém foi possível chegar a alguma conclusão?
Observamos que existe uma variabilidade muito grande no balanço de carbono durante a estação chuvosa na Amazônia. Publicamos esses dados num paper em 2010. Vimos que não adianta fazer um estudo de um ou dois anos. Tem de ser de muitos anos. Essa foi a primeira lição importante que aprendi com esse estudo.

Qual é o passo seguinte do trabalho na Amazônia?
Calcular o balanço de carbono em 2012 e 2013. Já temos os dados. O ano de 2012, por exemplo, está no meio do caminho entre 2010 e 2011. Choveu absurdamente na parte noroeste e no resto foi mais seco do que em 2010. Por isso gosto do dado coletado em avião, que nos possibilita calcular a resultante [das emissões e absorções de carbono]. Se eu trabalhasse apenas com uma torre de emissão e ela estivesse no lado seco, concluiria uma coisa. Se estivesse do lado chuvoso, concluiria outra. Com o tipo de dado que usamos, podemos levar tudo em consideração e ver o que predominou. Calcular tudo e tirar a média. E, na média, 2012 foi seco na bacia toda. Em número de focos de queimada, deu bem entre 2010 e 2011.

Você começou sua carreira fora da química atmosférica. Como foi o início?
Fiz iniciação científica e mestrado em eletroquímica. Mas tinha uma frustração enorme e me perguntava para que isso serviria. Houve então a primeira reunião de química ambiental no Brasil, que o Wilson Jardim [professor da Unicamp], organizou lá em Campinas em 1989. Fui lá e me apaixonei. Era aquilo que eu queria fazer da minha vida.

Você é de onde?
Sou de Birigui, mas saí da cidade com 3 anos. Morei boa parte do tempo em Cafelândia, que tinha então 11 mil habitantes. Lá todo mundo se conhece. Por isso sou assim. Falo com todo mundo. Também falo muito com as mãos. Meus alunos dizem que, se amarrarem minhas mãos, não dou aula. O pessoal da portaria no Ipen nem pede meu crachá. É coisa de interiorano. O paulistano é capaz de estar sozinho no meio de uma multidão. De Cafelândia, minha família mudou-se para Ribeirão Preto, porque meu pai não queria que os filhos saíssem de casa para estudar. Ele escolheu uma cidade com muitas faculdades e mudou a família toda para lá. Ele era representante da Mobil Oil do Brasil. Para ele, tanto fazia estar em Cafelândia ou em Ribeirão. O engraçado é que minha irmã foi para Campinas, eu fui para a Federal de São Carlos, meu irmão foi para a FEI de São Bernardo e a única que ficou em casa foi a terceira irmã. Tive problema de saúde e precisei voltar para a casa dos meus pais antes de me formar. Me transferi para a USP de Ribeirão, mas ali o curso de química tinha quase o dobro de créditos do da federal de São Carlos. Levei mais três anos e meio para fazer o que faltava, que consumiria apenas um e meio na federal. Tudo tinha pré-requisito. Mas foi muito legal porque em São Carlos estudei bem apenas durante o primeiro ano. Depois virei militante de partido semiclandestino, dirigente estudantil. Fazia mais política que estudava. Éramos proibidos de assistir às aulas. Quando chegava a época de prova, xerocava o caderno dos amigos, varava a noite estudando e de manhã, sem ter dormido, ia lá, fazia prova e passava. Mas imagine o que ficava na cabeça. Ainda bem que praticamente tive de refazer a graduação. Que profissional seria eu se não tivesse tido que fazer a graduação de novo e aprendido a estudar muito?

Como eram as aulas na USP?
Larguei o movimento estudantil, que tinha me decepcionado muito. Queria um mundo mais justo. Mas tive um namorado que era da direção nacional do partido revolucionário. Terminei com ele, que se vingou de mim usando o poder dele. Compreendi que o problema não estava no modo de produção, comunista ou socialista, mas no nível evolutivo do ser humano. Então resolvi que a única pessoa que eu podia mudar era eu mesma. Virei zen e espiritualizada e comecei a minha revolução interna. Compreendi que não podia mudar o mundo, mas podia me tornar uma pessoa melhor. Aí comecei minha carreira, praticamente do zero, porque na USP de Ribeirão Preto é muito puxado. Se não estuda, não passa. Fiz iniciação científica, ganhei bolsa da FAPESP, fui me embrenhando e me apaixonando pela química ambiental.

Como foi seu doutorado?
Foi o que deu para fazer. Quando eu comecei o doutorado com o [Antonio Aparecido] Mozeto, era para ser sobre compostos reduzidos de enxofre, já na área de gases. Naquela época, ninguém trabalhava com gás. Só tinha um no Brasil, Antonio Horácio Miguel, que trabalhava na área, mas ele tinha ido para o exterior. Eu tinha que fazer tudo. Tinha, por exemplo, que desenvolver um padrão com tubo de permeação. Tive de desenvolver o tubo, comprar o líquido para permear e tudo mais. Quando fiz tudo funcionar e coloquei o tubo dentro do cromatógrafo, o aparelho pifou. O professor tinha comprado um cromatógrafo para medir compostos de enxofre que um professor da Universidade do Colorado tinha decidido fabricar. O projeto veio todo errado. Tinha uma cruzeta de aço inoxidável, com uma chama que, quando queima, produz hidrogênio e água. A chama esquentou a cruzeta e vazou água na fotomultiplicadora e queimou o aparelho. Durou um dia. O problema é que eu estava já havia dois anos fazendo isso e precisava de um novo aparelho para desenvolver o doutorado. O Wilson Jardim então me perguntou por que eu achava que ninguém trabalhava com gás no país. “Esse negócio é difícil! O único que trabalhava foi para fora do Brasil. Larga desse tema e vai para outra coisa”, ele me disse. Mas, a essa altura, eu já tinha perdido dois anos e era a única docente da Federal de São Carlos sem doutorado. Um professor então me disse que eu ainda estava em estágio probatório e que, se eu não fizesse um doutoradozinho de um ano para comprovar o título, não iam aprovar o estágio probatório. Saí correndo atrás de um tema que dava para fazer e que eu não me envergonhasse de ter feito. Fiz análise de sedimento de fundo de lagoas próximas ao rio Mogi-Guaçu. Apliquei análises que são usadas em trabalhos com aerossóis para descobrir a origem dos sedimentos e também datá-los. Dessa forma, dá para saber a história da ocupação da bacia dos rios. Acabei o doutorado na Federal de São Carlos e entrei para a química atmosférica, que era o que eu queria, área carente entre os pesquisadores brasileiros.

A mobilidade dos movimentos sociais (Fapesp)

Análise das redes de organizações da sociedade civil contraria tese da “onguização”

MÁRCIO FERRARI | Edição 216 – Fevereiro de 2014


Movimentos sociais tiveram papéis ativos nos processos de democratização ocorridos na América Latina nas últimas décadas do século XX. Daquele período até os dias de hoje, muitos passaram por uma evolução amplamente registrada na literatura das ciências sociais, especialmente naquela dedicada ao estudo da sociedade civil na região. Um aspecto quase consensual entre os pesquisadores do setor é que a partir dos anos 1990 houve uma renovação da sociedade civil e que ela se deu de forma substitutiva – isto é, com certos tipos de atores tomando o lugar de outros. Isso teria culminado, a partir dos anos 1990, numa preponderância das organizações não governamentais (ONGs), deslocamento que ficou conhecido como “onguização” dos movimentos sociais, entre os que estudam esses fenômenos.

Em suma, os movimentos populares, formados pelos próprios interessados nas demandas de mudança, teriam cedido espaço para organizações que também defendem mudanças, mas em nome de grupos que não são seus membros constituintes (atividade chamada de advocacy nas ciências sociais). Essas ações teriam acarretado uma despolitização da sociedade civil.

O cientista político Adrian Gurza Lavalle, da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP), pesquisador do Centro de Estudos da Metrópole (CEM), no entanto, vem conduzindo estudos que contradizem a tese da “onguização”. Um mapeamento das organizações em dois dos maiores conglomerados urbanos da América Latina, São Paulo e Cidade do México, que configuram as “ecologias organizacionais” das cidades da região, demonstrou que as ONGs conquistaram e mantiveram protagonismo, mas os movimentos sociais também estão em posição de centralidade, apesar das predições em contrário. “Nossas pesquisas contrariam diagnósticos céticos que mostram uma sociedade civil de organizações orientadas principalmente para a prestação de serviços e a trabalhar com assuntos públicos de modo desenraizado ou pouco voltado para a população de baixa renda”, diz Gurza Lavalle, que também é pesquisador do Centro Brasileiro de Análise e Planejamento (Cebrap). “Mais: elas mostram que a sociedade civil se modernizou, se diversificou e se especializou funcionalmente, tornando as ecologias organizacionais da região mais complexas, sem que essa complexidade implique a substituição de um tipo de ator por outro.”


Essas conclusões vêm de uma sequência de estudos comandados por ele nos últimos anos. Os mais recentes foram desenvolvidos em coautoria com Natália Bueno no CEM, um dos 17 Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP. O trabalho tem como pesquisadores convidados Ernesto Isunza Vera (Centro de Estudios Superiores en Antropología Social, de Xalapa, México) e Elisa Reis (Universidade Federal do Rio de Janeiro). Concentra-se no papel das organizações civis e na composição das ecologias organizacionais nas sociedades civis de diversas cidades no México e no Brasil.

O que o cientista político apresenta nos seus estudos de rede pode ser uma contribuição para que os tomadores de decisão conheçam melhor a heterogeneidade das organizações civis. “Há implicações claras para a regulação sobre o terceiro setor, no sentido de que ela se torne menos uma camisa de força e mais um marco que ofereça segurança jurídica aos diferentes tipos de organizações da sociedade civil que recebem recursos públicos ou exercem funções públicas”, diz o pesquisador.

“O trabalho que vem sendo realizado por Gurza Lavalle, seus alunos e colaboradores é especialmente valioso porque, por meio da análise de redes, permite mapear com mais rigor e de maneira mais fina as relações entre os movimentos sociais”, diz Marisa von Bülow, professora do Instituto de Ciência Política da Universidade de Brasília (UnB), especializada no estudo das sociedades civis latino-americanas. “A análise de redes não é necessariamente o melhor método, mas complementa muito bem métodos como as pesquisas qualitativas e de campo, as entrevistas etc. Permite que se vejam coisas que não poderiam ser lidas com tanta clareza pelas vias tradicionais. No caso das pesquisas de Gurza Lavalle, acabaram mostrando que as sociedades civis da região são mais diversas e plurais do que se pensava.”

“As análises que tínhamos eram geralmente leituras impressionistas ou dados sem capacidade de produzir inferências”, diz Gurza Lavalle. Ele tirou da literatura local a evolução dos atores sociais na região, que identifica duas ondas distintas de inovação na mobilização social: tomando como plano de comparação as organizações tradicionais como as entidades assistenciais ou as associações de bairro, a nova onda de atores surgida nos anos 1960, 1970 e metade dos 1980, e a novíssima onda de atores que ganhou força nos anos 1990.

A primeira se caracterizou pelas organizações criadas em razão de demandas sociais de segmentos amplos da população durante a vigência do regime militar. É o caso das pastorais incentivadas pela Igreja Católica e os movimentos por moradia, pela saúde e contra a carestia. As organizações da segunda onda costumam ser agrupadas na denominação de ONGs, que por sua vez deram origem às entidades articuladoras, aquelas que trabalham para outras organizações, e não para indivíduos, segmentos da população ou movimentos localizados – por exemplo, a Associação Brasileira de Organizações Não Governamentais (Abong) ou a Rede Brasileira Agroflorestal (Rebraf).

A análise de redes, segundo Gurza Lavalle, permitiu avaliar a influência das associações, “tanto no seio da sociedade civil quanto em relação a outros atores sociais e políticos”. Esse resultado foi obtido por um conjunto de medidas de centralidade que computam os vínculos no interior da rede, não só aqueles diretos ou de vizinhança, mas, sobretudo, aqueles indiretos ou entre uma organização e os vínculos de outra organização com a qual a primeira interage e aos quais não tem acesso direto. “Quando nos relacionamos, estamos vinculados de forma indireta aos vínculos dos outros”, diz o pesquisador.


A análise de redes, de acordo com o cientista político, registrou desenvolvimento acelerado nas últimas duas décadas e é aplicável a diversas áreas do conhecimento. “Graças aos avanços da análise de redes é possível, por exemplo, detectar padrões de difusão de doenças, pois permite identificar estruturas indiretas que não estão à disposição dos indivíduos, mas atuam num quadro maior. É um caminho para superar as caracterizações extremamente abstratas e estilizadas dos atores comuns nas ciências sociais, mas sem abrir mão da generalização de resultados.” Segundo Gurza Lavalle, uma das principais vantagens desse método é complementar e ir além dos estudos de caso e controlar as declarações das próprias organizações estudadas (autodescrição) e investigar as posições objetivas dos atores dentro das redes, bem como as estruturas de vínculos que condensam e condicionam as lógicas de sua atuação.

O método de amostragem adotado para apurar a estrutura de vínculos entre as organizações é conhecido como bola de neve. Cada entidade foi chamada a citar cinco outras organizações importantes no andamento do trabalho da entidade entrevistada. Na cidade de São Paulo foram ouvidos representantes de 202 associações civis, que geraram um total de 827 atores diferentes, 1.368 vínculos e 549.081 relações potenciais. Essa rede permitiu identificar claramente a vitalidade dos movimentos sociais, semelhante à das ONGs. Além disso, o estudo detectou quatro tendências da ecologia organizacional da sociedade civil em São Paulo e, em menor grau, na Cidade do México: ampliação, modernização, diversificação e, em alguns casos, especialização funcional (capacidade de desenvolver funções complementares com outras organizações).

O que o pesquisador utiliza como aproximação aos “movimentos sociais” são organizações populares, “entidades cuja estratégia de atuação distintiva é a mobilização popular”, como o Movimento de Moradia do Centro, a Unificação de Lutas de Cortiços e, numa escala bem maior, o Movimento dos Sem-Terra. Estas, na rede, estão em pé de igualdade com as ONGs e as articuladoras. Numa posição de “centralidade intermediária” estão as pastorais, os fóruns e as associações assistenciais. Finalmente, em condição periférica, estão organizações de corte tradicional, como as associações de bairro e comunitárias.

“As organizações civis passaram a desempenhar novas funções de intermediação, ora em instituições participativas como representantes de determinados grupos, ora gerindo uma parte da política, ora como receptoras de recursos públicos para a execução de projetos”, diz Gurza Lavalle. “As redes de organizações civis examinadas são produto de bolas de neve iniciadas em áreas populares da cidade e por isso nos informam a respeito da capacidade de intermediação das organizações civis em relação a esses grupos sociais.”

Outros estudos confirmam as conclusões do trabalho conduzido por Gurza Lavalle, como os de Lígia Lüchmann, professora do Departamento de Sociologia e Ciência Política da Universidade Federal de Santa Catarina, que vem estudando as organizações civis de Florianópolis. “Eu confirmaria a ideia de que a sociedade civil é hoje funcionalmente mais diversificada do que costumava ser, com atores tradicionais coexistindo com os novos”, diz. Ela cita, na capital catarinense, a atuação de articuladoras como a União Florianopolitana de Entidades Comunitárias e o Fórum de Políticas Públicas.

No cenário latino-americano, Gurza Lavalle e Marisa von Büllow veem o Brasil como um caso excepcional de articulação das organizações sociais ao conseguir acesso ao poder público, o que não ocorre no México. Gurza Lavalle cita como exemplos os casos do Estatuto da Cidade, que teve origem no Fórum Nacional da Reforma Urbana, e do ativismo feminista no interior do Movimento Negro, cuja história é um componente imprescindível da configuração do campo da saúde para a população negra dentro da política nacional de saúde, embora sejam mais conhecidos os casos do movimento pela reforma da saúde ou do ativismo de organizações civis na definição das diretrizes das políticas para HIV/Aids.

Centro de Estudos da Metrópole – CEM (nº 2013/07616-7); Modalidade Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisadora responsável Martha Teresa da Silva Arretche; Investimento R$ 7.103.665,40 para todo o Cepid (FAPESP).

Artigo científico
GURZA LAVALLE, A. e Bueno, N. S. Waves of change within civil society in Latin America: Mexico City and Sao PauloPolitics & Society. v. 39, p. 415-50, 2011.

Volcanoes contribute to recent global warming ‘hiatus’ (Science Daily)

Date: February 24, 2014

Source: DOE/Lawrence Livermore National Laboratory

Summary: Volcanic eruptions in the early part of the 21st century have cooled the planet, according to a new study. This cooling partly offset the warming produced by greenhouse gases.

LLNL scientist Benjamin Santer and his climbing group ascend Mt. St. Helens via the “Dogshead Route” in April 1980, about a month before its major eruption. The group was the last to reach the summit of Mt. St. Helens before its major eruption that May. New research by Santer and his colleagues shows that volcanic eruptions contribute to a recent warming “hiatus.” Credit: Image courtesy of DOE/Lawrence Livermore National Laboratory

Volcanic eruptions in the early part of the 21st century have cooled the planet, according to a study led by Lawrence Livermore National Laboratory. This cooling partly offset the warming produced by greenhouse gases.

Despite continuing increases in atmospheric levels of greenhouse gases, and in the total heat content of the ocean, global-mean temperatures at the surface of the planet and in the troposphere (the lowest portion of Earth’s atmosphere) have shown relatively little warming since 1998. This so-called ‘slow-down’ or ‘hiatus’ has received considerable scientific, political and popular attention. The volcanic contribution to the ‘slow-down’ is the subject of a new paper appearing in the Feb. 23 edition of the journalNature Geoscience.

Volcanic eruptions inject sulfur dioxide gas into the atmosphere. If the eruptions are large enough to add sulfur dioxide to the stratosphere (the atmospheric layer above the troposphere), the gas forms tiny droplets of sulfuric acid, also known as “volcanic aerosols.” These droplets reflect some portion of the incoming sunlight back into space, cooling Earth’s surface and the lower atmosphere.

“In the last decade, the amount of volcanic aerosol in the stratosphere has increased, so more sunlight is being reflected back into space,” said Lawrence Livermore climate scientist Benjamin Santer, who serves as lead author of the study. “This has created a natural cooling of the planet and has partly offset the increase in surface and atmospheric temperatures due to human influence.”

From 2000-2012, emissions of greenhouse gases into the atmosphere have increased — as they have done since the Industrial Revolution. This human-induced change typically causes the troposphere to warm and the stratosphere to cool. In contrast, large volcanic eruptions cool the troposphere and warm the stratosphere. The researchers report that early 21st century volcanic eruptions have contributed to this recent “warming hiatus,” and that most climate models have not accurately accounted for this effect.

“The recent slow-down in observed surface and tropospheric warming is a fascinating detective story,” Santer said. “There is not a single culprit, as some scientists have claimed. Multiple factors are implicated. One is the temporary cooling effect of internal climate noise. Other factors are the external cooling influences of 21st century volcanic activity, an unusually low and long minimum in the last solar cycle, and an uptick in Chinese emissions of sulfur dioxide.

“The real scientific challenge is to obtain hard quantitative estimates of the contributions of each of these factors to the slow-down.”

The researchers performed two different statistical tests to determine whether recent volcanic eruptions have cooling effects that can be distinguished from the intrinsic variability of the climate. The team found evidence for significant correlations between volcanic aerosol observations and satellite-based estimates of lower tropospheric temperatures as well as the sunlight reflected back to space by the aerosol particles.

“This is the most comprehensive observational evaluation of the role of volcanic activity on climate in the early part of the 21st century,” said co-author Susan Solomon, the Ellen Swallow Richards professor of atmospheric chemistry and climate science at MIT. “We assess the contributions of volcanoes on temperatures in the troposphere — the lowest layer of the atmosphere — and find they’ve certainly played some role in keeping Earth cooler.”

The research is funded by the Department of Energy’s Office of Biological and Environmental Science in the Office of Science. The research involved a large, interdisciplinary team of researchers with expertise in climate modeling, satellite data, stratospheric dynamics and volcanic effects on climate, model evaluation and computer science.

Journal Reference:

  1. Benjamin D. Santer, Céline Bonfils, Jeffrey F. Painter, Mark D. Zelinka, Carl Mears, Susan Solomon, Gavin A. Schmidt, John C. Fyfe, Jason N. S. Cole, Larissa Nazarenko, Karl E. Taylor, Frank J. Wentz. Volcanic contribution to decadal changes in tropospheric temperatureNature Geoscience, 2014; DOI:10.1038/ngeo2098

Better way to make sense of ‘Big Data?’ (Science Daily)

Date:  February 19, 2014

Source: Society for Industrial and Applied Mathematics

Summary: Vast amounts of data related to climate change are being compiled by researchers worldwide with varying climate projections. This requires combining information across data sets to arrive at a consensus regarding future climate estimates. Scientists propose a statistical hierarchical Bayesian model that consolidates climate change information from observation-based data sets and climate models.

Regional analysis for climate change assessment. Credit: Melissa Bukovsky, National Center for Atmospheric Research (NCAR/IMAGe)

Vast amounts of data related to climate change are being compiled by research groups all over the world. Data from these many and varied sources results in different climate projections; hence, the need arises to combine information across data sets to arrive at a consensus regarding future climate estimates.

In a paper published last December in the SIAM Journal on Uncertainty Quantification, authors Matthew Heaton, Tamara Greasby, and Stephan Sain propose a statistical hierarchical Bayesian model that consolidates climate change information from observation-based data sets and climate models. “The vast array of climate data — from reconstructions of historic temperatures and modern observational temperature measurements to climate model projections of future climate — seems to agree that global temperatures are changing,” says author Matthew Heaton. “Where these data sources disagree, however, is by how much temperatures have changed and are expected to change in the future. Our research seeks to combine many different sources of climate data, in a statistically rigorous way, to determine a consensus on how much temperatures are changing.” Using a hierarchical model, the authors combine information from these various sources to obtain an ensemble estimate of current and future climate along with an associated measure of uncertainty. “Each climate data source provides us with an estimate of how much temperatures are changing. But, each data source also has a degree of uncertainty in its climate projection,” says Heaton. “Statistical modeling is a tool to not only get a consensus estimate of temperature change but also an estimate of our uncertainty about this temperature change.” The approach proposed in the paper combines information from observation-based data, general circulation models (GCMs) and regional climate models (RCMs). Observation-based data sets, which focus mainly on local and regional climate, are obtained by taking raw climate measurements from weather stations and applying it to a grid defined over the globe. This allows the final data product to provide an aggregate measure of climate rather than be restricted to individual weather data sets. Such data sets are restricted to current and historical time periods. Another source of information related to observation-based data sets are reanalysis data sets in which numerical model forecasts and weather station observations are combined into a single gridded reconstruction of climate over the globe. GCMs are computer models which capture physical processes governing the atmosphere and oceans to simulate the response of temperature, precipitation, and other meteorological variables in different scenarios. While a GCM portrayal of temperature would not be accurate to a given day, these models give fairly good estimates for long-term average temperatures, such as 30-year periods, which closely match observed data. A big advantage of GCMs over observed and reanalyzed data is that GCMs are able to simulate climate systems in the future. RCMs are used to simulate climate over a specific region, as opposed to global simulations created by GCMs. Since climate in a specific region is affected by the rest of Earth, atmospheric conditions such as temperature and moisture at the region’s boundary are estimated by using other sources such as GCMs or reanalysis data. By combining information from multiple observation-based data sets, GCMs and RCMs, the model obtains an estimate and measure of uncertainty for the average temperature, temporal trend, as well as the variability of seasonal average temperatures. The model was used to analyze average summer and winter temperatures for the Pacific Southwest, Prairie and North Atlantic regions (seen in the image above) — regions that represent three distinct climates. The assumption would be that climate models would behave differently for each of these regions. Data from each region was considered individually so that the model could be fit to each region separately. “Our understanding of how much temperatures are changing is reflected in all the data available to us,” says Heaton. “For example, one data source might suggest that temperatures are increasing by 2 degrees Celsius while another source suggests temperatures are increasing by 4 degrees. So, do we believe a 2-degree increase or a 4-degree increase? The answer is probably ‘neither’ because combining data sources together suggests that increases would likely be somewhere between 2 and 4 degrees. The point is that that no single data source has all the answers. And, only by combining many different sources of climate data are we really able to quantify how much we think temperatures are changing.” While most previous such work focuses on mean or average values, the authors in this paper acknowledge that climate in the broader sense encompasses variations between years, trends, averages and extreme events. Hence the hierarchical Bayesian model used here simultaneously considers the average, linear trend and interannual variability (variation between years). Many previous models also assume independence between climate models, whereas this paper accounts for commonalities shared by various models — such as physical equations or fluid dynamics — and correlates between data sets. “While our work is a good first step in combining many different sources of climate information, we still fall short in that we still leave out many viable sources of climate information,” says Heaton. “Furthermore, our work focuses on increases/decreases in temperatures, but similar analyses are needed to estimate consensus changes in other meteorological variables such as precipitation. Finally, we hope to expand our analysis from regional temperatures (say, over just a portion of the U.S.) to global temperatures.”
Journal Reference:
  1. Matthew J. Heaton, Tamara A. Greasby, Stephan R. Sain. Modeling Uncertainty in Climate Using Ensembles of Regional and Global Climate Models and Multiple Observation-Based Data SetsSIAM/ASA Journal on Uncertainty Quantification, 2013; 1 (1): 535 DOI: 10.1137/12088505X

A challenge to the genetic interpretation of biology (University of Eastern Finland)


Keith Baverstock

A proposal for reformulating the foundations of biology, based on the 2nd law of thermodynamics and which is in sharp contrast to the prevailing genetic view, is published today in the Journal of the Royal Society Interface under the title “Genes without prominence: a reappraisal of the foundations of biology”. The authors, Arto Annila, Professor of physics at Helsinki University and Keith Baverstock, Docent and former professor at the University of Eastern Finland, assert that the prominent emphasis currently given to the gene in biology is based on a flawed interpretation of experimental genetics and should be replaced by more fundamental considerations of how the cell utilises energy. There are far-reaching implications, both in research and for the current strategy in many countries to develop personalised medicine based on genome-wide sequencing.

This shows the inactive linear peptide molecule with a sequence of amino acids derived from the gene coding sequence folds to a protein.

Is it in your genes?

By “it” we mean intelligence, sexual orientation, increased risk of cancer, stroke or heart attack, criminal behaviour, political preference and religious beliefs, etcetera. Genes have been implicated in influencing, wholly or partly, all these aspects of our lives by researchers. Genes cannot cause any of these features, although geneticists have found associations between specific genes and all of these features, many of which are entirely spurious and a few are fortuitous.

How can we be so sure?

When a gene, a string of bases on the DNA molecule, is deployed, it is first transcribed and then translated into a peptide – a string of amino acids. To give rise to biological properties it needs to “fold” into a protein.

This process consumes energy and is therefore governed by the 2nd law, but also by the environment in which the folding takes place. These two factors mean that there is no causal relationship between the original gene coding sequence and the biological activity of the protein.

Is there any empirical evidence to support this?

Yes, a Nordic study of twins conducted in 2000 showed there was no evidence that cancer was a “genetic” disease – that is – that genes play no role in the causation of cancer. A wider international study involving 50,000 identical twin pairs published in 2012, showed that this conclusion applied to other common disease as well. Since the sequencing of the human genome was completed in 2001 it has not proved possible to relate abnormal gene sequences to common diseases giving rise to the problem of the “missing heritability”.

What is the essence of the reformulation?

At the most fundamental level organisms are energy-consuming systems and the appropriate foundation in physics is that of complex dissipative systems. As energy flows in and out and within, the complex molecular system called the cell, fundamental physical considerations, dictated by the 2nd law of thermodynamics, demand that these flows, called actions, are maximally efficient (follow the path of least resistance) in space and time. Energy exchanges can give rise to new emergent properties that modify the actions and give rise to more new emergent properties and so on. The result is evolution from simpler to more complex and diverse organisms in both form and function, without the need to invoke genes. This model is supported by earlier computer simulations to create a virtual ecosystem by Mauno Rönkkö of the University of Eastern Finland.

What implications does this have in practice?

There are many, but two are urgent.

1) to assume that genes are unavoidable influences on our health and behaviour will distract attention from the real causes of disease, many of which arise from our environment;

2) the current strategy towards basing healthcare on genome-wide sequencing, so called “personalised healthcare”, will prove costly and ineffective.

What is personalised health care?

This is the idea that it will be possible to predict at birth, by determining the total DNA sequence (genome-wide sequence), health outcomes in the future and take preventive measures. Most European countries have research programmes in this and in the UK a pilot study with 100,000 participants is underway.

Física dos Sistemas Complexos pode prever impactos das mudanças ambientais (Fapesp)

Avaliação é de Jan-Michael Rost, pesquisador do Instituto Max Planck (foto: Nina Wagner/DWIH-SP)


Elton Alisson

Agência FAPESP – Além da aplicação em áreas como a Engenharia e Tecnologias da Informação e Comunicação (TICs), a Física dos Sistemas Complexos – nos quais cada elemento contribui individualmente para o surgimento de propriedades somente observadas em conjunto – pode ser útil para avaliar os impactos de mudanças ambientais no planeta, como o desmatamento.

A avaliação foi feita por Jan-Michael Rost, pesquisador do Instituto Max-Planck para Física dos Sistemas Complexos, durante uma mesa-redonda sobre sistemas complexos e sustentabilidade, realizada no dia 14 de fevereiro no Hotel Pergamon, em São Paulo.

O encontro foi organizado pelo Centro Alemão de Ciência e Inovação São Paulo (DWIH-SP) e pela Sociedade Max Planck, em parceria com a FAPESP e o Serviço Alemão de Intercâmbio Acadêmico (DAAD), e fez parte de uma programação complementar de atividades da exposição científica Túnel da Ciência Max Planck.

“Os sistemas complexos, como a vida na Terra, estão no limiar entre a ordem e a desordem e levam um determinado tempo para se adaptar a mudanças”, disse Rost.

“Se houver grandes alterações nesses sistemas, como o desmatamento desenfreado de florestas, em um período curto de tempo, e for atravessado o limiar entre a ordem e a desordem, essas mudanças podem ser irreversíveis e colocar em risco a preservação da complexidade e a possibilidade de evolução das espécies”, afirmou o pesquisador.

De acordo com Rost, os sistemas complexos começaram a chamar a atenção dos cientistas nos anos 1950. A fim de estudá-los, porém, não era possível utilizar as duas grandes teorias que revolucionaram a Física no século 20: a da Relatividade, estabelecida por Albert Einstein (1879-1955), e da mecânica quântica, desenvolvida pelo físico alemão Werner Heisenberg (1901-1976) e outros cientistas.

Isso porque essas teorias podem ser aplicadas apenas a sistemas fechados, como os motores, que não sofrem interferência do meio externo e nos quais as reações de equilíbrio, ocorridas em seu interior, são reversíveis, afirmou Rost.

Por essa razão, segundo ele, essas teorias não são suficientes para estudar sistemas abertos, como máquinas dotadas de inteligência artificial e as espécies de vida na Terra, que interagem com o meio ambiente, são adaptativas e cujas reações podem ser irreversíveis. Por isso, elas deram lugar a teorias relacionadas à Física dos sistemas complexos, como a do caos e a da dinâmica não linear, mais apropriadas para essa finalidade.

“Essas últimas teorias tiveram um desenvolvimento espetacular nas últimas décadas, paralelamente às da mecânica clássica”, afirmou Rost.

“Hoje já se reconhece que os sistemas não são fechados, mas se relacionam com o exterior e podem apresentar reações desproporcionais à ação que sofreram. É nisso que a Engenharia se baseia atualmente para desenvolver produtos e equipamentos”, afirmou.

Categorias de sistemas complexos

De acordo com Rost, os sistemas complexos podem ser divididos em quatro categorias que se diferenciam pelo tempo de reação a uma determinada ação sofrida. A primeira delas é a dos sistemas complexos estáticos, que reagem instantaneamente a uma ação.

A segunda é a de sistemas adaptativos, como a capacidade de farejamento dos cães. Ao ser colocado na direção de uma trilha de rastros deixados por uma pessoa perdida em uma mata, por exemplo, os cães farejadores fazem movimentos de ziguezague.

Isso porque, segundo Rost, esses animais possuem um sistema de farejamento adaptativo. Isto é, ao sentir um determinado cheiro em um local, a sensibilidade olfativa do animal àquele odor diminui drasticamente e ele perde a capacidade de identificá-lo.

Ao sair do rastro em que estava, o animal recupera rapidamente a sensibilidade olfativa ao odor e é capaz de identificá-lo em uma próxima pegada. “O limiar da percepção olfativa desses animais é adaptado constantemente”, afirmou Rost.

A terceira categoria de sistemas complexos é a de sistemas autônomos, que utilizam a evolução como um sistema de adaptação e é impossível prever como será a reação a uma determinada mudança.

Já a última categoria é a de sistemas evolucionários ou transgeracionais, em que se inserem os seres humanos e outras espécies de vida na Terra, e na qual a reação a uma determinada alteração em seus sistemas de vida demora muito tempo para acontecer, afirmou Rost.

“Os sistemas transgeracionais recebem estímulos durante a vida toda e a reação de uma determinada geração não é comparável com a anterior”, disse o pesquisador.

“Tentar prever o tempo que um determinado sistema transgeracional, como a humanidade, leva para reagir a uma ação, como as mudanças ambientais, pode ser útil para assegurar a sustentabilidade do planeta”, avaliou Rost.

Transposição do Rio São Francisco: via de mão única (Agência Pública)

07/2/2014 – 12h13

por Marcia Dementshuk, para a Agência Pública

sertanejos Transposição do Rio São Francisco: via de mão única

Sertanejos convivem com a obra há quase sete anos sem soluções para as consequências da seca. Foto: Mano Carvalho

Na primeira matéria do projeto Reportagem Pública, a repórter viaja ao Eixo Leste – e mostra como a população está sendo afetada pelas obras

“Sem dúvida, com a transposição do rio São Francisco será oferecida segurança hídrica para o Nordeste”, garantiu o diretor-presidente da Agência Nacional das Águas (ANA), Vicente Andreu Guillo, durante nossa entrevista. A aposta do governo federal é alta: o orçamento atual da transposição é de R$,97 (o dobro do previsto inicialmente), financiados pelo Programa de Aceleração ao Crescimento (PAC I e II). Trata-se do maior empreendimento de infraestrutura hídrica já construído no Brasil, que mudará para sempre a cara da região.

Menos de 5% das reservas hídricas do país estão no Nordeste do país, que detém entre 12% e 16% das reservas de água doce no planeta. O clima semiárido, seco, quente e com poucas chuvas domina o sertão, território com mais de 22,5 milhões de habitantes (Censo IBGE/2010).

Neste cenário, a notícia de que seria possível transportar a água do Rio São Francisco para regiões mais secas transformou-se em esperança para os nordestinos de todas as épocas. Fala-se nessa obra desde os tempos do Império, quando, em 1877, o intendente do Crato, no Ceará, apresentou para dom Pedro II um projeto que levaria águas do Rio São Francisco até o rio Jaguaribe, no seu estado.

A obra foi iniciada 130 anos depois, durante o governo de Luiz Inácio Lula da Silva, com base no projeto elaborado no governo de Fernando Henrique Cardoso. Depois do investimento inicial, de cerca de R$ 4 bilhões, o rendimento dos trabalhos diminuiu em 2010 por problemas de adequação do Projeto-Base à realidade da execução , e novas licitações precisaram ser feitas. Somente no final de 2013, conforme o Ministério da Integração Nacional, responsável pelo projeto, as obras foram 100% retomadas.

Hoje, o empreendimento aponta 51% de avanço, e o orçamento dobrou. A nova previsão para a conclusão é em dezembro de 2015, quando as águas deverão alcançar afinal o leito do rio Paraíba, no Eixo Leste, e o reservatório Engenheiro Ávidos, pelo Eixo Norte, ambos na Paraíba.

Ali do lado, falta água

O projeto prevê que as águas captadas do Rio São Francisco em dois canais de aproximação (no Eixo Norte, em Cabrobó e no Eixo Leste, no reservatório de Itaparica, em Floresta,ambos em Pernambuco) serão conduzidas pelos canais até os reservatórios, de onde abastecerão dezenas de municípios dos estados de Pernambuco, Paraíba, Ceará e Rio Grande do Norte, aproveitando a rede de saneamento existente. Projetos referentes a tomadas para uso difuso (pontos de tomada de água captadas ao longo dos canais para abastecer as comunidades instaladas nas proximidades) ainda estão em fase de elaboração. O Ministério da Integração ainda não definiu que pontos serão esses, nem os locais exatos de captação. Da mesma forma, os valores finais do custo desta água para a população ainda estão em estudo por parte do governo federal.

A realidade, porém, é que há mais de dois anos, muitos moradores dos municípios do semiárido nem sequer têm água nas torneiras; usam a água distribuída por caminhões-pipa, de poços particulares ou públicos (a maioria com água salobra) ou da chuva (quando chove).

Manoel Transposição do Rio São Francisco: via de mão única

Em Caiçara, distrito de Custódia, Maria Célia Rodrigues da Silva disse que falta água nas torneiras desde o início das obras do PISF. Foto: Mano Carvalho

Em Caiçara, distrito de Custódia, Pernambuco, próximo ao Lote 10, que corresponde a atual Meta 2L, da construção (veja o mapa), a população toma a água enviada pelo Exército, em caminhões-pipa, uma vez por semana. Toda semana é a mesma cena: a água é despejada em uma cisterna central, e cada morador tem que ir buscar – há carroceiros que cobram em torno de R$ 5,00 ou R$ 7,00 por viagem.

O riacho Custódia passa próximo da casa de Manoel Rodrigues de Melo, agricultor de 52 anos, mas o fio de água que resta é salobra, e só serve para lavar a casa ou os estábulos. “A água boa vem de Fátima, a uns 40 quilômetros daqui. O que a gente mais precisa aqui é água, que não tem”, suplica o agricultor. Nessas condições, ele e a esposas criaram oito filhos. Todos partiram em busca de melhores condições de vida. “É muito filho, até parece mentira! Mas antigamente os invernos eram melhores, chovia mais”.

Manoel Rodrigues de Melo, que nunca saiu da região onde nasceu, viu seu terreno ser dividido pelo canal do Eixo Leste: ficou com seis quilômetros de um lado do canal e com a mesma medida do outro. Dono de um sotaque sertanejo carregado, com poucos dentes na boca, as mãos calejadas e a pele castigada pelo sol, Manoel conta que agora os bichos têm de usar a ponte sobre o canal para passar. “Senão, eles ficam ou do lado de cá, ou do lado de lá, ou tem que fazer um volta tremenda lá por baixo, onde tem um lugar pra passar. Mas o que mais a gente espera é essa água que ‘tá’ pra vir. Isso vai mudar a nossa vida aqui. Vai ser muito bom”, diz o agricultor, ansioso.

“A gente tinha água pela torneira, era ruim, mas dava pra limpeza. Mas desde que começou essa construção (referindo-se à transposição) ela foi cortada”, lembra-se a vizinha de Manoel, a dona de casa Maria Célia Rodrigues da Silva, que cuida da mãe doente, com 82 anos. “Nem as cisternas não enchem. Estamos com dois anos de seca”, completou. A água encanada provinha de um poço escavado em outro vilarejo próximo de Caiçara, Fiúza, mas ela não sabe dizer se foi cortada em função das obras da transposição, ou se o poço secou. Mesmo com o encanamento de sua casa enferrujado e sem saber se terá água para beber no dia seguinte, a vida de Maria Célia continua. Ela não teve filhos. Cria alguns bodes, cabras e galinhas no quintal da casa e conta com o dinheiro da aposentadoria de sua mãe para o sustento das duas. Trabalhava na roça, mas nada mais resistiu à seca de dois anos.

Tradicional como a seca, o pífano de Zabé

Zabe Transposição do Rio São Francisco: via de mão única

Zabé da Loca. Foto: Mano de Carvalho

A tocadora de pífano Zabé da Loca nos recebeu às vésperas de completar 90 anos. Quando tinha 79 anos, 25 dos quais passados em uma gruta, na Serra do Tungão, próximo a Monteiro (PB), Zabé se tornou conhecida no mercado de música regional. Chegou a dividir o palco com músicos como Hermeto Pascoal e Gabriel Pensador em shows no Rio de Janeiro, São Paulo, Recife, Paraíba e Brasília.

Típica sertaneja, que jamais conheceu o conforto de abrir uma torneira de onde corresse água em abundância, Zabé teve 14 irmãos, oito dos quais morreram por doenças originadas pela falta de água e desnutrição. Fumante inveterada, persistiu no hábito mesmo depois do tratamento de combate a um enfisema pulmonar e à pneumonia e não deixou de enrolar um cigarrinho durante a visita, enquanto lembrava: “Nessa serra sempre teve água da chuva que empoçava nas pedras. Mas tinha anos que não encontrávamos água em canto nenhum. A gente tinha que ir até o rio (afluente do rio Paraíba, próximo da nascente) pegar”.

Quando comentamos sobre a transposição do rio São Francisco ela reagiu: “esse negócio existe mesmo?”

Para o ex-presidente da Associação Brasileira de Recursos Hídricos, Luiz Gabriel Azevedo, o custo de operação da água da transposição é elevado e requer investimentos vultosos, quando comparado a outras alternativas. “Parte do pacto, quando se pensou esse projeto, é de que os estados fariam um trabalho forte de racionalizar o uso dentro de seus territórios, de melhorar o sistema de gestão; e os estados estão aquém dessa expectativa”, analisa. Ele alega que os estados deveriam investir mais em obras que garantissem os recursos hídricos, como manutenção e construção de açudes, estudos para perfurações de poços e principalmente em obras de saneamento e rede de distribuição de água.

“Não valerá à pena trazer uma água cara para se desperdiçar do outro lado. Não dá para executar um projeto complexo se os recursos dos açudes não forem bem usados, se não houver um sistema de distribuição, se não se tem um sistema de gestão eficiente nos estados que vão receber para gerir a água”, complementou Luiz Gabriel Azevedo.

Por Lei, o órgão competente que determinará como a água será distribuída é o Conselho Gestor do Projeto de Integração do Rio São Francisco, instituído pelo Decreto 5.995/2006. Esse Conselho é formado por representantes dos estados beneficiados com o empreendimento – Paraíba, Pernambuco, Rio Grande do Norte e Ceará – e tem por objetivo, entre outros, tratar da alocação das águas e dos rateios dos custos correspondentes.

moradores Transposição do Rio São Francisco: via de mão única

Desalentados pela seca, moradores de cidades do Sertão nordestino aguardam a chegada das águas da transposição. Foto: Mano Carvalho

Para o diretor-presidente da Agência Nacional das Águas (ANA) destaca que o Nordeste ainda carece de um conjunto de soluções hídricas, como aproveitamento máximo da escassa água da chuva, o controle do uso das águas dos reservatórios ou a transposição de águas de outras bacias hidrográficas, já que a escavação de poços do semiárido é considerada inviável. De acordo com o relatório de impacto Ambiental do PISF, (RIMA), “a maioria do território semiárido (70% da região) dispõe de pouca água subterrânea e possui solo impermeável, ou seja, absorve pouca água, limitando sua capacidade de disponibilidade. Além desse aspecto, a água, em geral, é de baixa qualidade”.

Realocação de moradores e uma vila partida ao meio

Cerca de 800 famílias foram deslocadas e receberam indenizações entre cerca de R$ 10 mil a R$ 15 mil para dar passagem às obras da transposição – de acordo com a gerência de Comunicação da CMT Engenharia, empresa responsável pelo acompanhamento das ações de compensação socioambiental do PISF – ao longo dos eixos Norte e Leste, em Pernambuco e no Ceará. De acordo com o supervisor de obras da empresa Ecoplan, Adilson Leal, porém, as terras não entraram na avaliação das propriedades a serem indenizadas por possuírem baixo valor de mercado, segundo a empresa, em função da pouca qualidade da terra para o plantio ou para o pasto, em uma região onde a chuva é escassa. Só as benfeitorias foram ressarcidas.

abastecimento Transposição do Rio São Francisco: via de mão única

Abastecimento de água potável para a população em Rio da Barra (PE), por onde passam os canais da transposição, ocorre duas vezes por semana. Foto: Mano de Carvalho

Em Rio da Barra, distrito de Sertânia, em Pernambuco, comunidade que beira o canal na altura do Lote 11, que corresponde à Meta 2L, (veja o mapa), a população se encontra duas vezes por semana na cisterna pública para se abastecer de água potável proveniente de um poço artesiano cavado pela Superintendência do Desenvolvimento do Nordeste (Sudene). Um funcionário da prefeitura de Sertânia controla o abastecimento gratuito dos galões trazidos pela população na noite anterior. O local acaba se tornando o ponto de encontro do povoado. Mães carregando baldões chegam com as crianças arrastando baldes menores, carroças carregadas de galões estacionam ao lado e todos aguardam com paciência pelo precioso líquido. Maria José Araújo Pinheiro, uma dona de casa tímida, mas de olhos atentos, aguardava sua vez quando comentou que sua mãe, Creusa Davi da Silva, aceitou a oferta do governo para desocupar suas terras no sítio Chique-Chique. “Eles ofereceram pra ela R$ 14.400, ela pegou e foi morar em Sertânia. Como ela ganha aposentadoria, está bem. Mas pagaram só pela casa”, disse Maria José.

Marcia Transposição do Rio São Francisco: via de mão única

O marido de Márcia Freire, Adilson Salvador, de Rio da Barra (PE,) é técnico ambiental nas obras da transposição. Foto: Mano de Carvalho

Márcia Maria Freire Araújo vem do outro lado do canal do Eixo Leste da transposição pegar água na cisterna pública de Rio da Barra. Ela chega sempre antes das seis da manhã, na companhia do cunhado que conduz uma carroça puxada a burro onde transportam os galões de água. Andam cerca de dois quilômetros, atravessam o canal por uma ponte provisória e os depositam em uma fila de recipientes que começou a ser formar no dia anterior. Sua família mora em outra propriedade pequena, que teve uma parte indenizada pelo Ministério da Integração Nacional. “Eu não acho que é justo perder um pedaço de terra, mas se é para fazer o bem pra tanta gente, então aceitamos”, conforma-se. Ela vê o lado bom: seu marido, Adilson Salvador, é empregado na construtora SA Paulista como técnico ambiental na transposição. “Ele conseguiu emprego desde o início da obra, primeiro por outra empresa, e agora pela Paulista”, orgulha-se Márcia Maria.

Em outra localidade, na zona rural de Sertânia, os moradores do Sítio Brabo Novo ficaram divididos pelo canal. Pelo menos treze famílias preferiram a remoção para terras acima do reservatório Barro Branco, ainda em fase de retirada da vegetação. Um número bem maior de famílias permaneceu do outro lado do reservatório.

Maria da Conceição Siqueira, viúva, de 51 anos, e seu filho, de 18 anos, deixarão a antiga moradia para trás e irão para Sertânia. “Já recebi R$ 7.500,00 por aquela casinha ali”, diz, apontando para uma casa que ficará submersa pelo reservatório, “e ganhei essa casa aqui. Mas vamos fechá-la e ir embora”. “Fiquei com um pedaço de terra muito pequeno, (cerca de 50m²) não dá pra nada. Meu filho está em tratamento, ele teve um derrame no cérebro e é melhor a gente ficar lá”, diz.

Lucineia Transposição do Rio São Francisco: via de mão única

Lucinéia ferreira Florêncio não acredita em distribuição justa das águas da transposição. Foto: Mano de Carvalho

A família das irmãs Lucicléia e Lucinéia Ferreira Florêncio, vizinhas de Maria da Conceição, tomou uma decisão diferente. “Nossa primeira casa era onde agora vai ser o reservatório, e já foi indenizada em 2007. Mas esse reservatório ocupou quase a metade do nosso terreno. Como ainda sobraram terras desse outro lado e esta é uma área liberada, decidimos construir aqui, com o dinheiro da indenização”, contou Lucinéia. Ela não soube informar o tamanho do sítio, mas a nova casa é grande. No terreno persiste uma plantação de palmas (um tipo de cactos que serve para alimentar os animais) e algumas árvores frutíferas. O resto foi perdido: abacaxi, macaxeira, milho, feijão… A irmã, Luciclélia, casou-se e construiu uma casa menor ao lado, onde vive com o marido e uma bebê de nove meses.

Lucinéia, professora, duvida que no futuro haja uma distribuição justa das águas da transposição. “Tem os pontos positivos, mas acho que vão ter os negativos também. Eu penso que com essa água toda vão começar a fazer mais obras por aqui e eu não sei se toda a comunidade vai ter acesso a essa água quando quiser. O pequeno produtor nunca é beneficiado como os grandes proprietários, nunca tem igualdade. E acho que o crescimento vai ser desordenado. A comunidade já tem uma associação de moradores, mas ainda não sabe como abordar esse assunto”, lamentou Lucinéia, dizendo que não há orientação nenhuma dos governos sobre isso.

sitio Transposição do Rio São Francisco: via de mão única

O Sítio Passagem da Pedra, em Sertânia, dividido para a construção do túnel; zeladores recuam cerca que delimita área da propriedade. Foto: Mano de Carvalho

Na área onde será construído o túnel entre Sertânia e Monteiro, no Lote 12, atual Meta 3L (veja mapa), a retomada das obras em dezembro significou a perda de mais 100 metros de terreno pelos agricultores, além dos 100 metros que já tinham recuado. “Fazer o quê? Os donos já receberam a indenização e agora que vieram construir pediram mais esse pedaço de terra”, explicam Lenilton Cordeiro dos Santos e Quitéria Araújo da Silva, zeladores do sítio Passagem da Pedra, cortado tanto pelo canal da transposição quanto pelo túnel.

Ailton Transposição do Rio São Francisco: via de mão única

“Ninguém sabe”, afirmou o capataz Aílton Ferreira falando sobre a data que deverá chegar as águas da transposição no túnel na divisa entre Pernambuco e Paraíba. Foto: Mano de Carvalho

No sítio ao lado, Aílton Ferreira de Oliveira cuida do terreno da sogra, que também foi reduzido. “Agora, o gado que sobrou, cinco cabeças, está no curral e come mandacaru, pois não tem mais o que comer por causa da seca, e o terreno ficou pequeno pro pasto”.

“E essa água, quando chega?”, interrompe o capataz do sítio, que prossegue, num monólogo: “Ninguém sabe…”.

Leia também as outras quatro reportagens da série e ainda um relato da repórter Márcia Dementshuk, onde ela conta os bastidores da reportagem.

Uma viagem ao canteiro de obras

Na Contramão da Transposição

O povo contra os areeiros

Leia os bastidores da reportagem

A Transposição, um projeto dos tempos do Império

* Publicado originalmente no site Agência Pública.

Acústica ecológica, medida para a biodiversidade (O Globo)

Especialista na gravação de sons naturais, o músico e naturalista americano Bernie Krause prova que a paisagem sonora de um ambiente tem muito a informar sobre o seu equilíbrio


Publicado:28/01/14 – 8h00 / Atualizado:28/01/14 – 14h47

<br />Bernie Krause. Músico largou as vaidades de Hollywood para se dedicar às paisagens sonoras e à acústica ecológica<br />Foto: Terceiro / Divulgação/Tim ChapmanBernie Krause. Músico largou as vaidades de Hollywood para se dedicar às paisagens sonoras e à acústica ecológica Terceiro / Divulgação/Tim Chapman

RIO – Em um longínquo verão de 1988, o músico e naturalista americano Bernie Krause teve uma experiência reveladora. Um dos maiores especialistas do mundo em sons naturais, ele ganhou permissão para registrar a paisagem sonora de Lincoln Meadow, uma área de manejo florestal californiana localizada a três horas e meia de São Francisco, antes e depois de uma extração seletiva. Munidos de estudos prévios, a madeireira responsável e os biólogos locais tinham garantido à comunidade que os métodos de extração não causariam impactos ambientais, já que apenas poucas árvores seriam derrubadas.

Alguns dias antes do manejo, Krause instalou seu sistema de gravação na campina e registrou os sons do amanhecer. Uma rica música natural explodiu em seus fones de ouvido, executada por pica-paus, codornas, pardais e insetos de todos os tipos. Um ano depois, já com as árvores derrubadas, Krause regressou ao local, no mesmo dia do mesmo mês, à mesma hora e sob as mesmas condições meteorológicas.

Assim como prometeram os biólogos, a floresta parecia intacta. Aos olhos humanos, não havia sinais de deterioração. Porém, a nova “música” capturada pelo gravador revelava um cenário muito diferente. O que antes formava uma amplo mosaico sonoro, limitava-se agora a um punhado carente de ruídos, no qual se destacavam apenas o correr do rio e o martelar solitário de um pica-pau.

Com uma gravação de apenas alguns segundos, Krause acabara de comprovar que o som de um ambiente pode informar muito mais sobre seu equilíbrio do que fotografias ou imagens de satélite. Conhecido como “ecologia acústica” (soundscape ecology), o conceito se tornou hoje uma disciplina científica, da qual o músico é um dos pioneiros. Em resumo, a ideia consiste em usar a sonoridade dos organismos vivos não humanos (“biofonia”) e a de fontes não biológicas (“geofonia”) como indicadores de biodiversidade: quanto mais “musicais” e complexas as propriedades acústicas de um habitat, mais saudável ele será.

– As gravações biofônicas simplesmente confirmam nossas relações com o mundo natural – explica o músico, em entrevista por e-mail à Revista Amanhã. – Se elas são saudáveis, a paisagem sonora indicará os padrões necessários que confirmam em que grau essa relação existe. Se não são, então não haverá som em determinado habitat, ou os padrões bioacústicos serão caóticos e incoerentes.

Nascido em 1938, em Detroit, Bernie Krause passou mais da metade de seus 75 anos perseguindo sons naturais pelos quatro cantos do mundo. Depois de trabalhar com artistas como Bob Dylan, The Doors e Rolling Stones, e ajudar a criar efeitos de filmes como “Apocalipse Now” (do qual foi demitido e recontratado uma dezena de vezes durante as filmagens), o músico cansou das vaidades de Hollywood e passou a se dedicar exclusivamente à acústica ecológica. Fonte para numerosos discos e publicações, sua coleção inclui desde fontes não biológicas, como fragores de trovões e “cantos” de dunas de areia, aos mais improváveis sons de animais (vocalizações de larvas e grunhidos de anêmonas-do-mar). Um balanço destas experiências pode ser lido em “A grande orquestra da natureza”, seu último livro, publicado no Brasil pela Zahar, em 2013.

O trabalho de Krause representa um divisor de águas na história da paisagem sonora: antes da sua contribuição, a técnica consistia essencialmente em capturar fragmentos monofônicos de fontes isoladas, restringindo as pesquisas aos limites de cada vocalização. Como, por exemplo, quando uma equipe de ornitólogos registrou, em 1935, o canto do raríssimo pica-pau-bico-de-marfim. Se quisermos saber como soava esta criatura, hoje provavelmente extinta, temos a amostra gravada.

Com o músico e naturalista americano, no entanto, o escopo de pesquisa começou a ser ampliado. Ao explorar florestas equatoriais da África, Ásia e América Latina, Krause percebeu que o que nos chega da natureza é profundamente conectado. Como músicos em uma orquestra, as diferentes espécies harmonizam suas vocalizações, modulam em conjunto, de acordo com os sons naturais de fontes não biológicas (o vento, a água, o movimento da terra e da chuva) de cada habitat.

Assinatura acústica

Esta complexa acústica multidimensional precisava ser capturada como um todo, e Krause usou sua experiência na produção musical para modernizar os modelos de gravações, antes limitados a um só canal.

– Separar as vozes das espécies individuais, especialmente na biofonia, é um pouco como tentar entender a magnificência da quinta sinfonia de Beethoven abstraindo o som de um único violino, fora do contexto da orquestra, e ouvir apenas uma parte dela – compara Krause. – Ao fragmentar ou descontextualizar as paisagens sonoras do mundo natural, é impossível entender a sua voz, as razões de uma determinada vocalização, ou ainda a sua relação com todos os outros sons de animais emitidos em um habitat. Gravando todos os sons juntos, ao mesmo tempo, ganha-se uma explicação contextual.

Isso não significa, contudo, que Krause ignore vocalizações específicas. Pelo contrário. Cada organismo possui uma assinatura sonora própria, e seu arquivo reúne as mais variadas espécies de animais. Em “A grande orquestra da natureza”, ele descreve algumas curiosidades. Descobrimos a inacreditável amplitude sonora do camarão-pistola, que com apenas cinco centímetros é capaz de produzir, debaixo d’água, um barulho mais intenso do que os volumes registrados em shows de rock.

Também aprendemos que os lobos aproveitam a privilegiada ressonância e propagação da noite para vocalizar, ou que os sons dos golfinhos, se produzidos fora do ar, equivaleriam ao disparo de uma arma de grosso calibre.

Há ainda detalhes sobre uma das melodias mais bonitas que existem, gerada por casais de gibão da Indonésia. “Cada par desenvolve os próprios diálogos musicais bastante elaborados – duetos encantadores de entrosamento amoroso”, descreve Krause.

As gravações nos ajudam a entender manifestações emocionais de certos animais. Neste sentido, poucas coisas soam mais tristes do que o choro de um castor em luto.

O músico também compara as vocalizações de duas duplas de baleias – uma de um grupo ainda selvagem, outra cativa num parque temático. Enquanto a primeira apresentava sons cheios de energia e vitalidade, na segunda se destacava uma lentidão letárgica nas vocalizações.

Assim como acontece com os organismos vivos, cada fonte não biológica possui um ressonância peculiar. Para Krause, o mar de Ipanema, por exemplo, traz uma assinatura acústica diferente das de outras praias: “Sempre achei que o som sedutor, lento e ritmado dessas ondas me acolhia e me chamava para a tentadora arrebentação”, escreve. Por outro lado, ele conta que a arrebentação no litoral da Louisiana, no Golfo do México, passou a soar “gorgolejante, lamacenta e morosa, como se a água estivesse engasgada e afogada em si mesma” depois de um grande vazamento de petróleo em 2010.

Em “A grande orquestra da natureza”, Krause mostra que a conexão entre os mundos sonoros humano e não humano se perdeu. Nosso modo de vida não só nos priva da capacidade de escutar com atenção o que está ao redor, como ainda silencia a diversidade acústica dos recintos do planeta. O autor lembra que metade das fontes de seu arquivo, gravadas ao longo das últimas quatro décadas, se encontra hoje extinta por causa da intervenção humana. Em muitos desses lugares, as alterações sonoras acontecem num ritmo assustador, como as geleiras do Kilimanjaro e de Glacier Bay, ou os recifes de coral.

Segundo Krause, um sintoma deste divórcio com a natureza está na própria autorreferencialidade e antropocentrismo da música ocidental, que nos últimos séculos teria se alimentado apenas de suas próprias experiências. O que não acontece com muitos povos indígenas, como os ianomâmi, que usam as melodias da chuva caindo sobre a vegetação e outros ritmos geofônicos na sua música tradicional. Krause mostra como seres humanos que vivem intimamente ligados à floresta, como os bayaka na África, ou os kaluli em Papua-Nova Guiné, encontram na biofonia uma espécie de karaokê ecológico. Em suas performances, a natureza se transforma em uma banda de apoio. O que leva à conclusão óbvia de que a música humana teria se originado nas sonoridades do mundo natural.

– Como pré-requisito para concessão de um diploma, eu aconselharia qualquer instituição acadêmica que treina músicos e compositores se certificar de que cada aluno tem pelo menos um ano de experiência de escuta e gravação em habitats selvagens extremos, o mais afastado possível de áreas urbanas e antropofônicas – opina Krause.

Discoteca ecológica

Anêmona-do-mar: Emissora de sons incomuns, solta grunhidos altos e irritantes quando perturbada.

Castor: Uma das vocalizações mais tristes gravadas por Krause é a de um castor que acabara de perder sua companheira e filhotes e nadava em círculos gritando sua dor.

Vento: Por sua força mística, é um dos mais etéreos sons geofônicos.

Neve: Para quem se dedica ao registro sonoro da natureza, o som da neve caindo equivale a “um prato da alta gastronomia”, segundo Krause: difícil de conseguir, mas inigualável.

Ouça mais sons na página do livro “A grande orquestra da natureza”:

Leia mais sobre esse assunto em 
© 1996 – 2014. Todos direitos reservados a Infoglobo Comunicação e Participações S.A. Este material não pode ser publicado, transmitido por broadcast, reescrito ou redistribuído sem autorização.

Solution to Cloud Riddle Reveals Hotter Future: Global Temperatures to Rise at Least 4 Degrees C by 2100 (Science Daily)

Dec. 31, 2013 — Global average temperatures will rise at least 4°C by 2100 and potentially more than 8°C by 2200 if carbon dioxide emissions are not reduced according to new research published inNature. Scientists found global climate is more sensitive to carbon dioxide than most previous estimates.

Scientists have revealed the impact of clouds on climate sensitivity. Global average temperatures will rise at least 4 degrees C by 2100 and potentially more than 8 degrees C by 2200 if carbon dioxide emissions are not reduced, according to new research. (Credit: © Maksim Shebeko / Fotolia)

The research also appears to solve one of the great unknowns of climate sensitivity, the role of cloud formation and whether this will have a positive or negative effect on global warming.

“Our research has shown climate models indicating a low temperature response to a doubling of carbon dioxide from preindustrial times are not reproducing the correct processes that lead to cloud formation,” said lead author from the University of New South Wales’ Centre of Excellence for Climate System Science Prof Steven Sherwood.

“When the processes are correct in the climate models the level of climate sensitivity is far higher. Previously, estimates of the sensitivity of global temperature to a doubling of carbon dioxide ranged from 1.5°C to 5°C. This new research takes away the lower end of climate sensitivity estimates, meaning that global average temperatures will increase by 3°C to 5°C with a doubling of carbon dioxide.”

The key to this narrower but much higher estimate can be found in the real world observations around the role of water vapour in cloud formation.

Observations show when water vapour is taken up by the atmosphere through evaporation, the updraughts can either rise to 15 km to form clouds that produce heavy rains or rise just a few kilometres before returning to the surface without forming rain clouds.

When updraughts rise only a few kilometres they reduce total cloud cover because they pull more vapour away from the higher cloud forming regions.

However water vapour is not pulled away from cloud forming regions when only deep 15km updraughts are present.

The researchers found climate models that show a low global temperature response to carbon dioxide do not include enough of this lower-level water vapour process. Instead they simulate nearly all updraughts as rising to 15 km and forming clouds.

When only the deeper updraughts are present in climate models, more clouds form and there is an increased reflection of sunlight. Consequently the global climate in these models becomes less sensitive in its response to atmospheric carbon dioxide.

However, real world observations show this behaviour is wrong.

When the processes in climate models are corrected to match the observations in the real world, the models produce cycles that take water vapour to a wider range of heights in the atmosphere, causing fewer clouds to form as the climate warms.

This increases the amount of sunlight and heat entering the atmosphere and, as a result, increases the sensitivity of our climate to carbon dioxide or any other perturbation.

The result is that when water vapour processes are correctly represented, the sensitivity of the climate to a doubling of carbon dioxide — which will occur in the next 50 years — means we can expect a temperature increase of at least 4°C by 2100.

“Climate sceptics like to criticize climate models for getting things wrong, and we are the first to admit they are not perfect, but what we are finding is that the mistakes are being made by those models which predict less warming, not those that predict more,” said Prof. Sherwood.

“Rises in global average temperatures of this magnitude will have profound impacts on the world and the economies of many countries if we don’t urgently start to curb our emissions.

Journal Reference:

  1. Steven C. Sherwood, Sandrine Bony, Jean-Louis Dufresne.Spread in model climate sensitivity traced to atmospheric convective mixingNature, 2014; 505 (7481): 37 DOI: 10.1038/nature12829

Walking the Walk: What Sharks, Honeybees and Humans Have in Common (Science Daily)

Dec. 23, 2013 — A research team led by UA anthropologist David Raichlen has found that the Hadza tribe’s movements while foraging can be described by a mathematical pattern called a Lévy walk — a pattern that also is found in the movements of many other animals.

The Hadza people of Tanzania wore wristwatches with GPS trackers that followed their movements while hunting or foraging. Data showed that humans join a variety of other species including sharks and honeybees in using a Lévy walk pattern while foraging. (Credit: Photo by Brian Wood/Yale University)

A mathematical pattern of movement called a Lévy walk describes the foraging behavior of animals from sharks to honey bees, and now for the first time has been shown to describe human hunter-gatherer movement as well. The study, led by University of Arizona anthropologist David Raichlen, was published today in the Proceedings of the National Academy of Sciences.

The Lévy walk pattern appears to be ubiquitous in animals, similar to the golden ratio, phi, a mathematical ratio that has been found to describe proportions in plants and animals throughout nature.

“Scientists have been interested in characterizing how animals search for a long time,” said Raichlen, an associate professor in the UA School of Anthropology, “so we decided to look at whether human hunter-gatherers use similar patterns.”

Funded by a National Science Foundation grant awarded to study co-author Herman Pontzer, Raichlen and his colleagues worked with the Hadza people of Tanzania.

The Hadza are one of the last big-game hunters in Africa, and one of the last groups on Earth to still forage on foot with traditional methods. “If you want to understand human hunter-gatherer movement, you have to work with a group like the Hadza,” Raichlen said.

Members of the tribe wore wristwatches with GPS units that tracked their movement while on hunting or foraging bouts. The GPS data showed that while the Hadza use other movement patterns, the dominant theme of their foraging movements is a Lévy walk — the same pattern used by many other animals when hunting or foraging.

“Detecting this pattern among the Hadza, as has been found in several other species, tells us that such patterns are likely the result of general foraging strategies that many species adopt, across a wide variety of contexts,” said study co-author Brian Wood, an anthropologist at Yale University who has worked with the Hadza people since 2004.

“This movement pattern seems to occur across species and across environments in humans, from East Africa to urban areas,” said Adam Gordon, study co-author and a physical anthropologist at the University at Albany, State University of New York. “It shows up all across the world in different species and links the way that we move around in the natural world. This suggests that it’s a fundamental pattern likely present in our evolutionary history.”

The Lévy walk, which involves a series of short movements in one area and then a longer trek to another area, is not limited to searching for food. Studies have shown that humans sometimes follow a Lévy walk while ambling around an amusement park. The pattern also can be used as a predictor for urban development.

“Think about your life,” Raichlen said. “What do you do on a normal day? Go to work and come back, walk short distances around your house? Then every once in a while you take these long steps, on foot, bike, in a car or on a plane. We tend to take short steps in one area and then take longer strides to get to another area.”

Following a Lévy walk pattern does not mean that humans don’t consciously decide where they are going, Raichlen said. “We definitely use memories and cues from the environment as we search,” he explained, “but this pattern seems to emerge in the process.”

In future studies, Raichlen and his colleagues hope to understand the reasons for using a Lévy walk and whether the pattern is determined by the distribution of resources in the environment.

“We’re very interested in studying why the Hadza use this pattern, what’s driving their hunting strategies and when they use this pattern versus another pattern,” said Pontzer, a member of the research team and an anthropologist at Hunter College in New York.

“We’d really like to know how and why specific environmental conditions or individual traits influence movement patterns,” added Wood.

Describing human movement patterns could also help anthropologists to understand how humans transported raw materials in the past, how our home ranges expanded and how we interact with our environment today, Raichlen noted.

“We can characterize these movement patterns across different human environments, and that means we can use this movement pattern to understand past mobility,” Raichlen said. “Also, finding patterns in nature is always fun.”

Journal Reference:

  1. D. A. Raichlen, B. M. Wood, A. D. Gordon, A. Z. P. Mabulla, F. W. Marlowe, H. Pontzer. Evidence of Levy walk foraging patterns in human hunter-gatherers.Proceedings of the National Academy of Sciences, 2013; DOI: 10.1073/pnas.1318616111

Scientists Anticipated Size and Location of 2012 Costa Rica Earthquake (Science Daily)

Dec. 22, 2013 — Scientists using GPS to study changes in Earth’s shape accurately forecasted the size and location of the magnitude 7.6 Nicoya earthquake that occurred in 2012 in Costa Rica.

Andrew Newman, an associate professor in the School of Earth and Atmospheric Sciences at the Georgia Institute of Technology, performs a GPS survey in Costa Rica’s Nicoya Peninsula in 2010. (Credit: Lujia Feng)

The Nicoya Peninsula in Costa Rica is one of the few places where land sits atop the portion of a subduction zone where Earth’s greatest earthquakes take place. Costa Rica’s location therefore makes it the perfect spot for learning how large earthquakes rupture. Because earthquakes greater than about magnitude 7.5 have occurred in this region roughly every 50 years, with the previous event striking in 1950, scientists have been preparing for this earthquake through a number of geophysical studies. The most recent study used GPS to map out the area along the fault storing energy for release in a large earthquake.

“This is the first place where we’ve been able to map out the likely extent of an earthquake rupture along the subduction megathrust beforehand,” said Andrew Newman, an associate professor in the School of Earth and Atmospheric Sciences at the Georgia Institute of Technology.

The study was published online Dec. 22, 2013, in the journalNature Geoscience. The research was supported by the National Science Foundation and was a collaboration of researchers from Georgia Tech, the Costa Rica Volcanological and Seismological Observatory (OVSICORI) at Universidad Nacional, University California, Santa Cruz, and the University of South Florida.

Subduction zones are locations where one tectonic plate is forced under another one. The collision of tectonic plates during this process can unleash devastating earthquakes, and sometimes devastating tsunamis. The magnitude 9.0 earthquake off the coast of Japan in 2011 was due to just such a subduction zone eaerthquake. The Cascadia subduction zone in the Pacific Northwest is capable of unleashing a similarly sized quake. Damage from the Nicoya earthquake was not as bad as might be expected from a magnitude 7.6 quake.

“Fortunately there was very little damage considering the earthquake’s size,” said Marino Protti of OVSICORI and the study’s lead author. “The historical pattern of earthquakes not only allowed us to get our instruments ready, it also allowed Costa Ricans to upgrade their buildings to be earthquake safe.”

Plate tectonics are the driving force for subduction zones. As tectonic plates converge, strain temporarily accumulates across the plate boundary when portions of the interface between these tectonic plates, called a megathrust, become locked together. The strain can accumulate to dangerous levels before eventually being released as a massive earthquake.

“The Nicoya Peninsula is an ideal natural lab for studying these events, because the coastline geometry uniquely allows us to get our equipment close to the zone of active strain accumulation,” said Susan Schwartz, professor of earth sciences at the University of California, Santa Cruz, and a co-author of the study.

Through a series of studies starting in the early 1990s using land-based tools, the researchers mapped regions where tectonic plates were completely locked along the subduction interface. Detailed geophysical observations of the region allowed the researchers to create an image of where the faults had locked.

The researchers published a study a few months before the earthquake, describing the particular locked patch with the clearest potential for the next large earthquake in the region. The team projected the total amount of energy that could have developed across that region and forecasted that if the locking remained similar since the last major earthquake in 1950, then there is presently enough energy for an earthquake on the order of magnitude 7.8 there.

Because of limits in technology and scientific understanding about processes controlling fault locking and release, scientists cannot say much about precisely where or when earthquakes will occur. However, earthquakes in Nicoya have occurred about every 50 years, so seismologists had been anticipating another one around 2000, give or take 20 years, Newman said. The earthquake occurred in September of 2012 as a magnitude 7.6 quake.

“It occurred right in the area we determined to be locked and it had almost the size we expected,” Newman said.

The researchers hope to apply what they’ve learned in Costa Rica to other environments. Virtually every damaging subduction zone earthquake occurs far offshore.

“Nicoya is the only place on Earth where we’ve actually been able to get a very accurate image of the locked patch because it occurs directly under land,” Newman said. “If we really want to understand the seismic potential for most of the world, we have to go offshore.”

Scientists have been able to reasonably map portions of these locked areas offshore using data on land, but the resolution is poor, particularly in the regions that are most responsible for generating tsunamis, Newman said. He hopes that his group’s work in Nicoya will be a driver for geodetic studies on the seafloor to observe such Earth deformation. These seafloor geodetic studies are rare and expensive today.

“If we want to understand the potential for large earthquakes, then we really need to start doing more seafloor observations,” Newman said. “It’s a growing push in our community and this study highlights the type of results that one might be able to obtain for most other dangerous environments, including offshore the Pacific Northwest.”

Journal Reference:

  1. Marino Protti, Victor González, Andrew V. Newman, Timothy H. Dixon, Susan Y. Schwartz, Jeffrey S. Marshall, Lujia Feng, Jacob I. Walter, Rocco Malservisi, Susan E. Owen. Nicoya earthquake rupture anticipated by geodetic measurement of the locked plate interfaceNature Geoscience, 2013; DOI: 10.1038/ngeo2038

Simple Mathematical Formula Describes Human Struggles (Science Daily)

Dec. 12, 2013 — Would you believe that a broad range of human struggles can be understood by using a mathematical formula? From child-parent struggles to cyber-attacks and civil unrest, they can all be explained with a simple mathematical expression called a “power-law.”

The manner in which a baby’s cries escalate against its parent is comparable to the way riots in Poland escalated in the lead-up to the collapse of the Soviet Union. (Credit: © erllre / Fotolia)

In a sort of unified theory of human conflict, scientists have found a way to mathematically describe the severity and timing of human confrontations that affect us personally and as a society.

For example, the manner in which a baby’s cries escalate against its parent is comparable to the way riots in Poland escalated in the lead-up to the collapse of the Soviet Union. It comes down to the fact that the perpetrator in both cases (e.g. baby, rioters) adapts quickly enough to escalate its attacks against the larger, but more sluggish entity (e.g. parent, government), who is unable, or unwilling, to respond quickly enough to satisfy the perpetrator, according to a new study published in Nature‘s Scientific Reports.

“By picking out a specific baby (and parent), and studying what actions of the parent make the child escalate or de-escalate its cries, we can understand better how to counteract cyber-attacks against a particular sector of U.S. cyber infrastructure, or how an outbreak of civil unrest in a given location (e.g. Syria) will play out, following particular government interventions,” says Neil Johnson, professor of physics and the head of the interdisciplinary research group in Complexity, at the College of Arts and Sciences at the University of Miami (UM) and corresponding author of the study.

Respectively, the study finds some remarkable similarities between seemingly disconnected confrontations. For instance:

  • The escalation of violent attacks in Magdalena, Colombia — though completely cut off from the rest of the world — is actually representative of all modern wars. Meanwhile, the conflict in Sierra Leone, Africa, has exactly the same dynamics as the narco-guerilla war in Antioquia, Colombia.
  • The pattern of attacks by predatory traders against General Electric (GE) stock is equivalent to the pattern of cyber-attacks against the U.S. hi-tech electronics sector by foreign groups, which in turn mimics specific infants and parents.
  • New insight into the controversial ‘Bloody Sunday’ attack by the British security forces, against civilians, on January 30,1972, reveals that Bloody Sunday appears to be the culmination of escalating Provisional Irish Republican Army attacks, not their trigger, hence raising new questions about its strategic importance.

The findings show that this mathematical formula of the form AB-C is a valuable tool that can be applied to make quantitative predictions concerning future attacks in a given confrontation. It can also be used to create an intervention strategy against the perpetrators and, more broadly, as a quantitative starting point for cross-disciplinary theorizing about human aggression, at the individual and group level, in both real and online worlds.

Journal Reference:

  1. Neil F. Johnson, Pablo Medina, Guannan Zhao, Daniel S. Messinger, John Horgan, Paul Gill, Juan Camilo Bohorquez, Whitney Mattson, Devon Gangi, Hong Qi, Pedro Manrique, Nicolas Velasquez, Ana Morgenstern, Elvira Restrepo, Nicholas Johnson, Michael Spagat, Roberto Zarama. Simple mathematical law benchmarks human confrontations.Scientific Reports, 2013; 3 DOI: 10.1038/srep03463

Unease among Brazil’s farmers as Congress votes on GM terminator seeds (The Guardian)

Environmentalists warn approval could shatter global agreement not to use technology, with devastating repercussions

 in Rio de Janeiro and, Thursday 12 December 2013 16.34 GMT

Brazil national congress

Brazil’s national Congress is under pressure from landowning groups to green light GM ‘terminator’ seeds. Photograph: Ruy Barbosa Pinto/Getty Images/Flickr RF

Brazil is set to break a global moratorium on genetically-modified “terminator” seeds, which are said to threaten the livelihoods of millions of small farmers around the world.

The sterile or “suicide” seeds are produced by means of genetic use restriction technology, which makes crops die off after one harvest without producing offspring. As a result, farmers have to buy new seeds for each planting, which reduces their self-sufficiency and makes them dependent on major seed and chemical companies.

Environmentalists fear that any such move by Brazil – one of the biggest agricultural producers on the planet – could produce a domino effect that would result in the worldwide adoption of the controversial technology.

Major seed and chemical companies, which together own more than 60% of the global seed market, all have patents on terminator seed technologies. However, in the 1990s they agreed not to employ the technique after a global outcry by small farmers, indigenous groups and civil society groups.

In 2000, 193 countries signed up to the UN Convention on Biological Diversity, which recommended a de facto moratorium on this technology.

The moratorium is under growing pressure in Brazil, where powerful landowning groups have been pushing Congress to allow the technology to be used for the controlled propogation of certain plants used for medicines and eucalyptus trees, which provide pulp for paper mills.

The landowning groups want to plant large areas with fast growing GMtrees and other non-food GM crops that could theoretically spread seeds over wide areas. The technology, they argue, would be a safeguard, ensuring that no second generation pollution of GM traits takes place. They insist that terminator seeds would only be used for non-food crops.

Their efforts to force a bill to this effect through Congress, ongoing since 2007, have been slowed due to resistance from environmentalists.

The proposed measure has been approved by the legislature’s agricultural commission, rejected by the environmental commission, and now sits in the justice and citizenship commission. It is likely to go to a full Congressional vote, where it could be passed as early as next Tuesday, or soon after the Christmas recess.

Environment groups say there would be global consequences. “Brazil is the frontline. If the agro-industry breaks the moratorium here, they’ll break it everywhere,” said Maria José Guazzelli, of Centro Ecológico, which represents a coalition of Brazilian NGOs.

This week they presented a protest letter signed by 34,000 people to thwart the latest effort to move the proposed legislation forward. “If this bill goes through, it would be a disaster. Farmers would no longer be able to produce their own seeds. That’s the ultimate aim of the agro-industry,” she said.

The international technology watchdog ETC, which was among the earliest proponents of a ban on terminator technology in the 1990s, fears this is part of a strategy to crack the international consensus.

“If the bill is passed, [we expect] the Brazilian government to take a series of steps that will orchestrate the collapse of the 193-country consensus moratorium when the UN Convention on Biological Diversity meets for its biennial conference in Korea in October 2014,” said executive director Pat Mooney.

But Eduardo Sciarra, Social Democratic party leader in the Brazilian Congress, said the proposed measure did not threaten farmers because it was intended only to set controlled guidelines for the research and development of “bioreactor” plants for medicine.

“Gene use restriction technology has its benefits. This bill allows the use of this technology only where it is good for humanity,” he said.

The technology was developed by the US Department of Agriculture and the world’s largest seed and agrochemical firms. Syngenta, Bayer, BASF, Dow, Monsanto and DuPont together control more than 60% of the global commercial seed market and 76% of the agrochemical market. All are believed to hold patents on the technology, but none are thought to have developed the seeds for commercial use.

Massive protests in the 1990s by Indian, Latin American and south-east Asian peasant farmers, indigenous groups and their supporters put the companies on the back foot, and they were reluctantly forced to shelve the technology after the UN called for a de-facto moratorium in 2000.

Now, while denying that they intend to use terminator seeds, the companies argue that the urgent need to combat climate change makes it imperative to use the technology. In addition, they say that the technology could protect conventional and organic farmers by stopping GM plants spreading their genes to wild relatives – an increasing problem in the US, Argentina and other countries where GM crops are grown on a large scale.

A Monsanto spokesman in Brazil said the company was unaware of the developments and stood by a commitment made in 1999 not to pursue terminator technology. “I’m not aware of so-called terminator seeds having been developed by any organisation, and Monsanto stands firmly by our commitment and has no plans or research relating to this,” said Tom Helscher.

On its website, however, the company’s commitment only appears to relate to “food crops”, which does not encompass the tree and medicinal products under consideration in Brazil.

• Additional research by Anna Kaiser

Background to a controversy

Ever since GM companies were found to be patenting “gene-use restriction” or “terminator” technologies in the 1990s, they have been accused of threatening biodiversity and seeking to make farmers dependent on big industry for their livelihoods.

In many developing countries, where up to 80% of farmers each year choose their best plants and save their own seed, terminator technology is a byword for all genetic modification, raising fears that sterile GM strains could contaminate wild plants and regular crops – with devastating consequences.

The GM companies, which claimed in the 1990s that they wanted to introduce the seeds only to stop farmers stealing their products, were forced to shelve the technology in the face of massive protests in India, Latin Amercia and south-east Asia.

In the face of growing international alarm, the 193 countries signed up to the UN Convention on Biological Diversity unanimously agreed in 2000 that there should be a de facto international moratorium. This was strengthened at the Conference of the Parties in 2006, under the presidency of Brazil.

Since then, the moratorium has held firm. But the GM companies have shifted their arguments, saying that gene-use restriction technologies now allow seeds to reproduce, but could “switch off” the GM traits. This, they argue, would reduce the possibility of the seeds spreading sterility. In addition, they say the technology could protect organic and conventional farmers from the spread of transgenes to wild relatives and weeds, which plagues GM farmers in the US and elsewhere.

The fear now is that the global moratorium could quickly unravel if Brazil, one of the most important agricultural countries in the world, overturns its national law to ban terminator technology. Other countries, pressed strongly by the powerful GM lobby, would probably follow, leading inevitably to more protests.