Arquivo da tag: comunicação científica

Here’s Why Coronavirus And Climate Change Are Different Sorts Of Policy Problems (Forbes)

Editors’ Pick | Mar 15, 2020, 07:05pm EST

Nives Dolsak and Aseem Prakash

Contributor Green Tech

Passengers wearing protective face masks stand at Schiphol Airport in Amsterdam, on March 13, 2020, amid an outbreak of COVID-19, the new coronavirus. Photo by OLAF KRAAK/ANP/AFP via Getty Images.

Climate protection and public health have striking similarities. The benefits of both can be enjoyed by everyone, even by individuals who do not contribute to the collective efforts to address these problems. If climate change slows down, both drivers of gas-guzzlers and electric cars will benefit – although the former did not help in climate efforts. Similarly, if the spread of Coronavirus is halted (the so-called flattening the curve), individuals who refused to wash their hands, as well as the ones who washed them assiduously, will enjoy the restored normal life.

Most countries have gotten their acts together, although belatedly, on Coronavirus. Citizens also seem to be following the advice of public health officials. Could then the Coronavirus policy model be applied to climate change? We urge caution because these crises are different, which means that policies that worked well for Coronavirus might not be effective for climate change.

Different Penalties for Policy and Behavioral Procrastination

Climate change is the defining crisis of our times. Floods, hurricanes, forest fires, and extreme weather events have become more frequent and severe over the years. Although climate change generates passionate discussions in big cities and university campuses, there is inadequate public clamor for immediate action. Some types of decarbonization policies are certainly in place. However, carbon-intensive lifestyles continue (with “flying shame” in Scandinavia being an exception). Today In: Green Tech

This policy lethargy and behavioral inertia are due to many reasons, including concerted opposition by the fossil fuel industry to deep decarbonization. But there are other reasons as well. Climate change is cumulative and does not have a quick onset. Its effects are not always immediate and visible. Many individuals probably do not see a clear link  between their actions and the eventual outcome. This reduces the willingness to alter lifestyles and tolerate personal sacrifices for the collective good.

In contrast, Coronavirus is forcing an immediate policy response and behavioral changes. Its causality is clear and its onset quick. Lives are at stake, especially in western countries. The stock markets are tanking, and the economy is heading towards a recession. Politicians recognize that waffling can lead to massive consequences, even in the short-term. Corona-skeptic President Trump has reversed course and declared a national emergency.

PROMOTED Deloitte BrandVoice  | Paid Program Reducing Environmental Impact Is Now A Business Imperative UNICEF USA BrandVoice  | Paid Program Women’s Advice For Girls: Stay In School. Believe In Yourself. Grads of Life BrandVoice  | Paid Program Where to Begin: Essential Metrics For Talent-Conscious Businesses

In the US, there is federal inaction on climate change. But Coronavirus seems different. 2020 is a Presidential election year, and perhaps this motivates the federal government to (finally) act decisively so that Coronavirus does not become Hurricane Katrina type of political liability.

Spatial Optimism

Climate policies are hobbled by “spatial optimism,” whereby individuals believe that their risk of getting affected by climate change is less than for others. This reduces the willingness to tolerate personal sacrifices for deep decarbonization.

Coronavirus episode began with some level of spatial optimism in the Western world. After all, it was happening in China. But this confidence has quickly disappeared. Globalization means a lot of international travel and trade. China is the main global supplier of many products. Prominent companies such as Apple (AAPL) and Tesla (TSLA) depend on China for manufacturing and sales of their products. Spatial optimism has been overwhelmed by international travel as well as globalized supply chains and financial markets.

Belief in the Efficacy of Adaptation

Some might believe that climate change can be “managed.” Innovators will probably develop commercial-scale negative carbon technologies and societies will adapt to sea-level rise by building seawalls, or maybe relocating some communities to safer areas.

Coronavirus offers no such comfort. Unlike the seasonal flu, there is no vaccine (yet). It is difficult to adapt to the Coronavirus threat when you don’t know what to touch, where to go, and if your family members and neighbors are infected. Not to mention, how many rolls of tissue paper you need to stock before the supplies run out at the local grocery store.

Different Incentives to Attack Scientific Knowledge

On Coronavirus, citizens seem to be willing to follow the advice of public health professionals (at least when it comes to social distancing as reflected in empty roads and shopping centers). Every word of Dr. Anthony Fauci counts.

Why has this advice not drawn scorn from politicians who are suspicious of the “deep state”? After all, the same politicians attack scientific consensus on climate change.

Climate skeptics probably see substantial political and economic payoffs by delaying climate action. Stock markets have not penalized climate skepticism in the US: markets hit record high levels in the first three years of the Trump presidency. And, climate opposition is not leading to electoral losses. On the contrary, the climate agendas in liberal states, such as Oregon and Washington, have stalled.  

Nobody seems to gain by attacking scientific consensus to delay policy action on Coronavirus. Airlines, hospitality, and tourism industries, who have taken a direct hit from social-distancing policies, probably want the problem to be quickly addressed so that people can get back to their “normal” lives.

US politicians who talk about the “deep state,” may want Coronavirus issue resolved before the November 2020 election. Attacking science does not further their political objectives. After all, the looming recession and the stock market decline could influence the election outcomes.

Depth, Scale, and Duration of Changes

Climate policy will cause economic and social dislocation. Decarbonization means that some industries will shut down. Jobs will be lost, and communities will suffer unless “just transition” policies are in place.

Coronavirus policies will probably not cause long-term structural changes in the economy. People will resume flying, tourists will flock to Venice, Rome, and Paris, and the basketball arenas will again overflow with spectators.

However, some short-term measures could lead to long-term changes. For example, individuals may realize that telecommuting is easy and efficient. As a result, they may permanently reduce their work-related travel. Coronavirus may provide the sort of a “nudge” that shifts long-term behavioral preferences.

In sum, the contrast between the rapid response to Coronavirus and policy waffling on climate change reveals how citizens think of risk and how this shapes their willingness to incur costs for the collective good. Further, it suggests that politicians respect science when its recommendations serve their political ends.

Nives Dolsak is Stan and Alta Barer Professor in Sustainability Science and Director of the School of Marine & Environmental Affairs. Aseem Prakash is the Walker Family Professor and the Director of the Center for Environmental Politics. Both are at the University of Washington, Seattle.  

Conspiracy theories: how belief is rooted in evolution – not ignorance (The Conversation)

December 13, 2019 9.33am EST – original article

Mikael Klintman PhD, Professor, Lund University

Despite creative efforts to tackle it, belief in conspiracy theories, alternative facts and fake news show no sign of abating. This is clearly a huge problem, as seen when it comes to climate change, vaccines and expertise in general – with anti-scientific attitudes increasingly influencing politics.

So why can’t we stop such views from spreading? My opinion is that we have failed to understand their root causes, often assuming it is down to ignorance. But new research, published in my book, Knowledge Resistance: How We Avoid Insight from Others, shows that the capacity to ignore valid facts has most likely had adaptive value throughout human evolution. Therefore, this capacity is in our genes today. Ultimately, realising this is our best bet to tackle the problem.

So far, public intellectuals have roughly made two core arguments about our post-truth world. The physician Hans Rosling and the psychologist Steven Pinker argue it has come about due to deficits in facts and reasoned thinking – and can therefore be sufficiently tackled with education.

Meanwhile, Nobel Prize winner Richard Thaler and other behavioural economists have shown how the mere provision of more and better facts often lead already polarised groups to become even more polarised in their beliefs.

Tyler Merbler/Flickr, CC BY-SA

The conclusion of Thaler is that humans are deeply irrational, operating with harmful biases. The best way to tackle it is therefore nudging – tricking our irrational brains – for instance by changing measles vaccination from an opt-in to a less burdensome opt-out choice.

Such arguments have often resonated well with frustrated climate scientists, public health experts and agri-scientists (complaining about GMO-opposers). Still, their solutions clearly remain insufficient for dealing with a fact-resisting, polarised society.

Evolutionary pressures

In my comprehensive study, I interviewed numerous eminent academics at the University of Oxford, London School of Economics and King’s College London, about their views. They were experts on social, economic and evolutionary sciences. I analysed their comments in the context of the latest findings on topics raging from the origin of humanity, climate change and vaccination to religion and gender differences.

It became evident that much of knowledge resistance is better understood as a manifestation of social rationality. Essentially, humans are social animals; fitting into a group is what’s most important to us. Often, objective knowledge-seeking can help strengthen group bonding – such as when you prepare a well-researched action plan for your colleagues at work.

But when knowledge and group bonding don’t converge, we often prioritise fitting in over pursuing the most valid knowledge. In one large experiment, it turned out that both liberals and conservatives actively avoided having conversations with people of the other side on issues of drug policy, death penalty and gun ownership. This was the case even when they were offered a chance of winning money if they discussed with the other group. Avoiding the insights from opposing groups helped people dodge having to criticise the view of their own community.

Similarly, if your community strongly opposes what an overwhelming part of science concludes about vaccination or climate change, you often unconsciously prioritise avoiding getting into conflicts about it.

This is further backed up by research showing that the climate deniers who score the highest on scientific literacy tests are more confident than the average in that group that climate change isn’t happening – despite the evidence showing this is the case. And those among the climate concerned who score the highest on the same tests are more confident than the average in that group that climate change is happening.

This logic of prioritising the means that get us accepted and secured in a group we respect is deep. Those among the earliest humans who weren’t prepared to share the beliefs of their community ran the risk of being distrusted and even excluded.

And social exclusion was an enormous increased threat against survival – making them vulnerable to being killed by other groups, animals or by having no one to cooperate with. These early humans therefore had much lower chances of reproducing. It therefore seems fair to conclude that being prepared to resist knowledge and facts is an evolutionary, genetic adaptation of humans to the socially challenging life in hunter-gatherer societies.

Today, we are part of many groups and internet networks, to be sure, and can in some sense “shop around” for new alliances if our old groups don’t like us. Still, humanity today shares the same binary mindset and strong drive to avoid being socially excluded as our ancestors who only knew about a few groups. The groups we are part of also help shape our identity, which can make it hard to change groups. Individuals who change groups and opinions constantly may also be less trusted, even among their new peers.

In my research, I show how this matters when it comes to dealing with fact resistance. Ultimately, we need to take social aspects into account when communicating facts and arguments with various groups. This could be through using role models, new ways of framing problems, new rules and routines in our organisations and new types of scientific narratives that resonate with the intuitions and interests of more groups than our own.

There are no quick fixes, of course. But if climate change were reframed from the liberal/leftist moral perspective of the need for global fairness to conservative perspectives of respect for the authority of the father land, the sacredness of God’s creation and the individual’s right not to have their life project jeopardised by climate change, this might resonate better with conservatives.

If we take social factors into account, this would help us create new and more powerful ways to fight belief in conspiracy theories and fake news. I hope my approach will stimulate joint efforts of moving beyond disputes disguised as controversies over facts and into conversations about what often matters more deeply to us as social beings.

The secret of scientists who impact policy (Science Daily)

For influence, engaging stakeholders is key, study shows

February 21, 2017
University of Vermont
Researchers analyzed 15 policy decisions worldwide, with outcomes ranging from new coastal preservation laws to improved species protections, to produce the first quantitative analysis of how environmental knowledge impacts the attitudes and decisions of conservation policymakers.

Environmental scholars have greater policy influence when they engage directly with stakeholders, a UVM-led study says. Credit: Natural Capital Project

Why does some research lead to changes in public policy, while other studies of equal quality do not?

That crucial question — how science impacts policy — is central to the research of University of Vermont (UVM) Prof. Taylor Ricketts and recent alum Stephen Posner.

According to their findings, the most effective way environmental scholars can boost their policy influence — from protecting wildlife to curbing pollution — is to consult widely with stakeholders during the research process.

Speaking at the American Association for the Advancement of Science annual meeting talk, The Effectiveness of Ecosystem Services Science in Decision-Making, on Feb 18., the team briefed scientists and policy experts on their 2016 study in Proceedings of the National Academy of Sciences (PNAS).

Outreach trumps findings

Surprisingly, the study finds that stakeholder engagement is a better predictor of future policy impacts than perceived scientific credibility, says Ricketts, Director of UVM’s Gund Institute and Gund Professor in the Rubenstein School of Environment and Natural Resources.

The study is the first quantitative analysis of how environmental knowledge impacts the attitudes and decisions of conservation policymakers. Researchers from the UVM, World Wildlife Fund and Natural Capital Project analyzed 15 policy decisions worldwide, with outcomes ranging from new coastal preservation laws to improved species protections.

One hand clapping, academic style

Stephen Posner, a Gund researcher and COMPASS policy engagement associate, characterizes policy-related research without outreach as the academic equivalent of “the sound of one hand clapping.”

“Scholars may have the best policy intentions and important research, but our results suggest that decision-makers are unlikely to listen without meaningful engagement of them and various stakeholders,” he says.

When scholars meet with constituent groups — for example, individual landowners, conservation organizations, or private businesses — it improves policymakers’ perception of scientific knowledge as unbiased and representative of multiple perspectives, the study finds.

“For decision-makers, that made research more legitmate and worthy of policy consideration,” Ricketts adds.

Ways to improve consultation

The research team suggests research institutions offer scholars more time and incentives to improve engagement. They also encourage researchers to seek greater understanding of policy decision-making in their fields, and include stakeholder outreach plans in research projects.

“For those working on policy-related questions, we hope these findings offer a reminder of the value of engaging directly with policy makers and stakeholders, ” Posner says. “This will be crucial as we enter the new political reality of the Trump administration.”

Previous research on science-policy decision-making used qualitative approaches, or focused on a small number of case studies.


The study is called “Policy impacts of ecosystem services knowledge” by Stephen Posner, Emily McKenzie, and Taylor H. Ricketts.

Co-author Emily McKenzie hails from WWF and the Natural Capital Project.

The study used a global sample of regional case studies from the Natural Capital Project, in which researchers used the standardized scientific tool InVest to explore environmental planning and policy outcomes.

Data included surveys of decision-makers and expert review of 15 cases with different levels of policy impact. The forms of engagement studied included emails, phone conversations, individual and group meetings, as well as decision-maker perceptions of the scientific knowledge.

Journal Reference:

  1. Stephen M. Posner, Emily McKenzie, Taylor H. Ricketts. Policy impacts of ecosystem services knowledgeProceedings of the National Academy of Sciences, 2016; 113 (7): 1760 DOI: 10.1073/pnas.1502452113

Researchers say they’ve figured out what makes people reject science, and it’s not ignorance (Science Alert)

Why some people believe Earth is flat.


23 JAN 2017

A lot happened in 2016, but one of the biggest cultural shifts was the rise of fake news – where claims with no evidence behind them (e.g. the world is flat) get shared as fact alongside evidence-based, peer-reviewed findings (e.g. climate change is happening).

Researchers have coined this trend the ‘anti-enlightenment movement‘, and there’s been a lot of frustration and finger-pointing over who or what’s to blame. But a team of psychologists has identified some of the key factors that can cause people to reject science – and it has nothing to do with how educated or intelligent they are.

In fact, the researchers found that people who reject scientific consensus on topics such as climate change, vaccine safety, and evolution are generally just as interested in science and as well-educated as the rest of us.

The issue is that when it comes to facts, people think more like lawyers than scientists, which means they ‘cherry pick’ the facts and studies that back up what they already believe to be true.

So if someone doesn’t think humans are causing climate change, they will ignore the hundreds of studies that support that conclusion, but latch onto the one study they can find that casts doubt on this view. This is also known as cognitive bias.

“We find that people will take a flight from facts to protect all kinds of belief including their religious belief, their political beliefs, and even simple personal beliefs such as whether they are good at choosing a web browser,” said one of the researchers, Troy Campbell from the University of Oregon.

“People treat facts as relevant more when the facts tend to support their opinions. When the facts are against their opinions, they don’t necessarily deny the facts, but they say the facts are less relevant.”

This conclusion was based on a series of new interviews, as well as a meta-analysis of the research that’s been published on the topic, and was presented in a symposium called over the weekend as part of the Society for Personality and Social Psychology annual convention in San Antonio.

The goal was to figure out what’s going wrong with science communication in 2017, and what we can do to fix it.

The research has yet to be published, so isn’t conclusive, but the results suggest that simply focussing on the evidence and data isn’t enough to change someone’s mind about a particular topic, seeing as they’ll most likely have their own ‘facts’ to fire back at you.

“Where there is conflict over societal risks – from climate change to nuclear-power safety to impacts of gun control laws, both sides invoke the mantel of science,” said one of the team, Dan Kahan from Yale University.

Instead, the researchers recommend looking into the ‘roots’ of people’s unwillingness to accept scientific consensus, and try to find common ground to introduce new ideas.

So where is this denial of science coming from? A big part of the problem, the researchers found, is that people associate scientific conclusions with political or social affiliations.

New research conducted by Kahan showed that people have actually always cherry picked facts when it comes to science – that’s nothing new. But it hasn’t been such a big problem in the past, because scientific conclusions were usually agreed on by political and cultural leaders, and promoted as being in the public’s best interests.

Now, scientific facts are being wielded like weapons in a struggle for cultural supremacy, Kahan told Melissa Healy over at the LA Times, and the result is a “polluted science communication environment”.

So how can we do better?

“Rather than taking on people’s surface attitudes directly, tailor the message so that it aligns with their motivation,” said Hornsey. “So with climate skeptics, for example, you find out what they can agree on and then frame climate messages to align with these.”

The researchers are still gathering data for a peer-reviewed publication on their findings, but they presented their work to the scientific community for further dissemination and discussion in the meantime.

Hornsey told the LA Times that the stakes are too high to continue to ignore the ‘anti-enlightenment movement’.

“Anti-vaccination movements cost lives,” said Hornsey. “Climate change skepticism slows the global response to the greatest social, economic and ecological threat of our time.”

“We grew up in an era when it was just presumed that reason and evidence were the ways to understand important issues; not fear, vested interests, tradition or faith,” he added.

“But the rise of climate skepticism and the anti-vaccination movement made us realise that these enlightenment values are under attack.”

Why scientists are losing the fight to communicate science to the public (The Guardian)

Richard P Grant

Scientists and science communicators are engaged in a constant battle with ignorance. But that’s an approach doomed to failure

Syringe and needle.

Be quiet. It’s good for you. Photograph: Gareth Fuller/PA

video did the rounds a couple of years ago, of some self-styled “skeptic” disagreeing – robustly, shall we say – with an anti-vaxxer. The speaker was roundly cheered by everyone sharing the video – he sure put that idiot in their place!

Scientists love to argue. Cutting through bullshit and getting to the truth of the matter is pretty much the job description. So it’s not really surprising scientists and science supporters frequently take on those who dabble in homeopathy, or deny anthropogenic climate change, or who oppose vaccinations or genetically modified food.

It makes sense. You’ve got a population that is – on the whole – not scientifically literate, and you want to persuade them that they should be doing a and b (but not c) so that they/you/their children can have a better life.

Brian Cox was at it last week, performing a “smackdown” on a climate change denier on the ABC’s Q&A discussion program. He brought graphs! Knockout blow.

And yet … it leaves me cold. Is this really what science communication is about? Is this informing, changing minds, winning people over to a better, brighter future?

I doubt it somehow.

There are a couple of things here. And I don’t think it’s as simple as people rejecting science.

First, people don’t like being told what to do. This is part of what Michael Gove was driving at when he said people had had enough of experts. We rely on doctors and nurses to make us better, and on financial planners to help us invest. We expect scientists to research new cures for disease, or simply to find out how things work. We expect the government to try to do the best for most of the people most of the time, and weather forecasters to at least tell us what today was like even if they struggle with tomorrow.

But when these experts tell us how to live our lives – or even worse, what to think – something rebels. Especially when there is even the merest whiff of controversy or uncertainty. Back in your box, we say, and stick to what you’re good at.

We saw it in the recent referendum, we saw it when Dame Sally Davies said wine makes her think of breast cancer, and we saw it back in the late 1990s when the government of the time told people – who honestly, really wanted to do the best for their children – to shut up, stop asking questions and take the damn triple vaccine.

Which brings us to the second thing.

On the whole, I don’t think people who object to vaccines or GMOs are at heart anti-science. Some are, for sure, and these are the dangerous ones. But most people simply want to know that someone is listening, that someone is taking their worries seriously; that someone cares for them.

It’s more about who we are and our relationships than about what is right or true.

This is why, when you bring data to a TV show, you run the risk of appearing supercilious and judgemental. Even – especially – if you’re actually right.

People want to feel wanted and loved. That there is someone who will listen to them. To feel part of a family.

The physicist Sabine Hossenfelder gets this. Between contracts one time, she set up a “talk to a physicist” service. Fifty dollars gets you 20 minutes with a quantum physicist … who will listen to whatever crazy idea you have, and help you understand a little more about the world.

How many science communicators do you know who will take the time to listen to their audience? Who are willing to step outside their cosy little bubble and make an effort to reach people where they are, where they are confused and hurting; where they need?

Atul Gawande says scientists should assert “the true facts of good science” and expose the “bad science tactics that are being used to mislead people”. But that’s only part of the story, and is closing the barn door too late.

Because the charlatans have already recognised the need, and have built the communities that people crave. Tellingly, Gawande refers to the ‘scientific community’; and he’s absolutely right, there. Most science communication isn’t about persuading people; it’s self-affirmation for those already on the inside. Look at us, it says, aren’t we clever? We are exclusive, we are a gang, we are family.

That’s not communication. It’s not changing minds and it’s certainly not winning hearts and minds.

It’s tribalism.

Leading Climate Scientists: ‘We Have A Global Emergency,’ Must Slash CO2 ASAP (Think Progress)

 MAR 22, 2016 2:38 PM


James Hansen and 18 leading climate experts have published a peer-reviewed version of their 2015 discussion paper on the dangers posed by unrestricted carbon pollution. The study adds to the growing body of evidence that the current global target or defense line embraced by the world — 2°C (3.6°F) total global warming — “could be dangerous” to humanity.

That 2°C warming should be avoided at all costs is not news to people who pay attention to climate science, though it may be news to people who only follow the popular media. The warning is, after all, very similar to the one found in an embarrassingly underreported report last year from 70 leading climate experts, who had been asked by the world’s leading nations to review the adequacy of the 2°C target.

Specifically, the new Hansen et al study — titled “Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2 C global warming could be dangerous” — warns that even stabilizing at 2°C warming might well lead to devastating glacial melt, multimeter sea level rise and other related catastrophic impacts. The study is significant not just because it is peer-reviewed, but because the collective knowledge about climate science in general and glaciology in particular among the co-authors is quite impressive.

Besides sea level rise, rapid glacial ice melt has many potentially disastrous consequences, including a slowdown and eventual shutdown of the key North Atlantic Ocean circulation and, relatedly, an increase in super-extreme weather. Indeed, that slowdown appears to have begun, and, equally worrisome, it appears to be supercharging both precipitation, storm surge, and superstorms along the U.S. East Coast (like Sandy and Jonas), as explained here.

It must be noted, however, that the title of the peer-reviewed paper is decidedly weaker than the discussion paper’s “Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2°C global warming is highly dangerous.” The switch to “could be dangerous” is reminiscent of the switch (in the opposite direction) from the inaugural 1965 warning required for cigarette packages, “Caution: Cigarette Smoking May Be Hazardous to Your Health” to the 1969 required label “Warning: The Surgeon General Has Determined that Cigarette Smoking Is Dangerous to Your Health.”

And yes I’m using the analogy to suggest readers should not be sanguine about the risks we face at 2°C warning. Based on both observations and analysis, the science is clearly moving in the direction that 2°C warming is not “safe” for humanity. But as Hansen himself acknowledged Monday on the press call, the record we now have of accelerating ice loss in both Greenland and West Antarctica is “too short to infer accurately” whether the current exponential trend will continue through the rest of the century.

Hansen himself explains the paper’s key conclusions and the science underlying them in a new video:


The fact that 2°C total warming is extremely likely to lock us in to sea level rise of 10 feet or more has been obvious for a while now. The National Science Foundation (NSF) itself issued a news release back in 2012 with the large-type headline, “Global Sea Level Likely to Rise as Much as 70 Feet in Future Generations.” The lead author explained, “The natural state of the Earth with present carbon dioxide levels is one with sea levels about 70 feet higher than now.” Heck, a 2009 paper in Science found the same thing.

What has changed is our understanding of just how fast sea levels could rise. In 2014 and 2015, a number of major studies revealed that large parts of the Antarctic and Greenland ice sheets are unstable and headed toward irreversible collapse — and some parts may have already passed the point of no return. Another 2015 study found that global sea level rise since 1990 has been speeding up even faster than we knew.

The key question is how fast sea levels can rise this century and beyond. In my piece last year on Hansen’s discussion draft, I examined the reasons the Intergovernmental Panel on Climate Change (IPCC) and scientific community have historically low-balled the plausible worst-case for possible sea level rise by 2100. I won’t repeat that all here.

The crux of the Hansen et al. forecast can be found in this chart on ice loss from the world’s biggest ice sheet:

Antarctic ice mass change

Antarctic ice mass change from GRACE satallite data (red) and surface mass balance method (MBM, blue). Via Hansen et al.

Hansen et al. ask the question: if the ice loss continues growing exponentially how much ice loss (and hence how much sea level rise) will there be by century’s end? If, for instance, the ice loss rate doubles every 10 years for the rest of the century (light green), then we would see multi-meter sea level rise before 2100? On the other hand, it is pretty clear just from looking at the chart that there isn’t enough data to make a certain projection for the next eight decades.

The authors write, “our conclusions suggest that a target of limiting global warming to 2°C … does not provide safety.” On the one hand, they note, “we cannot be certain that multi-meter sea level rise will occur if we allow global warming of 2 C.” But, on the other hand, they point out:

There is a possibility, a real danger, that we will hand young people and future generations a climate system that is practically out of their control.
We conclude that the message our climate science delivers to society, policymakers, and the public alike is this: we have a global emergency. Fossil fuel CO2 emissions should be reduced as rapidly as practical.

I have talked to many climate scientists who quibble with specific elements of this paper, in particular whether the kind of continued acceleration of ice sheet loss is physically plausible. But I don’t find any who disagree with the bold-faced conclusions.

Since there are a growing number of experts who consider that 10 feet of sea level rise this century is a possibility, it would be unwise to ignore the warning. That said, on our current emissions path we already appear to be headed toward the ballpark of four to six feet of sea level rise in 2100 — with seas rising up to one foot per decade after that. That should be more than enough of a “beyond adaptation” catastrophe to warrant strong action ASAP.

The world needs to understand the plausible worst-case scenario for climate change by 2100 and beyond — something that the media and the IPCC have failed to deliver. And the world needs to understand the “business as usual” set of multiple catastrophic dangers of 4°C if we don’t reverse course now. And the world needs to understand the dangers of even 2°C warming.

So kudos to all of these scientists for ringing the alarm bell: James Hansen, Makiko Sato, Paul Hearty, Reto Ruedy, Maxwell Kelley, Valerie Masson-Delmotte, Gary Russell, George Tselioudis, Junji Cao, Eric Rignot, Isabella Velicogna, Blair Tormey, Bailey Donovan, Evgeniya Kandiano, Karina von Schuckmann, Pushker Kharecha, Allegra N. Legrande, Michael Bauer, and Kwok-Wai Lo.

O painel do clima quer falar com você (Observatório do Clima)


O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

IPCC faz sua primeira reunião sobre comunicação disposto a mudar a cultura do segredo e a linguagem arcana de seus relatórios – mas esbarra numa estrutura de governança conservadora.

Por Claudio Angelo, do OC, em Oslo –

Luís Bernardo Valença, protagonista do romance Equador, do português Miguel de Souza Tavares, recebe do rei de Portugal uma missão virtualmente impossível: assumir o governo de São Tomé e Príncipe para convencer os compradores ingleses de cacau de que não existe trabalho escravo nas ilhas – e, ao mesmo tempo, garantir que o sistema de trabalho escravo não mude, de forma a não prejudicar a economia local.

A história guarda uma analogia com o momento pelo qual passa o IPCC, o painel do clima da ONU, que na semana passada realizou em Oslo, na Noruega, a primeira reunião de sua história dedicada à comunicação. O comitê internacional de cientistas, agraciado com o Prêmio Nobel da Paz em 2007, reconhece que a forma como se comunica com seus diversos públicos precisa mudar: os sumários de seus relatórios de avaliação são indecifráveis para leigos e para os próprios formuladores de políticas públicas a quem supostamente se dedicam; as decisões são tomadas em reuniões fechadas, o que alimenta rumores de que o painel é ora uma conspiração de ambientalistas para distorcer a ciência, ora uma vítima de ações de governos para aguar conclusões impactantes sobre a gravidade das mudanças do clima; a maneira como a incerteza e o risco são expressos pelo painel é bizantina.

A vontade de abrir-se mais ao público, porém, esbarra no conservadorismo do próprio painel, que preserva um modo de operação da década de 1990, quando lançou seu primeiro relatório de avaliação). Os métodos, as regras e os rituais do IPCC precisam permanecer os mesmos – e seus líderes parecem não querer abrir mão disso. Ao mesmo tempo, eles mesmos pedem mais transparência e mais acessibilidade. Qual é a chance de isso dar certo?

O próprio encontro de Oslo pode ser um termômetro. Foram convidados a participar cerca de 50 especialistas em comunicação do mundo inteiro e mais duas dezenas de autoridades do próprio painel. A reunião foi a primeira em toda a história do IPCC a ser transmitida ao vivo pela internet. Mas isso que só aconteceu depois da cobrança de algumas personalidades da área, como o jornalista americano Andrew Revkin. Ela foi aberta também pela internet pelo presidente do painel, o sul-coreano Hoesung Hwang. Os co-presidentes dos três grupos de trabalho que cuidam de avaliar os três grandes aspectos da mudança do clima (a base física, impactos e vulnerabilidades e mitigação) estiveram presentes o tempo todo, assim como dois dos três vice-presidentes, a americana Ko Barrett e o malês Youba Sokona. Cientistas que coordenaram a produção do AR5, o quinto relatório do IPCC, também estiveram nos dois dias de encontro.

Um consenso importante formado em Oslo foi que a comunicação precisa integrar o processo de produção dos relatórios desde o início. O modelo atual seguido pelo IPCC consiste em preparar primeiro os relatórios e então divulgá-los aos diversos públicos – tomadores de decisão, imprensa e o público geral. É o que Paul Lussier, especialista em mídia da Universidade Yale, chamou de “passar batom num porco” durante sua apresentação.

Enfeitar o suíno, até aqui, tem sido a receita para o fiasco de comunicação do painel. Isso foi mais ou menos matematicamente demonstrado pelo cientista ambiental português Suraje Dessai, professor da Universidade de Leeds, no Reino Unido, e coautor do AR5 (Quinto Relatório de Avaliação do IPCC, publicado entre 2013 e 2014). Uma análise dos sumários do IPCC conduzida por Dessai e colegas com a ajuda de softwares que olham simplicidade e legibilidade foi publicada no ano passado no periódico Nature Climate Change. O trabalho mostrou que não apenas o IPCC é menos legível do que outras publicações científicas, como também o grau de compreensibilidade dos sumários despencou de 1990 para cá.

Uma das recomendações feitas ao final do encontro, e que serão encaminhadas à plenária do IPCC em abril, é para que se incorporem comunicadores profissionais, jornalistas de ciência, psicólogos e antropólogos desde a chamada fase de “definição do escopo” dos relatórios. Isso começaria no AR6, o Sexto Relatório de Avaliação do IPCC, que deverá ser publicado em algum momento entre 2020 e 2022. Essa própria definição, que hoje é feita pelas autoridades do painel e pelos governos, poderá vir a ser realizada numa espécie de consulta pública – na qual diferentes atores, desde a sociedade civil até empresários e mesmo crianças, digam o que querem que o painel avalie sobre a mudança climática. Tamanha abertura seria uma revolução no IPCC, rompendo a lógica professoral que impera hoje na definição das perguntas às quais os relatórios tentam responder.

Outra sugestão, apresentada por um grupo que discutiu as relações entre o IPCC e os meios de comunicação, foi para que os rascunhos dos sumários executivos sejam abertos para o público antes da aprovação final pelos governos. Cada sumário passa por uma série de rascunhos até chegar ao formato final de revisão, que é enviado aos governos para comentários. Os sumários são aprovados por governos e cientistas na plenária do IPCC, onde recebem alterações finais. A regra é que os governos modifiquem muito o texto, mas – e este é um “mas” importante, porque é o que define a credibilidade do IPCC – a palavra final é sempre dos cientistas.

Os rascunhos hoje não são públicos, mas qualquer pessoa pode solicitar ao IPCC fazer parte do comitê de revisores – e ganham, assim, acesso aos documentos. Em 2013, um negacionista do clima vazou em seu blog uma versão do AR5, alegando que o painel estava escondendo evidências de que o aquecimento global se devia a raios cósmicos (não estava). A proposta apresentada em Oslo foi para que os rascunhos de revisão fossem tornados públicos, de forma a minimizar o impacto de vazamentos e a conter desinformação na imprensa.

Outras recomendações feitas em Oslo vão de dar ao site do IPCC uma nova interface pública até produzir infográficos animados da ciência avaliada pelos relatórios.

Na prática, porém, a teoria é outra: um dos dogmas do IPCC é que ele não pode produzir prescrições políticas, ou seja, precisa se limitar a dizer aos países o que acontece com o mundo em cada cenário de emissões e o que é preciso fazer para atingir níveis de emissão x, y ou z no futuro. A rigor, o painel do clima não pode incitar as pessoas a combater a mudança climática – isso seria uma posição de militância. Pior, entre os mais de 150 governos que integram o IPCC e de fato mandam nele (daí a sigla significar Painel Intergovernamental sobre Mudanças Climáticas) há os que não querem resolver o problema, porque vivem da sua causa – os combustíveis fósseis. Essas são amarras importantes à comunicação.

Outro problema é que o IPCC ainda vive no século XX, num sentido bem real. Enquanto a comunicação hoje é digital, o painel do clima decidiu, por consenso, que seus relatórios são aprovados linha por linha pelos governos – e isso significa caneta e papel. Não há nem sequer método para submeter um infográfico animado à plenária, caso alguém ache que é o caso usar esse tipo de recurso no AR6. Sugestões de ter uma equipe de vídeo acompanhando o “making of” dos relatórios foram rejeitadas no passado, porque algumas pessoas no painel não queriam que ninguém ficasse “espionando” seu trabalho. E por aí vai.

O IPCC foi criado em 1988, mas só ganhou uma estratégia de comunicação em 2012. Tem um longo aprendizado pela frente e precisa começar de algum lugar. Pessoas com quem conversei em Oslo disseram duvidar que a maior parte das recomendações seja acatada. Mas é auspicioso, num momento em que o mundo se prepara para implementar o Acordo de Paris, que o templo do conhecimento climático esteja disposto a embarcar na tarefa da comunicação. Ela é mais necessária do que nunca agora. (Observatório do Clima/ #Envolverde)

* O jornalista viajou a convite do IPCC.

** Publicado originalmente no site Observatório do Clima.

Meteorologista da Funceme. “A gente fica feliz com essas chuvas” (O Povo)


DOM 24/01/2016

De acordo com o meteorologista da Funceme Raul Fritz, vórtice ciclônico, característico da pré-estação chuvosa, pode render chuvas intensas em janeiro, como ocorreu no ano de 2004

Luana Severo,


Segundo Fritz, a ciência climática não chegou a um nível tão preciso para ter uma previsão confiável 


“Nós não queremos ser Deus, apenas tentamos antecipar o que pode acontecer”. Nascido em Natal, no Rio Grande do Norte, Raul Fritz, de 53 anos, é supervisor da unidade de Tempo e Clima da Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme). Ele, que afirmou não querer tomar o lugar de Deus nas decisões sobre o clima, começou a trabalhar para a Funceme em 1988, ainda como estagiário, pouco após uma estiagem que se prolongou por cinco anos no Estado, entre 1979 e 1983.

Os anos de prática e a especialização em meteorologia por satélite conferem a Fritz a credibilidade necessária para, por meio de mapas, equações numéricas e o comportamento da natureza, estimar se chove ou não no semiárido cearense. Ele compôs, portanto, a equipe de meteorologistas da Fundação que, na última quarta-feira, 20, previu 65% de chances de chuvas abaixo da média entre os meses de fevereiro e abril deste ano prognóstico que, se concretizado, fará o Ceará completar cinco anos de seca.

Em entrevista ao O POVO, ele detalha o parecer, define o sistema climático cearense e comenta sobre a conflituosa relação entre a Funceme e a população, que sustenta o hábito de desconfiar de todas as previsões do órgão, principalmente porque, um dia após a divulgação do prognóstico, o Estado foi tomado de susto por uma intensa chuvarada.

O POVO – Mesmo com o prognóstico desanimador de 65% de chances de chuvas abaixo da média entre os meses de fevereiro e abril, o cearense tem renovado a fé num “bom inverno” devido às recentes precipitações influenciadas pelo Vórtice Ciclônico de Altos Níveis (VCAN). Há a possibilidade de esse fenômeno perdurar?

Raul Fritz – Sim. Esse sistema que está atuando agora apresenta maior intensidade em janeiro. Ele pode perdurar até meados de fevereiro, principalmente pelas circunstâncias meteorológicas atmosféricas que a gente vê no momento.

OP – Por que o VCAN não tem relação com a quadra chuvosa?

Raul – A quadra chuvosa é caracterizada pela atuação de um sistema muito importante para o Norte e o Nordeste, que é a Zona de Convergência Intertropical (ZCI). É o sistema que traz chuvas de forma mais regular para o Estado. O vórtice é muito irregular. Tem anos em que ele traz boas chuvas, tem anos em que praticamente não traz.

OP – O senhor consegue lembrar outra época em que o VCAN teve uma atuação importante em relação às chuvas?

Raul – Em 2004, houve muita chuva no período de janeiro. Em fevereiro também tivemos boas chuvas, mas, principalmente, em janeiro, ao ponto de encher o reservatório do Castanhão, que tinha sido recém-construído. Mas, os meses seguintes a esses dois não foram bons meses de chuva, então é possível a gente ter esse período de agora bastante chuvoso, seguido de chuvas mais escassas.

OP – O que impulsiona o quadro de estiagem
no Ceará?

Raul – Geograficamente, existem fatores naturais que originam um estado climático de semiaridez. É uma região que tem uma irregularidade muito grande na distribuição das chuvas, tanto ao longo do território como no tempo. Chuvas, às vezes, acontecem bem num período do ano e ruim no seguinte, e se concentram no primeiro semestre, principalmente entre fevereiro e maio, que a gente chama de ‘quadra chuvosa’. Aí tem a pré-estação que, em alguns anos, se mostra boa. Aparenta ser o caso deste ano.

OP – A última seca prolongada no Ceará, que durou cinco anos, ocorreu de 1979 a 1983. Estamos, atualmente, seguindo para o mesmo quadro. O que é capaz de interromper esse ciclo?

Raul – O ciclo geralmente não ultrapassa ou tende a não ultrapassar esse período. A própria variabilidade climática natural interrompe. Poucos casos chegam a ser tão extensos. É mais frequente de dois a três anos. Mas, às vezes, podem se estender a esses dois exemplos, de cinco anos seguidos de chuvas abaixo da média. Podemos ter, também, alguma influência do aquecimento global, que, possivelmente, perturba as condições naturais. Fenômenos como El Niños intensos contribuem. Quando eles chegam e se instalam no Oceano Pacífico, tendem a ampliar esse quadro grave de seca, como é o caso de agora. Esse El Niño que está atuando no momento é equivalente ao de 1997 e 1998, que provocou uma grande seca.

OP – É uma tendência esse panorama de grandes secas intercaladas?

Raul – Sim, e é mais frequente a gente ter anos com chuvas entre normal e abaixo da média, do que anos acima da média.

OP – A sabedoria popular, na voz dos profetas da chuva, aposta em precipitações regulares este ano. Em que ponto ela converge com o conhecimento científico?

Raul – O profeta da chuva percebe, pela análise da natureza, que os seres vivos estão reagindo às condições de tempo e, a partir disso, elabora uma previsão de longo prazo, que é climática. Mas, essa previsão climática pode não corresponder exatamente a um prolongamento daquela variação que ocorreu naquele momento em que ele fez a avaliação. Se acontecer, ele acha que acertou a previsão de clima. Se não, ele considera que errou. Mas, pode coincidir que essa variação a curto prazo se repita e se transforme em longo prazo. Aí é o ponto em que converge. A Funceme tenta antecipar o que pode acontecer num prazo maior, envolvendo três meses a frente. É um exercício muito difícil.

OP – Geralmente, há uma descrença da população em torno das previsões da Funceme. Como desmistificar isso?

Raul – A previsão oferece probabilidades e qualquer uma delas pode acontecer, mas, a gente indica a mais provável. São três que nós lançamos. Acontece que a população não consegue entender essa informação, que é padrão internacional de divulgação. Acha que é uma coisa determinística. Que, se a Funceme previu como maior probabilidade termos chuvas abaixo da média em certo período, acha que já previu seca. Mas, a mais provável é essa mesmo, até para alertar às pessoas com atividades que dependem das chuvas e ao próprio Governo a tomarem precauções, se prevenirem e não só reagirem a uma seca já instalada.

OP – A Funceme, então, também se surpreende com as ocorrências de menor probabilidade, como o VCAN?

Raul – Sim, porque esses vórtices são de difícil previsibilidade. A ciência não conseguiu chegar num nível de precisão grande para ter uma previsão confiável para esse período (de pré-estação chuvosa). De qualquer forma, nos é exigido dar alguma ideia do que possa acontecer. É um risco muito grande que a Funceme assume. A gente sofre críticas por isso. Por exemplo, a gente lançou a previsão de chuvas abaixo da média, aí no outro dia vem uma chuva muito intensa. As pessoas não compreendem, acham que essas chuvas do momento vão se prolongar até o restante da temporada. Apesar da crítica da população, que chega até a pedir para fechar o órgão, a gente fica feliz com a chegada
dessas chuvas.


“A gente lançou a previsão de chuvas abaixo da média, aí no outro dia vem uma chuva muito intensa. As pessoas não compreendem, acham que essas chuvas do momento vão se prolongar até o restante da temporada”

Raul Fritz, meteorologista da Funceme


Raul Fritz, o cientista da chuva


Nascido em Natal, no Rio Grande do Norte, Raul Fritz, de 53 anos, é supervisor da unidade de Tempo e Clima da Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme). Ele começou a trabalhar para a Funceme em 1988, ainda como estagiário, pouco após uma estiagem que se prolongou por cinco anos no Estado, entre 1979 e 1983.

Com ajuda da ciência (Revista Fapesp)

Experiências internacionais inspiram governo de São Paulo a criar cargo de cientista-chefe em secretarias estaduais


030-035_Cientistas chefes_236Uma medida inédita no país anunciada pelo governo do estado de São Paulo pretende aproximar ciência e gestão pública. Até o início de 2016, cada secretaria estadual deverá contar com um cientista-chefe, cuja função principal será apontar as melhores soluções baseadas no conhecimento científico para enfrentar desafios da respectiva pasta. O anúncio foi feito por Márcio França, vice-governador e secretário estadual de Desenvolvimento Econômico, Ciência, Tecnologia e Inovação, na abertura do Fórum Nacional das Fundações Estaduais de Amparo à Pesquisa (Confap), realizado em 27 e 28 de agosto, na capital paulista. A iniciativa é inspirada no modelo de aconselhamento científico praticado em diferentes níveis de governo em países como Estados Unidos, Reino Unido e Israel.

A iniciativa começou a amadurecer em uma reunião do Conselho Superior da FAPESP, no dia 18 de março, da qual o vice-governador participou como convidado. Na ocasião, França mencionou a dificuldade de identificar pesquisadores com ideias para auxiliar a gestão pública. A sugestão de criar a função de cientista-chefe partiu de Carlos Henrique de Brito Cruz, diretor científico da Fundação. “O professor Brito citou a experiência de países europeus, entre eles o Reino Unido, que criaram o cargo de cientista-chefe em suas estruturas de governo para auxiliar ministros, primeiros-ministros ou presidentes a tomar decisões”, relata Fernando Costa, professor da Universidade Estadual de Campinas (Unicamp) e membro do Conselho Superior da FAPESP, um dos presentes à reunião.

No encontro, Brito Cruz explicou ao vice-governador que cerca de 55% dos recursos da FAPESP são investidos em pesquisas voltadas para aplicações, e Eduardo Moacyr Krieger, vice-presidente da instituição, acrescentou que quase 30% dos investimentos da Fundação são direcionados para a área da saúde e podem beneficiar diretamente ações da Secretaria da Saúde. “Outros campos, como agricultura, educação e segurança pública, também deveriam aproveitar mais a contribuição de pesquisadores”, afirma Krieger. Márcio França gostou da sugestão. “Pensei: por que não aprimorar o diálogo com a comunidade científica por meio de uma fundação como a FAPESP?”, recorda-se o vice-governador, que levou a ideia ao governador Geraldo Alckmin e recebeu sinal verde para implementá-la.

Robin Grimes, do governo britânico, em visita ao campus da Universidade de Nottingham na Malásia, em 2013 (acima, de gravata);

Robin Grimes, do governo britânico, em visita ao campus da Universidade de Nottingham na Malásia, em 2013 (acima, de gravata)

“Essa medida não significa que o governo de São Paulo não vem ouvindo a comunidade científica”, observa Marilza Vieira Cunha Rudge, vice-reitora da Universidade Estadual Paulista (Unesp), também membro do Conselho Superior da FAPESP. Segundo ela, o objetivo é fazer com que os conhecimentos gerados em universidades e instituições de pesquisa do estado sejam absorvidos rapidamente pela administração pública. Uma minuta do decreto está sendo redigida com assessoria da Fundação. Um dos objetivos é que os cientistas-chefes ampliem a aplicação de resultados de pesquisas, entre as quais as apoiadas pela FAPESP, sugerindo articulações com projetos em andamento e propondo novos projetos.

O governo analisa agora os detalhes da iniciativa. O primeiro passo será selecionar os cientistas-chefes que atuarão nas secretarias. Segundo França, o mais provável é que se convidem professores vinculados às três universidades estaduais paulistas – a de São Paulo (USP), a Unicamp e a Unesp – que poderiam ou não se licenciar. Também se discute qual seria o prazo mais adequado para o seu mandato. Para França, uma coisa é certa: os cientistas-chefes terão muito trabalho. “Os problemas e os desafios surgem aos montes na administração pública. Todos os dias e nas mais diversas áreas”, observa o vice-governador.

A bússola que orienta os caminhos futuros é a dos exemplos internacionais. Em setembro de 2014, o presidente dos Estados Unidos, Barack Obama, ofereceu um prêmio de US$ 20 milhões para o grupo de pesquisa que conseguir desenvolver o melhor teste de diagnóstico capaz de reconhecer rapidamente infecções causadas por bactérias resistentes a antibióticos. Segundo informações do Centro para Controle e Prevenção de Doenças (CDC), essas infecções são responsáveis pela morte anual de 23 mil norte-americanos. A ação foi motivada por uma avaliação encomendada pela Casa Branca ao Conselho de Ciência e Tecnologia (PCAST), formado por cerca de 20 especialistas, entre ganhadores de Prêmio Nobel e representantes do setor industrial. O grupo é comandado por John Holdren, professor da Universidade Harvard e conselheiro científico de Obama.

John Holdren, cientista-chefe dos Estados Unidos, que aconselha o presidente Obama (abaixo)

Os Estados Unidos têm tradição em aconselhamento científico. Em 1933, o presidente Franklin Roosevelt criou um comitê consultivo formado por cientistas, engenheiros e profissionais da saúde para assessorá-lo. Em 1957, o país foi o primeiro a nomear um cientista-chefe para trabalhar na Casa Branca. Logo departamentos e autarquias passaram a contar com a consultoria de especialistas. Em 1998, a então secretária de Estado, Madeleine Albright, encomendou um relatório para as Academias Nacionais de Ciências dos Estados Unidos sobre o suporte que a ciência poderia dar em assuntos relativos à política externa. A recomendação foi que ela escolhesse um assessor científico. “Minha tarefa é ajudar o governo a aproveitar os recursos da ciência e da tecnologia para embasar a política externa”, disse à Pesquisa FAPESP Vaughan Turekian, assessor científico de John Kerry, o atual secretário de Estado. Ex-diretor internacional da Associação Americana para o Avanço da Ciência (AAAS), Turekian conta que foi submetido a um rigoroso processo de análise de suas credenciais científicas. “O assessor é nomeado por um período determinado. Isso é intencional. Convém lembrar que o cargo não é uma indicação política”, esclarece.

Outra referência é o Reino Unido, que criou o cargo em 1964. A função de cientista-chefe é desempenhada hoje pelo imunologista Mark Walport, ex-diretor do Wellcome Trust, fundação que financia pesquisa biomédica. Desde 2013, Walport assessora o premiê David Cameron. Um dos primeiros temas tratados por Walport no governo foi o da experimentação animal. Em 2014, após estatísticas mostrarem que o número de animais utilizados em testes pré-clínicos aumentou nos últimos anos no Reino Unido, o governo anunciou medidas para reduzir ou substituir seu uso. Walport atuou como ponte entre o governo e a comunidade científica. Reconheceu a necessidade de mudanças, mas salientou que a abolição de animais em estudos científicos ainda é inviável.

Walport também preside o Conselho de Ciência e Tecnologia (CST), ligado ao Departamento de Negócios, Inovação e Capacitação do Reino Unido. O órgão dispõe de uma divisão de especialistas que forma o Grupo de Aconselhamento Científico para Emergências (Sage). A equipe foi acionada em 2010, quando cinzas de um vulcão na Islândia afetaram o espaço aéreo do Reino Unido, e em 2011, após o incidente nuclear de Fukushima, no Japão.

Mark Walport, cientista-chefe do Reino Unido, em visita a centro de pesquisa no Quênia, em julho (primeiro à esquerda na foto ao lado)

O Reino Unido conta com cientistas-chefes em departamentos e ministérios. “Há uma rede de conselheiros científicos dentro do governo. Isso aproximou ainda mais os diferentes ministérios. O professor Walport organiza uma reunião semanal com os conselheiros, que discutem juntos as prioridades de cada área”, disse à Pesquisa FAPESP Robin Grimes, conselheiro-chefe para assuntos científicos do Ministério das Relações Exteriores do Reino Unido. “Acredito que São Paulo conseguirá se articular melhor com a ciência ao adotar essa medida, além de obter acesso a conceituadas redes de pesquisadores no Brasil e no mundo”, afirmou Grimes.

Para James Wilsdon, especialista em política científica da Universidade de Sussex, Inglaterra, esses exemplos ajudaram outros países a criar modelos de aconselhamento científico adaptados a suas realidades. “Há uma grande variedade de temas que demandam o olhar da ciência, como mudanças climáticas, pandemias, segurança alimentar e pobreza”, explica Wilsdon em um relatório apresentado na conferência da Rede Internacional para Aconselhamento Científico a Governos (INGSA), realizada em agosto de 2014 em Auckland, na Nova Zelândia. A entidade reúne tomadores de decisão e pesquisadores com o objetivo de compartilhar experiências e discutir a utilização de informações científicas em governos. O documento apresenta uma avaliação dos modelos de aconselhamento adotados em 20 países. Além dos exemplos clássicos, são apresentados casos de países que criaram recentemente o cargo, como a Nova Zelândia, cujo primeiro cientista-chefe, Peter Gluckman, foi nomeado em 2009.

O estudo mostra que alguns países optaram por formas de aconselhamento não atreladas à figura de um cientista-chefe. No Japão, o Conselho de Ciência, Tecnologia e Inovação (CSTI) é um dos quatro conselhos que auxiliam o gabinete do primeiro-ministro. Ele é formado pelo primeiro-ministro, seis ministros de Estado e representantes da comunidade científica e do setor industrial. Já países como China, Alemanha, Holanda e África do Sul aproveitam a expertise das entidades representativas da comunidade científica. A Sociedade Alemã de Pesquisas Científicas (DFG), agência não governamental de apoio à pesquisa, é consultada pelo governo e ajuda a elaborar políticas públicas. “Fazemos declarações em comissões do
Senado e temos interação direta com o governo”, diz Dietrich Halm, diretor-presidente da DFG para a América-Latina. Segundo Wilsdon, uma das vantagens desse modelo é que os pesquisadores gozam de independência em relação ao governo.

Peter Gluckman, cientista-chefe do primeiro-ministro da Nova Zelândia

Na região da América-Latina e Caribe, o relatório do fórum de aconselhamento científico cita os exemplos de Cuba e El Salvador. No modelo cubano, há um escritório de aconselhamento científico vinculado ao conselho de Estado, formado por 31 membros. Embora o Brasil nunca tenha contado com a figura do cientista-chefe, a administração pública no país criou mecanismos de articulação com pesquisadores. “Informalmente, o governo federal é aconselhado pela comunidade científica em vários temas”, disse Aldo Rebelo, então ministro da Ciência, Tecnologia e Inovação (MCTI). “No meu caso, mantive contato com a Academia Brasileira de Ciências (ABC), com a Sociedade Brasileira para o Progresso da Ciência (SBPC) e com sociedades científicas.” Segundo o vice-presidente da FAPESP, Eduardo Moacyr Krieger, que também foi presidente da ABC, a atuação do cientista-chefe deve complementar o trabalho que as academias de ciências desenvolvem. “As recomendações dadas pelas academias aos governos estão no plano macro. Já o cientista-chefe está no plano da implementação e do detalhamento do que deve ser feito no cotidiano da administração pública”, diz ele.

No estado de São Paulo a assessoria científica ao governo já era praticada em situações específicas, mesmo sem a presença de cientistas-chefes. É o caso da interlocução entre especialistas ligados ao Programa Biota-FAPESP e a Secretaria Estadual do Meio Ambiente. Desde o lançamento do programa em 1999, 23 resoluções e decretos estaduais mencionam resultados do Biota como referência para a tomada de decisões. Há um canal de diálogo com gestores das unidades de conservação onde são desenvolvidos projetos. “Os pesquisadores costumam ser membros de conselhos consultivos de parques estaduais e outras áreas protegidas”, observa Carlos Joly, professor da Unicamp e coordenador do programa. Os especialistas vinculados ao Biota também trabalham em parceria com instituições ligadas à secretaria, como o Instituto de Botânica, o Instituto Florestal e a Fundação Florestal. E o próprio gabinete da secretária do Meio Ambiente, Patricia Faga Iglecias Lemos, acompanha a produção científica do programa.

Outra experiência é a do Conselho Estadual de Ciência, Tecnologia e Inovação em Saúde, criado em 2014 para assessorar a Secretaria da Saúde na formulação e condução de políticas. O órgão é composto por representantes de universidades públicas instaladas em São Paulo, institutos, centros de pesquisa, hospitais e entidades ligadas ao setor industrial. “Atualmente, o conselho discute a proposta de criação de uma política estadual de ciência, tecnologia e inovação em saúde”, explica Sergio Swain Muller, presidente do conselho. “Já realizamos oficinas, ouvimos a contribuição das universidades e estamos preparando um documento com diagnósticos e ações para a consolidação desse plano.” Cabe também ao conselho auxiliar na definição de prioridades para o próximo edital do Programa de Pesquisa para o Sistema Único de Saúde (PPSUS), conduzido pela FAPESP em parceria com a Secretaria da Saúde, o Ministério da Saúde e o CNPq. “Uma das prioridades é apoiar pesquisas sobre novos mecanismos de gestão pública da saúde”, diz Muller. Já no âmbito da Secretaria Estadual de Agricultura e Abastecimento foi criada em 2002 a Agência Paulista de Tecnologia dos Agronegócios (Apta), que atua na coordenação de pesquisas de interesse da pasta. Sua estrutura compreende os institutos Agronômico (IAC), Biológico, de Economia Agrícola, de Pesca, de Tecnologia de Alimentos e o de Zootecnia, além de 15 polos regionais de pesquisa.

e Vaughan Turekian, assessor direto de John Kerry, secretário de Estado norte-americano

“Prospectamos estudos capazes de resolver problemas enfrentados por agricultores e os encaminhamos para a secretaria”, diz Orlando Melo de Castro, coordenador da Apta. Um dos desafios da secretaria cuja solução vem sendo debatida entre os institutos abrigados pela agência é tornar a cana-de-açúcar mais resistente à seca. “O IAC foi procurado, porque já trabalha nesse assunto, inclusive em parceria com usinas localizadas em Goiás, onde há um período de seca prolongado. A ideia é aproveitar essas pesquisas em programas da secretaria”, explica Castro.

Para o sociólogo Simon Schwartzman, estudioso da comunidade científica brasileira e pesquisador do Instituto de Estudos do Trabalho e Sociedade, o país não tem tradição no uso da ciência por gestores públicos. “Claro, há exceções”, pondera. “O Ministério da Saúde conta com um centro de pesquisas próprio, o Instituto Oswaldo Cruz, assim como acontece com o Ministério da Agricultura, que tem a ajuda da Embrapa.” Carlos Joly recorda-se que a comunidade científica costumava impor barreiras na hora de se sentar à mesa com políticos. “Colaborei como assessor de meio ambiente na elaboração da Constituição Federal de 1988. Na época, fui criticado por colegas, que pensavam que cientista não deveria se envolver com assuntos da política”, conta. Em 1995, Joly foi convidado pelo então secretário de Meio Ambiente do estado de São Paulo, Fábio Feldmann, a trabalhar como seu assessor. “Naquele momento isso já não foi visto como algo incomum. Aos poucos os pesquisadores se deram conta da importância de trabalhar em colaboração com gestores públicos”, afirma Joly.

O climatologista Carlos Nobre, presidente da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), guarda na memória histórias da relação tensa entre políticos e cientistas. Em 1998, Nobre e sua equipe do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) encaminharam ao governo federal e ao Congresso um parecer prevendo uma seca de grande intensidade no Nordeste nos meses seguintes, em decorrência do El Niño. “Ninguém nos ouviu”, lembra Nobre. “Acho que não acreditavam, na época, que fosse possível fazer previsão de secas de qualidade com base em modelos matemáticos.”

O vice-governador Márcio França reconhece que há pontos de tensão quando políticos e cientistas se encontram. “A questão é que nem sempre o consenso científico é financeira e politicamente viável naquele momento”, diz ele. Para Carlos Nobre, que já ocupou cargos de gestão de política científica no MCTI e integra o corpo de especialistas do fórum global de aconselhamento científico, ainda assim a situação é melhor hoje. “Ambos os lados perceberam que a solução de problemas como secas e desastres naturais dependem de ações conjuntas”, afirma.

Autora do livro The fifth branch: science advisers as policymakers e de artigos que abordam a relação entre ciência, democracia e política, a norte-americana Sheila Jasanoff, da Universidade Harvard, adverte que o aconselhamento científico a governos exige muitos julgamentos. “Requer a tomada de decisões sobre, por exemplo, se é melhor correr um risco ou se precaver. É preciso saber como pesar as diversas evidências”, explica. Segundo ela, o aconselhamento pode de fato auxiliar os gestores. “Mas os órgãos científicos consultivos precisam operar de forma aberta e transparente. Isso é exigido por lei nos Estados Unidos”, explica. Em 2010, o governo britânico divulgou um documento no qual recomenda que os níveis de incerteza presentes em torno de questões científicas sejam explicitamente identificados nos pareceres enviados a gestores públicos, comunicados em linguagem simples e direta.

Why Communicating About Climate Change Is so Difficult: It’s ‘The Elephant We’re All Inside of’ (Huffington Post)

Jim Pierobon

Posted: 02/05/2015 8:48 pm EST Updated: 02/05/2015 8:59 pm EST

How stakeholders communicate about climate change has long been framed by who’s doing the framing as much, or more so, than the information being communicated. So I am forever curious how various stakeholders — believers, skeptics and deniers alike — are talking about it and who, if anybody, is “moving the needle” in either direction.

One of the most salient and recent inputs to the climate communications conundrum is Don’t Even Think About It — Why Our Brains Are Wired To Ignore Climate Change, by George Marshall in Oxford, England.

Marshall’s work deserves to be spotlighted for how it illuminates why skeptics and deniers alike will not be moved to engage in thoughtful exchanges unless those communicating respect certain tenets of what academic and nonprofit research are finding.

Marshall draws on the efforts of the climate information network (COIN) he co-founded along with research by two leading university-based centers: the Project on Climate Change Communications at Yale University in Princeton, NJ and the Center for Climate Change Communications at George Mason University in Fairfax, VA.

George Marshall is the co-founder of the Climate Outreach and Information Network, a nonprofit organization that specializes in public communication around climate change.

Marshall also taps into the works of authorities who’ve written and/or spoken extensively about climate change, such as Harvard Professor of Psychology Daniel Gilbert, GOP pollster Frank Luntz, Princeton Psychology and Public Affairs Professor Daniel Kahneman, former South Carolina Congressman Bob Inglis, Associate Professor of Sociology at University of Oregon Kari Norgaard and ABC-TV network correspondent Bill Blakemore.

Perhaps it would behoove those preparing for the upcoming United Nations Climate Change Conference of the Parties, aka COP21, in Paris November 30 – December 11, 2015 to heed much of what Marshall and other top-tier researchers are finding and sharing if they are serious about forging a legally binding and universal agreement on climate.

Here is my synthesis of the most illuminating take-a-ways from Marshall’s book. I offer it as a checklist with which to gauge climate communications efforts, regardless of which — if any — side of the issue you’re on. Be sure to share your thoughts.

  • Perceptions are shaped by individual psychological coping mechanisms and the collective narratives that they shape with the people around them.
  • A compelling emotional story that speaks to peoples’ core values has more impact than rational scientific data such as hotter global temperatures and rising sea levels.
  • People’s social identity has an extraordinary hold over their behaviors and views.
  • Drawing too much attention to an undesirable norm (e.g. catastrophic weather) can seriously backfire.
  • In high-carbon societies, EVERYone has a strong reason to ignore the problem or to write their own alibi. What might work better are narratives based on cooperation, mutual interests and a common humanity.
  • The real story is about our fear, denial and struggle to accept our own responsibility. “Climate change isn’t the elephant in the room; it’s the elephant we’re all inside of,” said ABC’s Bill Blakemore.
  • Our brains are UNsuited to deal with climate change unless the threats are personal, abrupt, immoral and immediate. A distant, abstract and disputed threat does not have the necessary characteristics for seriously mobilizing public opinion.
  • Without a clear deadline for action, we create our own timeline. We do so in ways that remove the compulsion to act. We make it just current enough to accept that something needs to be done but put it just too far into the future to require immediate action.

We’d all benefit the most from: what models for communicating about climate change are working, and which ones are not?

  • The messenger is more important than the message. The messenger can be the most important — but also the weakest link — between scientific information and personal conviction. Building on that, to break the partisan “deadlock” and public disinterest starts, Marshall asserts educational efforts need to create the means for new messengers to be heard.
  • There may be lessons learned from the campaign by oil giant BP in the early 2000s offering person-on-the-street testimonials about the need to deal with climate change. Full disclosure: While a Senior Vice President of Public Affairs with Ogilvy Public Relations Worldwide from 2001-2006, I helped develop and execute elements of BP’s “Beyond Petroleum” campaign.
  • Until the economy is back on a strong growth track, climate change advocates will struggle to earn attention in their home countries as long as bread-and-butter ‘pocketbook’ issues are more important to an overwhelming majority of citizens.

See George Marshall in action from this recent interview on TalkingStickTV via YouTube.

While we’re on the subject, I recommend reading the excellent work by the MacArthur Foundation’s “Connecting on Climate” guide completed in 2014. It includes 10 principles for effective climate change communication based on research from various social science fields.

What to Call a Doubter of Climate Change? (New York Times)

The words are hurled around like epithets.

People who reject the findings of climate science are dismissed as “deniers” and “disinformers.” Those who accept the science are attacked as “alarmists” or “warmistas. ” The latter term, evoking the Sandinista revolutionaries of Nicaragua, is perhaps meant to suggest that the science is part of some socialist plot.

In the long-running political battles over climate change, the fight about what to call the various factions has been going on for a long time. Recently, though, the issue has taken a new turn, with a public appeal that has garnered 22,000 signatures and counting.

The petition asks the news media to abandon the most frequently used term for people who question climate science, “skeptic,” and call them “climate deniers” instead.

Climate scientists are among the most vocal critics of using the term “climate skeptic” to describe people who flatly reject their findings. They point out that skepticism is the very foundation of the scientific method. The modern consensus about the risks of climate change, they say, is based on evidence that has piled up over the course of decades and has been subjected to critical scrutiny every step of the way.

Drop into any climate science convention, in fact, and you will hear vigorous debate about the details of the latest studies. While they may disagree over the fine points, those same researchers are virtually unanimous in warning that society is running extraordinary risks by continuing to pump huge quantities of greenhouse gases into the atmosphere.

In other words, the climate scientists see themselves as the true skeptics, having arrived at a durable consensus about emissions simply because the evidence of risk has become overwhelming. And in this view, people who reject the evidence are phony skeptics, arguing their case by cherry-picking studies, manipulating data, and refusing to weigh the evidence as a whole.

The petition asking the media to drop the “climate skeptic” label began withMark B. Boslough, a physicist in New Mexico who grew increasingly annoyed by the term over several years. The phrase is wrong, he said, because “these people do not embrace the scientific method.”

Dr. Boslough is active in a group called the Committee for Skeptical Inquiry, which has long battled pseudoscience in all its forms. Late last year, he wrote a public letter on the issue, and dozens of scientists and science advocates associated with the committee quickly signed it. They include Bill Nye, of “Science Guy” fame, and Lawrence M. Krauss, the physicist and best-selling author.

A climate advocacy organization, Forecast the Facts, picked up on the letter and turned it into a petition. Once the signatures reach 25,000, the group intends to present a formal request to major news organizations to alter their terminology.

All of which raises an obvious question: If not “skeptic,” what should the opponents of climate science be called?

As a first step, it helps to understand why they so vigorously denounce the science. The opposition is coming from a certain faction of the political right. Many of these conservatives understand that since greenhouse emissions are caused by virtually every economic activity of modern society, they are likely to be reduced only by extensive government intervention in the market.

So casting doubt on the science is a way to ward off such regulation. This movement is mainly rooted in ideology, but much of the money to disseminate its writings comes from companies that profit from fossil fuels.

Despite their shared goal of opposing regulation, however, these opponents of climate science are not all of one mind in other respects, and thus no single term really fits them all.

Some make scientifically ludicrous claims, such as denying that carbon dioxide is a greenhouse gas or rejecting the idea that humans are responsible for its increase in the atmosphere. Others deny that Earth is actually warming, despite overwhelming evidence that it is, including the rapid melting of billions of tons of land ice all over the planet.

Yet the critics of established climate science also include a handful of people with credentials in atmospheric physics, and track records of publishing in the field. They acknowledge the heat-trapping powers of greenhouse gases, and they distance themselves from people who deny such basic points.

“For God’s sake, I can’t be lumped in with that crowd,” said Patrick J. Michaels, a former University of Virginia scientist employed by the libertarian Cato Institute in Washington.

Contrarian scientists like Dr. Michaels tend to argue that the warming will be limited, or will occur so gradually that people will cope with it successfully, or that technology will come along to save the day – or all of the above.

The contrarian scientists like to present these upbeat scenarios as the only plausible outcomes from runaway emissions growth. Mainstream scientists see them as being the low end of a range of possible outcomes that includes an alarming high end, and they say the only way to reduce the risks is to reduce emissions.

The dissenting scientists have been called “lukewarmers” by some, for their view that Earth will warm only a little. That is a term Dr. Michaels embraces. “I think it’s wonderful!” he said. He is working on a book, “The Lukewarmers’ Manifesto.”

When they publish in scientific journals, presenting data and arguments to support their views, these contrarians are practicing science, and perhaps the “skeptic” label is applicable. But not all of them are eager to embrace it.

“As far as I can tell, skepticism involves doubts about a plausible proposition,” another of these scientists, Richard S. Lindzen, told an audience a few years ago. “I think current global warming alarm does not represent a plausible proposition.”

Papers by Dr. Lindzen and others disputing the risks of global warming have fared poorly in the scientific literature, with mainstream scientists pointing out what they see as fatal errors. Nonetheless, these contrarian scientists testify before Congress and make statements inconsistent with the vast bulk of the scientific evidence, claiming near certainty that society is not running any risk worth worrying about.

It is perhaps no surprise that many environmentalists have started to call them deniers.

The scientific dissenters object to that word, claiming it is a deliberate attempt to link them to Holocaust denial. Some academics sharply dispute having any such intention, but others have started using the slightly softer word “denialist” to make the same point without stirring complaints about evoking the Holocaust.

Scientific denialism has crept into other aspects of modern life, of course, manifesting itself as creationism, anti-vaccine ideology and the opposition to genetically modified crops, among other doctrines.

To groups holding such views, “evidence just doesn’t matter any more,” said Riley E. Dunlap, a sociologist at Oklahoma State University. “It becomes possible to create an alternate reality.”

But Dr. Dunlap pointed out that the stakes with most of these issues are not as high as with climate-change denial, for the simple reason that the fate of the planet may hang in the balance.

Antropoceno, Capitaloceno, Cthulhuceno: o que caracteriza uma nova época? (ClimaCom)


A proposta de formalização de uma nova época da Terra levanta questões sobre utilidade, responsabilidade e formas alternativas de narrar a história do mundo em que vivemos

Por Daniela Klebis

Os impactos das ações humanas sobre o planeta nos últimos 200 anos têm sido tão profundos que podem justificar a definição de nova época para a Terra, o Antropoceno. No último dia 17 de outubro, a Comissão Internacional sobre Estratigrafia (ICS, na sigla inglês), reuniu-se em Berlim para dar continuidade às discussões sobre a formalização dessa nova época terrena, cuja decisão final será votada somente em 2016. A despeito dos processos burocráticos, o termo já foi informalmente assimilado por filósofos, arqueólogos, historiadores, ambientalistas e cientistas do clima e, nesse meio, o debate segue, para além da reunião de evidências físicas, no sentido de compreender sua utilidade: estamos prontos para assumir a época dos humanos?

A história da Terra se divide em escalas de tempo geológicas, que são definidas pela ICS, com sede em Paris, na França. Essas escalas de tempo começam com grandes espaços de tempos chamados éons, que se dividem em eras (como a Mezozóica), e então em períodos (Jurássico, Neogeno),  épocas e por fim, em idades. Quem acenou pela primeira vez a necessidade de definir uma nova época, baseada nos impactos indeléveis das ações humanas sobre a paisagem terrestre foi o químico atmosférico Paul J. Crutzen, prêmio Nobel de química em 1995. Cutzen sugeriu o termo Antropoceno durante o encontro  do Programa Internacional de Geofera e Biosfera (IGBP, na sigla em inglês), no México, em 2000. O evento tinha por objetivo discutir os problemas do Holoceno, a época em que nos encontramos há cerca de 11700 anos,desde o fim da era glacial.

A hipótese sustentada pelos defensores da nova denominação baseia-se nas observações sobre as mudanças iniciadas pelo homem sobre o ambiente desde 1800, cujas evidências geológicas  possuem impacto a  longo prazo na história da Terra.  E quais são as evidências que podem justificar a adoção do termo Antropoceno?  “O que nós humanos mais fizemos nesses dois séculos foi criar coisas que não existiram pelos 4,5 bilhões de anos da história da Terra”, denuncia o geólogo Jan Zalasiewicz, presidente do grupo de trabalho sobre o Antropoceno da ICS, em colóquio em Sidney, na Autrália, em março deste ano.


Minerais sintéticos, fibras de carbono, plásticos, concreto, são alguns exemplos de novos elementos criados pelo homem. O concreto, um material produzido pela mistura de cimento, areia, pedra e água, vem se espalhando na superfície de nosso planeta a uma velocidade de 2 bilhões de quilômetros por ano, conforme aponta o geólogo.  Abaixo da superfície, escavações em busca de minérios e petróleo já abriram mais de 50 milhões de quilômetros em buracos subterrâneos.

Além das mudanças físicas, a emissão exagerada de dióxido de carbono e outros gases de efeito estufa, resultantes da ação humana, provocam mudanças químicas na atmosfera, como aquecimento global, descongelamento de calotas polares e acifidificação dos oceanos. A biosfera é também analisada, já que mudanças resultantes da perda de habitats, atividades predatórias e invasão de especies também provocam mudanças na composição química e física dos ambientes.

As evidências do impacto da ação humana,que vêm sendo consistentemente apontadas em estudos climáticos, foram reforçadas pelo 5º. Relatório do Painel Intercontinental de Mudanças Climáticas (IPCC), publicado no início do ano, com um consenso de 97% dos cientistas. Mais recentemente, no dia 30 de setembro, um relatório publicado no publicado pela WWF (World Wildlife Fund, em inglês), em parceria com a Sociedade Zoológica de Londres, apontou ainda que, nos últimos 40 anos, 52% da população de animais vertebrados na Terra desapareceu. Ao mesmo tempo, os seres humanos dobraram em quantidade. “Estamos empurrando a biosfera para a sua 6ª. extinção em massa”, alerta Hans-Otto Pörtner, do Instituto Alfred Wegener de Pesquisa Marinha e Polar, em Bremerhaven, Alemanha, e co-autor do capítulo sobre ecossistema do relatório do IPCC publicado nesse ano. Pörtner refere-se às cinco grandes extinções em massa registradas nos últimos 540 milhões de anos, caracterizadas por palentólogos como períodos em que mais de 75% das espécies foram extintas do planeta em um curto intervalo geológico.

“Há 200 anos, a coisas começaram a mudar o suficiente para visivelmente impactar o planeta: a população cresceu, assim como as emissões de CO2”, destaca Zalasiwicz. Segundo ele, o uso de energia cresceu 90 vezes entre 1800 e 2010, e já queimamos cerca de 200 milhões de anos de fósseis, entre carvão, óleo e gás. “Os humanos correspondem a 1/3 de todos os vertebrados da terra. Mas a dominação sem precedentes sobre todos os outros seres vivos, faz dessa a er a humana”, conclui.

Eileen Crist pesquisadora do Departamento de Ciências e Tecnologia na Sociedade, no Virginia Tech, no EUA, desafia a escolha do termo, defendendo que o discurso do Antropoceno deixa de questionar a soberania humana para propor, ao contrário, abordagens tecnológicas que poderiam tornar o domínio humano sustentável. “Ao afirmar a centralidade do homem – tanto como uma força causal quanto como objeto de preocupação – o Antropoceno encolhe o espaço discursivo para desafiar a dominação da biosfera, oferecendo, ao invés disso, um campo técnico-científico para a sua racionalização e um apelo pragmático para nos resignarmos à sua atualidade”, argumenta a pesquidadora em um artigo publicado em 2013.

O Antropoceno, dessa forma, entrelaça uma série de temas na formatação de seu discurso, como, por exemplo, o aumento acelerado da população que chegará a superar os 10 bilhões de habitantes; o crescimento econômico e a cultura de consumo enquanto modelo social dominante; a tecnologia como destino inescapável e, ao mesmo tempo, salvação da vida humana na Terra; e, ainda, o pressuposto de que o impacto humano é natural e contingente da nossa condição de seres providos de inteligência superior. Crist aponta que esse discurso mascara a opção de racionalizar o regime totalitátio do humano no planeta. “Como discurso coeso, ele bloqueia formas alternativas de vida humana na Terra”, indica.



Donna Haraway, professora emérita da Universidade da Califórina em Santa Cruz, EUA, comentou, em participação no Colóquio Os Mil Nomes de Gaia, em setembro, que essa discussão é um dos “modos de buscar palavras que soam muito grandes, porém, não são grandes o suficiente para compreender a continuidade e a precariedade de viver e morrer nessa Terra”. Haraway é também umas das críticas do termo Antropoceno. Segundo ela, o Antropoceno implica um homem individual, que se desenvolve, e desenvolve uma nova paisagem de mundo, estranho a todas as outras formas de vida: uma percepção equivocada de um ser que seria capaz existir sem se relacionar com o resto do planeta. “Devemos compreender que para ser um, devemos ser muitos. Nos tornamos com outros seres”, comenta.

Para Haraway, épreciso, problematizar essa percepção, e endereçar a responsabilidade pelas mudanças, que está justamente no sistema capitalista que criamos. Este sim tem impulsionado a exploração, pelos homens, da Terra: “A história inteira poderia ser Capitaloceno, e não Antropoceno”, diz. Tal percepção, de acordo com a filósofa, pemite-nos resistir ao senso inescapabilidade presente nesse discurso, como Crist mencionou acima. “Estamos cercados pelo perigo de assumir que tudo está acabado, que nada pode acontecer”, diz.

Haraway aponta, entretanto, que é necessário evocar um senso de continuidade (ongoingness,em inglês),a partir de outras possibilidades narrativas e de pensamento.Uma delas, seria o Cthulhuceno, criado pela filósofa. A expressão vem de um conto de H.P.Lovecraft, O chamado de Cthulhu, que fala sobre humanos que têm suas mentes deterioradas quando, em rituais ao deus Cthulhu – uma mistura de homem, dragão e polvo que vive adormecido sob as águas do Pacífico Sul – conseguem vislumbrar uma realidade diferente da que conheciam.  No início da história, o autor norte-americano descreve o seguinte: “A coisa mais misericordiosa do mundo, acho eu, é a incapacidade da mente humana de correlacionar tudo que ela contém”.  A partir desse contexto, Donna Haraway explica que é necessário “desestabilizar mundos de pensamentos, com mundos de pensamentos”. O Cthulhuceno não é sobre adotar uma transcendência, uma ideia de vida ou morte: “trata-se de abraçar a continuidade sinuosa do mundo terreno, no seu passado​​, presente e futuro. Entretanto, tal continuidade implica em assumir que existe um problema muito grande e que ele precisa ser enfrentado. Devemos lamentar o que aconteceu, pois não deveria ter ocorrido. Mas não temos que continuar no mesmo caminho”, sugere.

The cultural side of science communication (Northwestern University)


Hilary Hurd Anyaso

New research explores how culture affects our conceptions of nature

EVANSTON, Ill. — Do we think of nature as something that we enjoy when we visit a national park and something we need to “preserve?” Or do we think of ourselves as a part of nature? A bird’s nest is a part of nature, but what about a house?

The answers to these questions reflect different cultural orientations. They are also reflected in our actions, our speech and in cultural artifacts.

A new Northwestern University study, in partnership with the University of Washington, the American Indian Center of Chicago and the Menominee tribe of Wisconsin, focuses on science communication and how that discipline necessarily involves language and other media-related artifacts such as illustrations. The challenge is to identify effective ways of communicating information to culturally diverse groups in a way that avoids cultural polarization, say the authors.

“We suggest that trying to present science in a culturally neutral way is like trying to paint a picture without taking a perspective,” said Douglas Medin, lead author of the study and professor of psychology in the Weinberg College of Arts and Sciences and the School of Education and Social Policy at Northwestern.

This research builds on the broader research on cultural differences in the understanding of and engagement with science.

“We argue that science communication — for example, words, photographs and illustrations — necessarily makes use of artifacts, both physical and conceptual, and these artifacts commonly reflect the cultural orientations and assumptions of their creators,” write the authors.

“These cultural artifacts both reflect and reinforce ways of seeing the world and are correlated with cultural differences in ways of thinking about nature. Therefore, science communication must pay attention to culture and the corresponding different ways of looking at the world.”

Medin said their previous work reveals that Native Americans traditionally see themselves as a part of nature and tend to focus on ecological relationships. In contrast, European-Americans tend to see humans as apart from nature and focus more on taxonomic relationships.

“We show that these cultural differences are also reflected in media, such as children’s picture books,” said Medin, who co-authored the study with Megan Bang of the University of Washington. “Books authored and illustrated by Native Americans are more likely to have illustrations of scenes that are close-up, and the text is more likely to mention the plants, trees and other geographic features and relationships that are present compared with popular children’s books not done by Native Americans.

“The European-American cultural assumption that humans are not part of ecosystems is readily apparent in illustrations,” he said.

The authors went to Google images and entered “ecosystems,” and 98 percent of the images did not have humans present. A fair number of the remaining 2 percent had children outside the ecosystem, observing it through a magnifying glass and saying, “I spy an ecosystem.”

“These results suggest that formal and informal science communications are not culturally neutral but rather embody particular cultural assumptions that exclude people from nature,” Medin said.

Medin and his research team have developed a series of “urban ecology” programs at the American Indian Center of Chicago, and these programs suggest that children can learn about the rest of nature in urban settings and come to see humans as active players in the world ecosystems.

How to Talk About Climate Change So People Will Listen (The Atlantic)


Environmentalists warn us that apocalypse awaits. Economists tell us that minimal fixes will get us through. Here’s how we can move beyond the impasse. 

Josh Cochran

Not long ago, my newspaper informed me that glaciers in the western Antarctic, undermined by the warmer seas of a hotter world, were collapsing, and their disappearance “now appears to be unstoppable.” The melting of these great ice sheets would make seas rise by at least four feet—ultimately, possibly 12—more than enough to flood cities from New York to Tokyo to Mumbai. Because I am interested in science, I read the two journal articles that had inspired the story. How much time do we have, I wondered, before catastrophe hits?

One study, in Geophysical Research Letters, provided no guidance; the authors concluded only that the disappearing glaciers would “significantly contribute to sea level rise in decades to centuries to come.” But the other, in Science, offered more-precise estimates: during the next century, the oceans will surge by as much as a quarter of a millimeter a year. By 2100, that is, the calamity in Antarctica will have driven up sea levels by almost an inch. The process would get a bit faster, the researchers emphasized, “within centuries.”

How is one supposed to respond to this kind of news? On the one hand, the transformation of the Antarctic seems like an unfathomable disaster. On the other hand, the disaster will never affect me or anyone I know; nor, very probably, will it trouble my grandchildren. How much consideration do I owe the people it will affect, my 40-times-great-grandchildren, who, many climate researchers believe, will still be confronted by rising temperatures and seas? Americans don’t even save for their own retirement! How can we worry about such distant, hypothetical beings?

In our ergonomic chairs and acoustical-panel cubicles, we sit cozy as kings atop 300 years of flaming carbon.

Worse, confronting climate change requires swearing off something that has been an extraordinary boon to humankind: cheap energy from fossil fuels. In the 3,600 years between 1800B.C. and 1800 A.D., the economic historian Gregory Clark has calculated, there was “no sign of any improvement in material conditions” in Europe and Asia. Then came the Industrial Revolution. Driven by the explosive energy of coal, oil, and natural gas, it inaugurated an unprecedented three-century wave of prosperity. Artificial lighting, air-conditioning, and automobiles, all powered by fossil fuels, swaddle us in our giddy modernity. In our ergonomic chairs and acoustical-panel cubicles, we sit cozy as kings atop 300 years of flaming carbon.

In the best of times, this problem—given its apocalyptic stakes, bewildering scale, and vast potential cost—would be difficult to resolve. But we are not in the best of times. We are in a time of legislative paralysis. In an important step, the Obama administration announced in June its decision to cut power-plant emissions 30 percent by 2030. Otherwise, this country has seen strikingly little political action on climate change, despite three decades of increasingly high-pitched chatter by scientists, activists, economists, pundits, and legislators.

The chatter itself, I would argue, has done its share to stall progress. Rhetorical overreach, moral miscalculation, shouting at cross-purposes: this toxic blend is particularly evident when activists, who want to scare Americans into taking action, come up against economists, with their cool calculations of acceptable costs. Eco-advocates insist that only the radical transformation of society—the old order demolished, foundation to roof—can fend off the worst consequences of climate change. Economists argue for adapting to the most-likely consequences; cheerleaders for industrial capitalism, they propose quite different, much milder policies, and are ready to let nature take a bigger hit in the short and long terms alike. Both envelop themselves in the mantle of Science, emitting a fug of charts and graphs. (Actually, every side in the debate, including the minority who deny that humans can affect the climate at all, claims the backing of Science.) Bewildered and battered by the back-and-forth, the citizenry sits, for the most part, on its hands. For all the hot air expended on the subject, we still don’t know how to talk about climate change.

As an issue, climate change was unlucky: when nonspecialists first became aware of it, in the 1990s, environmental attitudes had already become tribal political markers. As the Yale historian Paul Sabin makes clear in The Bet, it wasn’t always this way. The votes for the 1970 Clean Air Act, for example, were 374–1 in the House, 73–0 in the Senate. Sabin’s book takes off from a single event: a bet between the ecologist Paul R. Ehrlich and the economist Julian Simon a decade later. Ehrlich’s The Population Bomb (1968), which decried humankind’s rising numbers, was a foundational text in the environmental movement. Simon’s Ultimate Resource (1981) was its antimatter equivalent: a celebration of population growth, it awakened opposition to the same movement.

Activist led by Bill McKibben, the founder of, protest the building of the Keystone XL pipeline at the White House, February 2013. (AP)

Ehrlich was moderately liberal in his politics but unrestrained in his rhetoric. The second sentence of The Population Bomb promised that “hundreds of millions of people” would starve to death within two decades, no matter what “crash programs” the world launched to feed them. A year later, Ehrlich gave even odds that “England will not exist in the year 2000.” In 1974, he told Congress that “a billion or more people” could starve in the 1980s “at the latest.” When the predictions didn’t pan out, he attacked his critics as “incompetent” and “ignorant,” “morons” and “idiots.”

Simon, who died in 1998, argued that “human resourcefulness and enterprise” will extricate us from our ecological dilemma. Moderately conservative in his politics, he was exuberantly uninhibited in his scorn for eco-alarmists. Humankind faces no serious environmental problems, he asserted. “All long-run trends point in exactly the opposite direction from the projections of the doomsayers.” (All? Really?) “There is no convincing economic reason why these trends toward a better life should not continue indefinitely.” Relishing his role as a spoiler, he gave speeches while wearing red plastic devil horns. Unsurprisingly, he attracted disagreement, to which he responded with as much bluster as Ehrlich. Critics, motivated by “blatant intellectual dishonesty” and indifference to the poor, were “corrupt,” their ideas “ignorant and wrongheaded.”

In 1980, the two men wagered $1,000 on the prices of five metals 10 years hence. If the prices rose, as Ehrlich predicted, it would imply that these resources were growing scarcer, as Homo sapiens plundered the planet. If the prices fell, this would be a sign that markets and human cleverness had made the metals relatively less scarce: progress was continuing. Prices dropped. Ehrlich paid up, insisting disingenuously that he had been “schnookered.”

Schnookered, no; unlucky, yes. In 2010, three Holy Cross economists simulated the bet for every decade from 1900 to 2007. Ehrlich would have won 61 percent of the time. The results, Sabin says, do not prove that these resources have grown scarcer. Rather, metal prices crashed after the First World War and spent most of a century struggling back to their 1918 levels. Ecological issues were almost irrelevant.

The bet demonstrated little about the environment but much about environmental politics. The American landscape first became a source of widespread anxiety at the beginning of the 20th century. Initially, the fretting came from conservatives, both the rural hunters who established the licensing system that brought back white-tailed deer from near-extinction and the Ivy League patricians who created the national parks. So ineradicable was the conservative taint that decades later, the left still scoffed at ecological issues as right-wing distractions. At the University of Michigan, the radical Students for a Democratic Society protested the first Earth Day, in 1970, as elitist flimflam meant to divert public attention from class struggle and the Vietnam War; the left-wing journalist I. F. Stone called the nationwide marches a “snow job.” By the 1980s, businesses had realized that environmental issues had a price tag. Increasingly, they balked. Reflexively, the anticorporate left pivoted; Earth Day, erstwhile snow job, became an opportunity to denounce capitalist greed.

Climate change is a perfect issue for symbolic battle, because it is as yet mostly invisible.

The result, as the Emory historian Patrick Allitt demonstrates in A Climate of Crisis, was a political back-and-forth that became ever less productive. Time and again, Allitt writes, activists and corporate executives railed against each other. Out of this clash emerged regulatory syntheses: rules for air, water, toxins. Often enough, businesspeople then discovered that following the new rules was less expensive than they had claimed it would be; environmentalists meanwhile found out that the problems were less dire than they had claimed.


Throughout the 1980s, for instance, activists charged that acid rain from midwestern power-plant emissions was destroying thousands of East Coast lakes. Utilities insisted that anti-pollution equipment would be hugely expensive and make homeowners’ electric bills balloon. One American Electric Power representative predicted that acid-rain control could lead to the “destruction of the Midwest economy.” A 1990 amendment to the Clean Air Act, backed by both the Republican administration and the Democratic Congress, set up a cap-and-trade mechanism that reduced acid rain at a fraction of the predicted cost; electric bills were barely affected. Today, most scientists have concluded that the effects of acid rain were overstated to begin with—fewer lakes were hurt than had been thought, and acid rain was not the only cause.

Rather than learning from this and other examples that, as Allitt puts it, “America’s environmental problems, though very real, were manageable,” each side stored up bitterness, like batteries taking on charge. The process that had led, however disagreeably, to successful environmental action in the 1970s and ’80s brought on political stasis in the ’90s. Environmental issues became ways for politicians to signal their clan identity to supporters. As symbols, the issues couldn’t be compromised. Standing up for your side telegraphed your commitment to take back America—either from tyrannical liberal elitism or right-wing greed and fecklessness. Nothing got done.

As an issue, climate change is perfect for symbolic battle, because it is as yet mostly invisible. Carbon dioxide, its main cause, is not emitted in billowing black clouds, like other pollutants; nor is it caustic, smelly, or poisonous. A side effect of modernity, it has for now a tiny practical impact on most people’s lives. To be sure, I remember winters as being colder in my childhood, but I also remember my home then as a vast castle and my parents as godlike beings.

In concrete terms, Americans encounter climate change mainly in the form of three graphs, staples of environmental articles. The first shows that atmospheric carbon dioxide has been steadily increasing. Almost nobody disputes this. The second graph shows rising global temperatures. This measurement is trickier: carbon dioxide is spread uniformly in the air, but temperatures are affected by a host of factors (clouds, rain, wind, altitude, the reflectivity of the ground) that differ greatly from place to place. Here the data are more subject to disagreement. A few critics argue that for the past 17 years warming has mostly stopped. Still, most scientists believe that in the past century the Earth’s average temperature has gone up by about 1.5 degrees Fahrenheit.

Rising temperatures per se are not the primary concern. What matters most is their future influence on other things: agricultural productivity, sea levels, storm frequency, infectious disease. As the philosopher Dale Jamieson points out in the unfortunately titled Reason in a Dark Time, most of these effects cannot be determined by traditional scientific experiments—white-coats in laboratories can’t melt a spare Arctic ice cap to see what happens. (Climate change has no lab rats.) Instead, thousands of researchers refine ever bigger and more complex mathematical models. The third graph typically shows the consequences such models predict, ranging from worrisome (mainly) to catastrophic (possibly).

Such charts are meaningful to the climatologists who make them. But for the typical citizen they are a muddle, too abstract—too much like 10th-grade homework—to be convincing, let alone to motivate action. In the history of our species, has any human heart ever been profoundly stirred by a graph? Some other approach, proselytizers have recognized, is needed.

To stoke concern, eco-campaigners like Bill McKibben still resort, Ehrlich-style, to waving a skeleton at the reader. Thus the first sentence of McKibben’sOil and Honey, a memoir of his climate activism, describes 2011–12, the period covered by his book, as “a time when the planet began to come apart.” Already visible “in almost every corner of the earth,” climate “chaos” is inducing “an endless chain of disasters that will turn civilization into a never-ending emergency response drill.”

Bill McKibben says we must “start producing a nation of careful, small-scale farmers … who can adapt to the crazed new world with care and grace.”

The only solution to our ecological woes, McKibben argues, is to live simpler, more local, less resource-intensive existences—something he believes is already occurring. “After a long era of getting big and distant,” he writes, “our economy, and maybe our culture, has started to make a halting turn toward the small and local.” Not only will this shift let us avoid the worst consequences of climate change, it will have the happy side effect of turning a lot of unpleasant multinational corporations to ash. As we “subside into a workable, even beautiful, civilization,” we will lead better lives. No longer hypnotized by the buzz and pop of consumer culture, narcotized couch potatoes will be transformed into robust, active citizens: spiritually engaged, connected to communities, appreciative of Earth’s abundance.

For McKibben, the engagement is full throttle: The Oil half of his memoir is about founding, a group that seeks to create a mass movement against climate change. (The 350 refers to the theoretical maximum safe level, in parts per million, of atmospheric carbon dioxide, a level we have already surpassed.) The Honey half is about buying 70 acres near his Vermont home to support an off-the-grid beekeeper named Kirk Webster, who is living out McKibben’s organic dream in a handcrafted, solar-powered cabin in the woods. Webster, McKibben believes, is the future. We must, he says, “start producing a nation of careful, small-scale farmers such as Kirk Webster, who can adapt to the crazed new world with care and grace, and who don’t do much more damage in the process.”

Poppycock, the French philosopher Pascal Bruckner in effect replies in The Fanaticism of the Apocalypse. A best-selling, telegenic public intellectual (a species that hardly exists in this country), Bruckner is mainly going after what he calls “ecologism,” of which McKibbenites are exemplars. At base, he says, ecologism seeks not to save nature but to purify humankind through self-flagellating asceticism.

To Bruckner, ecologism is both ethnocentric and counterproductive. Ethnocentric because eco-denunciations of capitalism simply give new, green garb to the long-standing Euro-American fear of losing dominance over the developing world (whose recent growth derives, irksomely, from fossil fuels). Counterproductive because ecologism induces indifference, or even hostility to environmental issues. In the quest to force humanity into a puritanical straitjacket of rural simplicity, ecologism employs what should be neutral, fact-based descriptions of a real-world problem (too much carbon dioxide raises temperatures) as bludgeons to compel people to accept modes of existence they would otherwise reject. Intuiting moral blackmail underlying the apparently objective charts and graphs, Bruckner argues, people react with suspicion, skepticism, and sighing apathy—the opposite of the reaction McKibbenites hope to evoke.

The ranchers and farmers in Tony Horwitz’s Boom, a deft and sometimes sobering e-book, suggest Bruckner may be on to something. Horwitz, possibly best known for his study of Civil War reenactors, Confederates in the Attic, travels along the proposed path of the Keystone XL, a controversial pipeline intended to take oil from Alberta’s tar-sands complex to refineries in Steele City, Nebraska—and the project McKibben has used as the rallying cry for McKibben set off on his anti-Keystone crusade after the climatologist-provocateur James Hansen charged in 2011 that building the pipeline would be “game over” for the climate. If Keystone were built, Hansen later wrote, “civilization would be at risk.” Everyone Horwitz meets has heard this scenario. But nobody seems to have much appetite for giving up the perks of industrial civilization, Kirk Webster–style. “You want to go back to the Stone Age and use only wind, sun, and water?” one person asks. A truck driver in the tar-sands project tells Horwitz, “This industry is giving me a future, even if it’s a short one and we’re all about to toast together.” Given the scale of the forces involved, individual action seems futile. “It’s going to burn up anyhow at the end,” explains a Hutterite farmer, matter-of-factly. “The world will end in fire.”


Whereas McKibbenites see carbon dioxide as an emblem of a toxic way of life, economists like William Nordhaus of Yale tend to view it as simply a by-product of the good fortune brought by capitalism. Nordhaus, the president of the American Economic Association, has researched climate issues for four decades. His The Climate Casino has an even, unhurried tone; a classic Voice of Authority rumbles from the page. Our carbon-dioxide issues, he says, have a “simple answer,” one “firmly based in economic theory and history”:

The best approach is to use market mechanisms. And the single most important market mechanism that is missing today is a high price on CO2 emissions, or what is called “carbon prices” … The easiest way is simply to tax CO2 emissions: a “carbon tax” … The carbon price [from the tax] will be passed on to the consumer in the form of higher prices.

Nordhaus provides graphs (!) showing how a gradually increasing tax—or, possibly, a market in emissions permits—would slowly and steadily ratchet down global carbon-dioxide output. The problem, as he admits, is that the projected reduction “assumes full participation.” Translated from econo-speak, “full participation” means that the Earth’s rich and populous nations must simultaneously apply the tax. Brazil, China, France, India, Russia, the United States—all must move in concert, globally cooperating.

To say that a global carbon tax is a simple answer is like arguing that the simple answer to death is repealing the Second Law of Thermodynamics.

Alas, nothing like Nordhaus’s planetary carbon tax has ever been enacted. The sole precedent is the Montreal Protocol, the 1987 treaty banning substances that react with atmospheric ozone and reduce its ability to absorb the sun’s harmful ultraviolet radiation. Signed by every United Nations member and successfully updated 10 times, the protocol is a model of international eco-cooperation. But it involves outlawing chemicals in refrigerators and spray cans, not asking nations to revamp the base of their own prosperity. Nordhaus’s declaration that a global carbon tax is a simple answer is like arguing that the simple answer to death is repealing the Second Law of Thermodynamics.

Does climate change, as Nordhaus claims, truly slip into the silk glove of standard economic thought? The dispute is at the center of Jamieson’s Reason in a Dark Time. Parsing logic with the care of a raccoon washing a shiny stone, Jamieson maintains that economists’ discussions of climate change are almost as problematic as those of environmentalists and politicians, though for different reasons.

Remember how I was complaining that all discussions of climate change devolve into homework? Here, sadly, is proof. To critique economists’ claims, Jamieson must drag the reader through the mucky assumptions underlying cost-benefit analysis, a standard economic tool. In the case of climate change, the costs of cutting carbon dioxide are high. What are the benefits? If the level of carbon dioxide in the atmosphere rises only slightly above its current 400 parts per million, most climatologists believe, there is (roughly) a 90 percent chance that global temperatures will eventually rise between 3 and 8 degrees Fahrenheit, with the most likely jump being between 4 and 5 degrees. Nordhaus and most other economists conclude that humankind can slowly constrain this relatively modest rise in carbon without taking extraordinary, society-transforming measures, though neither decreasing the use of fossil fuels nor offsetting their emissions will be cheap or easy. But the same estimates show (again in rough terms) a 5 percent chance that letting carbon dioxide rise much above its current level would set off a domino-style reaction leading to global devastation. (No one pays much attention to the remaining 5 percent chance that the carbon rise would have very little effect on temperature.)

In our daily lives, we typically focus on the most likely result: I decide whether to jaywalk without considering the chance that I will trip in the street and get run over. But sometimes we focus on the extreme: I lock up my gun and hide the bullets in a separate place to minimize the chance that my kids will find and play with them. For climate change, should we focus on adapting to the mostprobable outcome or averting the most dangerous one? Cost-benefit analyses typically ignore the most-radical outcomes: they assume that society has agreed to accept the small but real risk of catastrophe—something environmentalists, to take one particularly vehement section of society, have by no means done.

On top of this, Jamieson argues, there is a second problem in the models economists use to discus climate change. Because the payoff from carbon-dioxide reduction will occur many decades from now, Nordhausian analysis suggests that we should do the bare minimum today, even if that means saddling our descendants with a warmer world. Doing the minimum is expensive enough already, economists say. Because people tomorrow will be richer than we are, as we are richer than our grandparents were, they will be better able to pay to clean up our emissions. Unfortunately, this is an ethically problematic stance. How can we weigh the interests of someone born in 2050 against those of someone born in 1950? In this kind of trade-off between generations, Jamieson argues, “there is no plausible value” for how much we owe the future.

Given their moral problems, he concludes, economic models are much less useful as guides than their proponents believe. For all their ostensible practicality—for all their attempts to skirt the paralysis-inducing specter of the apocalypse—economists, too, don’t have a good way to talk about climate change.

Years ago, a colleague and I spoke with the physicist Richard Feynman, later a national symbol of puckish wit and brash truth-telling. At the frontiers of science, he told us, hosts of unclear, mutually contradictory ideas are always swarming about. Researchers can never agree on how to proceed or even on what is important. In these circumstances, Feynman said, he always tried to figure out what would take him forward no matter which theory eventually turned out to be correct. In this agnostic spirit, let’s assume that rising carbon-dioxide levels will become a problem of some magnitude at some time and that we will want to do something practical about it. Is there something we should do, no matter what technical arcanae underlie the cost-benefit analyses, no matter when we guess the bad effects from climate change will kick in, no matter how we value future generations, no matter what we think of global capitalism? Indeed, is there some course of action that makes sense even if we think that climate change isn’t much of a problem at all?

As my high-school math teacher used to say, let’s do the numbers. Roughly three-quarters of the world’s carbon-dioxide emissions come from burning fossil fuels, and roughly three-quarters of that comes from just two sources: coal in its various forms, and oil in its various forms, including gasoline. Different studies produce slightly different estimates, but they all agree that coal is responsible for more carbon dioxide than oil is—about 25 percent more. That number is likely to increase, because coal consumption is growing much faster than oil consumption.

Geo-engineering involves tinkering with planetary systems we only partially understand. But planet-hacking does have an overarching advantage: it’s cheap.​

Although coal and oil are both fossil fuels, they are used differently. In this country, for example, the great majority of oil—about three-quarters—is consumed by individuals, as they heat their homes and drive their cars. Almost all U.S. coal (93 percent) is burned not in homes but by electric-power plants; the rest is mainly used by industry, notably for making cement and steel. Cutting oil use, in other words, requires huge numbers of people to change their houses and automobiles—the United States alone has 254 million vehicles on the road. Reducing U.S. coal emissions, by contrast, means regulating 557 big power plants and 227 steel and cement factories. (Surprisingly, many smaller coal plants exist, some at hospitals and schools, but their contributions are negligible.) I’ve been whacking poor old Nordhaus for his ideas about who should pay for climate change, but he does make this point, and precisely: “The most cost-effective way to reduce CO2 emissions is to reduce the use of coal first and most sharply.” Note, too, that this policy comes with a public-health bonus: reining in coal pollution could ultimately avoid as many as 6,600 premature deaths and 150,000 children’s asthma attacks per year in the United States alone.


Different nations have different arrangements, but almost everywhere the basic point holds true: a relatively small number of industrial coal plants—perhaps 7,000 worldwide—put out an amazingly large amount of carbon dioxide, more than 40 percent of the global total. And that figure is rising; last year, coal’s share of energy production hit a 44-year high, because Asian nations are building coal plants at a fantastic rate (and, possibly, because demand for coal-fired electricity will soar as electric cars become popular). No matter what your views about the impact and import of climate change, you are primarily talking about coal. To my mind, at least, retrofitting 7,000 industrial facilities, however mind-boggling, is less mind-boggling than, say, transforming the United States into “a nation of careful, small-scale farmers” or enacting a global carbon tax with “full participation.” It is, at least, imaginable.

The focus of the Obama administration on reducing coal emissions suggests that it has followed this logic. If the pattern of the late 20th century still held, industry would reply with exaggerated estimates of the cost, and compromises would be worked out. But because the environment has become a proxy for a tribal battle, an exercise in power politics will surely ensue. I’ve given McKibben grief for his apocalyptic rhetoric, but he’s exactly correct that without a push from a popular movement—without something like—meaningful attempts to cut back coal emissions are much less likely to yield results.

Regrettably, has fixated on the Keystone pipeline, which the Congressional Research Service has calculated would raise this nation’s annual output of greenhouse gases by 0.05 to 0.3 percent. (James Hansen, in arguing that the pipeline would be “game over” for the climate, erroneously assumed that all of the tar-sands oil could be burned rapidly, instead of dribbling out in relatively small portions year by year, over decades.) None of this is to say that exploiting tar sands is a good idea, especially given the apparent violation of native treaties in Canada. But a popular movement focused on symbolic goals will have little ability to win practical battles in Washington.

If politics fail, the only recourse, says David Keith, a Harvard professor of public policy and applied physics, will be a technical fix. And soon—by mid-century. Keith is talking about geo-engineering: fighting climate change with more climate change. A Case for Climate Engineering is a short book arguing that we should study spraying the stratosphere with tiny glittering droplets of sulfuric acid that bounce sunlight back into space, reducing the Earth’s temperature. Physically speaking, the notion is feasible. The 1991 eruption of Mount Pinatubo, in the Philippines, created huge amounts of airborne sulfuric acid—and lowered the Earth’s average temperature that year by about 1 degree.

Keith is candid about the drawbacks. Not only does geo-engineering involve tinkering with planetary systems we only partially understand, it can’t cancel out, even in theory, greenhouse problems like altered rainfall patterns and increased ocean acidity. The sulfur would soon fall to the Earth, a toxic rain of pollution that could kill thousands of people every year. The carbon dioxide that was already in the air would remain. To continue to slow warming, sulfur would have to be lofted anew every year. Still, Keith points out, without this relatively crude repair, unimpeded climate change could be yet more deadly.

Planet-hacking does have an overarching advantage: it’s cheap. “The cost of geoengineering the entire planet for a decade,” Keith writes, “could be less than the $6 billion the Italian government is spending on dikes and movable barriers to protect a single city, Venice, from climate change–related sea level rise.”

That advantage is also dangerous, he points out. A single country could geo-engineer the whole planet by itself. Or one country’s geo-engineering could set off conflicts with another country—a Chinese program to increase its monsoon might reduce India’s monsoon. “Both are nuclear weapons states,” Keith reminds us. According to Forbes, the world has 1,645 billionaires, several hundred of them in nations threatened by climate change. If their businesses or homes were at risk, any one of them could single-handedly pay for a course of geo-engineering. Is anyone certain none of these people would pull the trigger?

Few experts think that relying on geo-engineering would be a good idea. But no one knows how soon reality will trump ideology, and so we may finally have hit on a useful form of alarmism. One of the virtues of Keith’s succinct, scary book is to convince the reader that unless we find a way to talk about climate change, planes full of sulfuric acid will soon be on the runway.

CONCLIMA 2013 – acesse vídeos de todas as palestras (Rede Clima)

CONCLIMA 2013 – acesse vídeos de todas as palestras

imagem video conclimaEstão disponíveis na Internet os vídeos de todas as apresentações realizadas durante a 1ª CONCLIMA – Conferência Nacional da Rede CLIMA, INCT para Mudanças Climáticas (INCT-MC) e Programa Fapesp de Pesquisas sobre Mudanças Climáticas Globais (PFPMCG), realizada de 9 a 13 de setembro em São Paulo. A Rede CLIMA também produziu uma síntese de toda a conferência, com duração de 30 minutos.

O objetivo da CONCLIMA foi apresentar os resultados das pesquisas e o conhecimento gerado por esses importantes programas e projetos – um ambicioso empreendimento científico criado pelos governos federal e do Estado de São Paulo para prover informações de alta qualidade em estudos de clima, detecção de variabilidade climática e mudança climática, e seus impactos em setores chaves do Brasil.

Acesse os vídeos:

Vídeo da CONCLIMA – 1a Conferência Nacional de Mudanças Climáticas Globais:

Apresentações – arquivos PDF

Íntegra das apresentações – VÍDEOS

Mesa de Abertura


Paulo Nobre – INPE

Iracema Cavalcanti – INPE

Léo Siqueira – INPE

Marcos Heil Costa – UFV

Sérgio Correa – UERJ


Tércio Ambrizzi – USP 

Eduardo Assad – Embrapa

Mercedes Bustamante – UnB


Agricultura – Hilton Silveira Pinto – Embrapa

Recursos Hídricos – Alfredo Ribeiro Neto – UFPE

Energias Renováveis – Marcos Freitas – COPPE/UFRJ

Biodiversidade e Ecossistemas – Alexandre Aleixo – MPEG

Desastres Naturais – Regina Rodrigues – UFSC 

Zonas Costeiras – Carlos Garcia – FURG

Urbanização e Cidades – Roberto do Carmo – Unicamp

Economia – Eduardo Haddad – USP

Saúde – Sandra Hacon – Fiocruz

Desenvolvimento Regional – Saulo Rodrigues Filho – UnB


O INCT para Mudanças Climáticas – José Marengo – INPE

Detecção e atribuição e variabilidade natural do clima – Simone Ferraz – UFSM

Mudanças no uso da terra – Ana Paula Aguiar – INPE

Ciclos Biogeoquímicos Globais e Biodiversidade – Mercedes Bustamante – UnB

Oceanos – Regina Rodrigues – UFSC

REDD – Osvaldo Stella – IPAM

Cenários Climáticos Futuros e Redução de Incertezas – José Marengo – INPE

Gases de Efeito Estufa – Plínio Alvalá – INPE

Estudos de ciência, tecnologia e políticas públicas – Myanna Lahsen – INPE

Interações biosfera-atmosfera – Gilvan Sampaio – INPE

Amazônia – Gilberto Fisch – IAE/DCTA


Sistema de Alerta Precoce para Doenças Infecciosas Emergentes na Amazônia Ocidental – Manuel Cesario – Unifran

Clima e população em uma região de tensão entre alta taxa de urbanização e alta biodiversidade: Dimensões sociais e ecológicas das mudanças climáticas – Lucia da Costa Ferreira – Unicamp

Cenários de impactos das mudanças climáticas na produção de álcool visando a definição de políticas públicas – Jurandir Zullo – Unicamp

Fluxos hidrológicos e fluxos de carbono – casos da Bacia Amazônica e reflorestamento de microbacias – Humberto Rocha – USP

O papel dos rios no balanço regional do carbono – Maria Victoria Ballester – USP

Aerossóis atmosféricos, balanço de radiação, nuvens e gases traços associados com mudanças de uso de solo na Amazônia – Paulo Artaxo – USP

Socio-economic impacts of climate change in Brazil: quantitative inputs for the design of public policies – Joaquim José Martins Guilhoto e Rafael Feltran Barbieri- USP

Emissão de dióxido de carbono em solos de áreas de cana-de-açúcar sob diferentes estratégias de manejo – Newton La Scala Jr – Unesp

Impacto do Oceano Atlantico Sudoeste no Clima da America do Sul ao longo dos séculos 20 e 21 – Tércio Ambrizzi – USP


Apresentação Sergio Margulis – SAE – Presidência da República

Apresentação Gustavo Luedemann (MCTI)

Apresentação Carlos Klink (SMCQ/MMA)

Apresentação Couto Silva (MMA): Ambiente sobre o status da Elaboração do Plano Nacional de Adaptação. Funcionamento do GT Adaptação e suas redes temáticas. Proposta de Calendário. Proposta de Estrutura do Plano. 

Apresentação Alexandre Gross (FGV): Recortes temáticos do Plano Nacional de Adaptação: apresentação do Relatório sobre dimensões temporal, espacial e temática na adaptação às mudanças climáticas (Produto 4), processo e resultados do GT Adaptação, coleta de contribuições e discussão.

Mesa redonda: Mudanças climáticas, extremos e desastres naturais 

Apresentação Rafael Schadeck – CENAD 

Apresentação Marcos Airton de Sousa Freitas – ANA 

Mesa redonda: Relação ciência – planos setoriais; políticas públicas

Apresentação Carlos Nobre – SEPED/MCTI

Apresentação Luiz Pinguelli Rosa (COPPE UFRJ, FBMC)

Apresentação Eduardo Viola – UnB

Mesa redonda: Inventários e monitoramento das emissões e remoções de GEE 

Apresentação Gustavo Luedemann – MCTI 


Apresentação Patrícia Pinho – IGBP/INPE

Apresentação Paulo Artaxo – USP

John Oliver Does Science Communication Right (I Fucking Love Science)

May 15, 2014 | by Stephen Luntz

photo credit: Last Week Tonight With John Oliver (HBO). Satirist John Oliver shows how scientific pseudo-debates should be covered

One of the most frustrating experiences scientists, science communicators and anyone who cares about science have is the sight of media outlets giving equal time to positions held by a tiny minority of researchers.

This sort of behavior turns up for all sorts of concocted “controversies”, satirized as “Opinions differ on the Shape of the Earth”. However, the most egregious examples occur in reporting climate change. Thousands of carefully researched peer reviewed papers are weighed in the balance and judged equal to a handful of shoddily writtennumerically flaky publications whose flaws take less than a day  to come to light.

That is, of course, if you ignore the places where the anti-science side pretty much gets free range.

So it is a delight to see John Oliver show how it should be done.

We have only one problem with Oliver’s work. He repeats the claim that 97% of climate scientists agree that humans are warming the planet. In fact the study he referred to has 97.1% of peer reviewed papers on climate change endorsing this position. However, these papers were usually produced by large research teams, while the opposing minority were often cooked up by a couple of kooks in their garage. When you look at the numbers of scientists involved the numbers are actually 98.4% to 1.2%, with the rest undecided. Which might not sound like a big difference, but would make Oliver’s tame “skeptic” look even more lonely.
HT Vox, with a nice summary of the evidence


Brasil sedia conferência sobre comunicação pública da ciência (Fapesp)

Questões relacionadas à prática e à pesquisa em divulgação científica integram a programação do evento que ocorrerá em Salvador; inscrições com desconto vão até 7 de abril (PSCT)


Agência FAPESP –A Rede Internacional de Comunicação Pública da Ciência e da Tecnologia (PCST, na sigla em inglês) realiza, pela primeira vez na América Latina, entre 5 e 8 de maio, sua conferência internacional que tem, entre os objetivos principais, promover debates sobre o engajamento público em temas relacionados a ciência e tecnologia.

Formada por indivíduos de diversas partes do mundo que produzem e estudam na área de comunicação pública de ciência e tecnologia, a Rede PCST patrocina conferências, discussões virtuais e outras atividades que promovam novas ideias e perspectivas.

A edição deste ano terá como tema central “Divulgação da Ciência para a inclusão social e o engajamento político”. A ideia é mostrar que, mesmo com investimento em ciência e tecnologia, a maior parte do mundo ainda enfrenta a exclusão social e o desenvolvimento desigual, separando cada vez mais os países ricos dos pobres. O papel da difusão científica é criar possibilidades de ação dos cidadãos que permitam reduzir essa diferença.

Na plenária “Comunicação da ciência e mídia social”, os participantes poderão conferir as palestras de Dominique Brossard, da Universidade de Wisconsin, dos Estados Unidos, e membro do comitê científico da Rede PCST, e de Mohammed Yahia, editor da Nature Middle East, do Egito.

Além da Rede Internacional do PCST, o evento é promovido pelo Museu da Vida, da Fundação Oswaldo Cruz (Fiocruz), e pelo Laboratório de Estudos Avançados em Jornalismo (Labjor), da Universidade Estadual de Campinas (Unicamp).

As inscrições com desconto na taxa podem ser realizadas até 7 de abril. As atividades ocorrerão no Hotel Pestana Bahia, que fica na Rua Fonte do Boi, 216, em Salvador.

Mais informações

Against storytelling of scientific results (Nature Methods)

Yarden Katz

Nature Methods 10, 1045 (2013) doi:10.1038/nmeth.2699 – Published online

30 October 2013

To the Editor:

Krzywinski and Cairo1 beautifully illustrate the widespread view that scientific writing should follow a journalistic ‘storytelling’, wherein the choice of what data to plot, and how, is tailored to the message the authors want to deliver. However, they do not discuss the pitfalls of the approach, which often result in a distorted and unrepresentative display of data—one that does not do justice to experimental complexities and their myriad of interpretations.

If we project the features of great storytellers onto a scientist, the result is a portrait of a scientist far from ideal. Great storytellers embellish and conceal information to evoke a response in their audience. Inconvenient truths are swept away, and marginalities are spun to make a point more spectacular. A storyteller would plot the data in the way most persuasive rather than most informative or representative.

Storytelling encourages the unrealistic view that scientific projects fit a singular narrative. Biological systems are difficult to measure and control, so nearly all experiments afford multiple interpretations—but storytelling actively denies this fact of science.

The ‘story-told’ scientific paper is a constrictive mapping between figures and text. Figures produced by masters of scientific storytelling are so tightly controlled to match the narrative that the reader is left with little to ponder or interpret. Critical reading of such papers becomes a detective’s game, in which one reads between the lines for clues of data relegated to a supplement for their deviance from ‘the story’.

Dissecting the structure of scientific papers, Bruno Latour explains the utility of the storytelling approach in giving readers the sense that they are evaluating the data along with the authors while simultaneously persuading them of the story. The storytelling way to achieve this is “to lay out the text so that wherever the reader is there is only one way to go”2—or as Krzywinski and Cairo put it, “Inviting readers to draw their own conclusions is risky”1. Authors prevent this by “carefully stacking more black boxes, less easily disputable arguments”2. This is consistent with the visualization advice that Krzywinski and Cairo give: the narrower and more processed the display of the data is to fit the story, the more black boxes are stacked, making it harder for the reader to access data raw enough to support alternative models or ‘stories’.

Readers and authors know that complex experiments afford multiple interpretations, and so such deviances from the singular narrative must be present somewhere. It would be better for both authors and readers if these could be discussed openly rather than obfuscated. For those who plan to follow up on the results, these discrepancies are often the most important. Storytelling therefore impedes communication of critical information by restricting the scope of the data to that agreeable with the story.

Problems arise when experiments are driven within a storytelling framework. In break rooms of biology research labs, one often hears: “It’d be a great story if X regulated Y by novel mechanism Z.” Experiments might be prioritized by asking, “Is it important for your story?” Storytelling poses a dizzying circularity: before your findings are established, you should decide whether these are the findings you would like to reach. Expectations of a story-like narrative can also be demoralizing to scientists, as most experimental data do not easily fold into this framing.

Finally, a great story in the journalistic sense is a complete one. Papers that make the unexplained observations transparent get penalized in the storytelling framework as incomplete. This prevents the communal puzzle-solving that arises by piecing together unexplained observations from multiple papers.

The alternative to storytelling is the usual language of evidence and arguments that are used—with varying degrees of certainty—to support models and theories. Speaking of models and their evidence goes back to the oldest of scientific discourse, and this framing is also standard in philosophy and law. This language allows authors to discuss evidence for alternative models without imposing a singular journalistic-like story.

There might be other roles for storytelling. Steven McKnight’s lab recently found, entirely unexpectedly, that a small molecule can be used to purify a complex of RNA-binding proteins in the cell, revealing a wide array of striking biological features3. It is that kind of story of discovery—what François Jacob called “night science”—that is often best suited for storytelling, though these narratives are often deemed by scientists as irrelevant ‘fluff’.

As practiced, storytelling shares more with journalism than with science. Journalists seek a great story, and the accompanying pressures sometimes lead to distortion in the portrayal of events in the press. When exerted on scientists, these pressures can yield similar results. Storytelling encourages scientists to design experiments according to what constitutes a ‘great story’, potentially closing off unforeseen avenues more exciting than any story imagined a priori. For the alternative framing to be adopted, editors, reviewers and authors (particularly at the higher-profile journals) will have to adjust their evaluation criteria and reward authors who choose representative displays while discussing alternative models to their own.


  1. Krzywinski, M. & Cairo, A. Nat. Methods 10, 687 (2013).
  2. Latour, B. Science in Action (Harvard Univ. Press, 1987).
  3. Baker, M. Nat. Methods 9, 639 (2012).

Quando os jornalistas falam sobre ciência (Fapesp)

Martin Bauer foi um dos palestrantes do painel da FAPESP Week London sobre cultura científica (foto: LSE)


Por Fernando Cunha, de Londres

Agência FAPESP – O retrato que os jornalistas fazem da ciência, a tensão quando repórteres tentam relatar ao público o que faz a ciência e a maneira como a ciência aparece na ficção – algumas vezes de forma estereotipada – foram algumas das questões discutidas no painel sobre cultura científica, apresentado na sexta-feira (27/09), último dia de atividades da FAPESP Week London 2013.

Martin Bauer, da London School of Economics, falou sobre um projeto de pesquisa coordenado por ele que criará indicadores para verificar o nível de mobilização do mundo científico para divulgar ciência. Temas controversos como transgenia e mudanças climáticas, que provocam mobilização política, sempre vêm acompanhados de um momento educativo, segundo o pesquisador.

O projeto propõe a construção, até o fim de 2015, de um sistema de indicadores a partir de parâmetros como: a atenção do público à informação científica, as aspirações de leitores em termos de bem-estar, a percepção da contribuição da ciência para a cultura do público e a distância relativa entre o sujeito que recebe a informação científica e a própria ciência.

“Estamos interessados na análise dos conteúdos para entender a eficácia da linguagem utilizada e, particularmente, no conceito de autoridade da ciência para transmitir conteúdos de pesquisa para o público”, disse Bauer.

Os indicadores previstos estão agrupados em três tipos: percepção pública da ciência; presença, em termos quantitativos, da ciência na imprensa e na produção cultural da mídia – incluindo as diferentes editorias em jornais e a programação de rádio e TV, incluindo telenovelas; e assuntos científicos tratados.

A pesquisa e coleta de dados serão feitas principalmente em países da Europa e na Índia, e incluirá também o Brasil, em uma colaboração com o Laboratório de Estudos Avançados em Jornalismo da Universidade Estadual de Campinas (Labjor/Unicamp) e a Fundação Oswaldo Cruz (Fiocruz).

Interesse público

Marcelo Leite, repórter do jornal Folha de S. Paulo, tratou do jornalismo de ciência e da percepção pública da ciência no Brasil a partir de uma análise de matérias publicadas sobre as mudanças climáticas globais.

“Estou convencido de que o jornalismo de ciência pode funcionar como um modelo que todas as formas de jornalismo poderiam e deveriam seguir, porque vai além de opiniões, crenças e ideologias para chegar ao mais perto que podemos esperar da verdade”, disse Leite. “O jornalismo de ciência instrui leitores sobre o processo de pesquisa científica, tentando desfazer a percepção equivocada de que os cientistas são detentores da verdade eterna”, disse.

Para o jornalista, a presença do tema das mudanças climáticas nos veículos de comunicação e, em especial, a divulgação na imprensa do conteúdo do quinto relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), da Organização das Nações Unidas (ONU), no fim de setembro, oferecem interessante oportunidade de análise da cobertura e da percepção dos conteúdos.

Uma pesquisa realizada pelo Ministério da Ciência, Tecnologia e Inovação no Brasil, concluída em 2010, mostrou que o índice de atenção do público brasileiro em ciência tem aumentado, atingindo 65% dos cidadãos consultados.

“Sobre o tema ambiente, o interesse subiu de 58%, em 2006, para 82% em 2010, provavelmente por questões relacionadas com a Amazônia e mudanças climáticas, que parecem atrair a maioria das pessoas”, disse.

Em relação à cobertura jornalística de temas relacionados ao clima, a pesquisa concluiu que há uma concentração de textos na área política – com foco em negociações e na mitigação das consequências das emissões de gases de efeito estufa (50% das matérias) – e no desmatamento da floresta (23%).

O painel teve também a participação de Philip Macnaghten, da Universidade de Durham e professor visitante na Unicamp, que tratou dos cenários da pesquisa e inovação responsável no Brasil, e de Maria Immacolata Vassalo de Lopes, professora na Escola de Comunicações e Artes (ECA) da Universidade de São Paulo (USP), que falou sobre a experiência de criação de uma rede ibero-americana para o estudo da ficção na televisão, o Obitel, formada em 2005 na Colômbia, com a participação de pesquisadores de 12 países, incluindo do Brasil.

O projeto teve apoio da FAPESP, da USP, do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), da Globo Universidade (TV Globo) e do Ibope.

Realizada pela FAPESP na capital britânica entre 25 e 27 de setembro, com apoio da Royal Society e do British Council, a FAPESP Week London promoveu a discussão de temas avançados de pesquisa para ampliar oportunidades de colaboração entre cientistas brasileiros e europeus nos campos da Biodiversidade, Mudanças Climáticas, Ciências da Saúde, Bioenergia, Nanotecnologia e Comunicação.

Seca no semiárido deve se agravar nos próximos anos – e outros artigos relacionados à Conclima (Fapesp)

Pesquisadores alertam para necessidade de executar ações urgentes de adaptação e mitigação aos impactos das mudanças climáticas previstos na região (foto: Fred Jordão/Acervo ASACom)


Por Elton Alisson

Agência FAPESP – Os problemas de seca prolongada registrados atualmente no semiárido brasileiro devem se agravar ainda mais nos próximos anos por causa das mudanças climáticas globais. Por isso, é preciso executar ações urgentes de adaptação e mitigação desses impactos e repensar os tipos de atividades econômicas que podem ser desenvolvidas na região.

A avaliação foi feita por pesquisadores que participaram das discussões sobre desenvolvimento regional e desastres naturais realizadas no dia 10 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima).

Organizado pela FAPESP e promovido em parceria com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), o evento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com dados do Centro Nacional de Gerenciamento de Riscos e Desastres (Cenad), só nos últimos dois anos foram registrados 1.466 alertas de municípios no semiárido que entraram em estado de emergência ou de calamidade pública em razão de seca e estiagem – os desastres naturais mais recorrentes no Brasil, segundo o órgão.

O Primeiro Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (PBMC) – cujo sumário executivo foi divulgado no dia de abertura da Conclima – estima que esses eventos extremos aumentem principalmente nos biomas Amazônia, Cerrado e Caatinga e que as mudanças devem se acentuar a partir da metade e até o fim do século 21. Dessa forma, o semiárido sofrerá ainda mais no futuro com o problema da escassez de água que enfrenta hoje, alertaram os pesquisadores.

“Se hoje já vemos que a situação é grave, os modelos de cenários futuros das mudanças climáticas no Brasil indicam que o problema será ainda pior. Por isso, todas as ações de adaptação e mitigação pensadas para ser desenvolvidas ao longo dos próximos anos, na verdade, têm de ser realizadas agora”, disse Marcos Airton de Sousa Freitas, especialista em recursos hídricos e técnico da Agência Nacional de Águas (ANA).

Segundo o pesquisador, o semiárido – que abrange Bahia, Sergipe, Alagoas, Pernambuco, Rio Grande do Norte, Paraíba, Ceará, Piauí e o norte de Minas Gerais – vive hoje o segundo ano do período de seca, iniciado em 2011, que pode se prolongar por um tempo indefinido.

Um estudo realizado pelo órgão, com base em dados de vazão de bacias hidrológicas da região, apontou que a duração média dos períodos de seca no semiárido é de 4,5 anos. Estados como o Ceará, no entanto, já enfrentaram secas com duração de quase nove anos, seguidos por longos períodos nos quais choveu abaixo da média estimada.

De acordo com Freitas, a capacidade média dos principais reservatórios da região – com volume acima de 10 milhões de metros cúbicos de água e capacidade de abastecer os principais municípios por até três anos – está atualmente na faixa de 40%. E a tendência até o fim deste ano é de esvaziarem cada vez mais.

“Caso não haja um aporte considerável de água nesses grandes reservatórios em 2013, poderemos ter uma transição do problema de seca que se observa hoje no semiárido, mais rural, para uma seca ‘urbana’ – que atingiria a população de cidades abastecidas por meio de adutoras desses sistemas de reservatórios”, alertou Freitas.

Ações de adaptação

Uma das ações de adaptação que começou a ser implementada no semiárido nos últimos anos e que, de acordo com os pesquisadores, contribuiu para diminuir sensivelmente a vulnerabilidade do acesso à água, principalmente da população rural difusa, foi o Programa Um Milhão de Cisternas (P1MC).

Lançado em 2003 pela Articulação Semiárido Brasileiro (ASA) – rede formada por mais de mil organizações não governamentais (ONGs) que atuam na gestão e no desenvolvimento de políticas de convivência com a região semiárida –, o programa visa implementar um sistema nas comunidades rurais da região por meio do qual a água das chuvas é capturada por calhas, instaladas nos telhados das casas, e armazenada em cisternas cobertas e semienterradas. As cisternas são construídas com placas de cimento pré-moldadas, feitas pela própria comunidade, e têm capacidade de armazenar até 16 mil litros de água.

O programa tem contribuído para o aproveitamento da água da chuva em locais onde chove até 600 milímetros por ano – comparável ao volume das chuvas na Europa – que evaporam e são perdidos rapidamente sem um mecanismo que os represe, avaliaram os pesquisadores.

“Mesmo com a seca extrema na região nos últimos dois anos, observamos que a água para o consumo da população rural difusa tem sido garantida pelo programa, que já implantou cerca de 500 mil cisternas e é uma ação política de adaptação a eventos climáticos extremos. Com programas sociais, como o Bolsa Família, o programa Um Milhão de Cisternas tem contribuído para atenuar os impactos negativos causados pelas secas prolongadas na região”, afirmou Saulo Rodrigues Filho, professor da Universidade de Brasília (UnB).

Como a água tende a ser um recurso natural cada vez mais raro no semiárido nos próximos anos, Rodrigues defendeu a necessidade de repensar os tipos de atividades econômicas mais indicadas para a região.

“Talvez a agricultura não seja a atividade mais sustentável para o semiárido e há evidências de que é preciso diversificar as atividades produtivas na região, não dependendo apenas da agricultura familiar, que já enfrenta problemas de perda de mão de obra, uma vez que o aumento dos níveis de educação leva os jovens da região a se deslocar do campo para a cidade”, disse Rodrigues.

“Por meio de políticas de geração de energia mais sustentáveis, como a solar e a eólica, e de fomento a atividades como o artesanato e o turismo, é possível contribuir para aumentar a resiliência dessas populações a secas e estiagens agudas”, afirmou.

Outras medidas necessárias, apontada por Freitas, são de realocação de água entre os setores econômicos que utilizam o recurso e seleção de culturas agrícolas mais resistentes à escassez de água enfrentada na região.

“Há culturas no semiárido, como capim para alimentação de gado, que dependem de irrigação por aspersão. Não faz sentido ter esse tipo de cultura que demanda muito água em uma região que sofrerá muito os impactos das mudanças climáticas”, afirmou Freitas.

Transposição do Rio São Francisco

O pesquisador também defendeu que o projeto de transposição do Rio São Francisco tornou-se muito mais necessário agora – tendo em vista que a escassez de água deverá ser um problema cada vez maior no semiárido nas próximas décadas – e é fundamental para complementar as ações desenvolvidas na região para atenuar o risco de desabastecimento de água.

Alvo de críticas e previsto para ser concluído em 2015, o projeto prevê que as águas do Rio São Francisco cheguem às bacias do Rio Jaguaribe, que abastece o Ceará, e do Rio Piranhas-Açu, que abastece o Rio Grande do Norte e a Paraíba.

De acordo com um estudo realizado pela ANA, com financiamento do Banco Mundial e participação de pesquisadores da Universidade Federal do Ceará, entre outras instituições, a disponibilidade hídrica dessas duas bacias deve diminuir sensivelmente nos próximos anos, contribuindo para agravar ainda mais a deficiência hídrica do semiárido.

“A transposição do Rio Francisco tornou-se muito mais necessária e deveria ser acelerada porque contribuiria para minimizar o problema do déficit de água no semiárido agora, que deve piorar com a previsão de diminuição da disponibilidade hídrica nas bacias do Rio Jaguaribe e do Rio Piranhas-Açu”, disse Freitas à Agência FAPESP.

O Primeiro Relatório de Avaliação Nacional do PBMC, no entanto, indica que a vazão do Rio São Francisco deve diminuir em até 30% até o fim do século, o que colocaria o projeto de transposição sob ameaça.

Freitas, contudo, ponderou que 70% do volume de água do Rio São Francisco vem de bacias da região Sudeste, para as quais os modelos climáticos preveem aumento da vazão nas próximas décadas. Além disso, de acordo com ele, o volume total previsto para ser transposto para as bacias do Rio Jaguaribe e do Rio Piranhas-Açu corresponde a apenas 2% da vazão média da bacia do Rio São Francisco.

“É uma situação completamente diferente do caso do Sistema Cantareira, por exemplo, no qual praticamente 90% da água dos rios Piracicaba, Jundiaí e Capivari são transpostas para abastecer a região metropolitana de São Paulo”, comparou.

“Pode-se argumentar sobre a questão de custos da transposição do Rio São Francisco. Mas, em termos de necessidade de uso da água, o projeto reforçará a operação dos sistemas de reservatórios existentes no semiárido”, afirmou.

De acordo com o pesquisador, a água é distribuída de forma desigual no território brasileiro. Enquanto 48% do total do volume de chuvas que cai na Amazônia é escoado pela Bacia Amazônica, segundo Freitas, no semiárido apenas em média 7% do volume de água precipitada na região durante três a quatro meses chegam às bacias do Rio Jaguaribe e do Rio Piranhas-Açu. Além disso, grande parte desse volume de água é perdido pela evaporação. “Por isso, temos necessidade de armazenar essa água restante para os meses nos quais não haverá disponibilidade”, explicou.

As apresentações feitas pelos pesquisadores na conferência, que termina no dia 13, estarão disponíveis em:


Mudanças no clima do Brasil até 2100


Por Elton Alisson*

Mais calor, menos chuva no Norte e Nordeste do país e mais chuva no Sul e Sudeste são algumas das projeções do Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (foto: Eduardo Cesar/FAPESP)

Agência FAPESP – O clima no Brasil nas próximas décadas deverá ser mais quente – com aumento gradativo e variável da temperatura média em todas as regiões do país entre 1 ºC e 6 ºC até 2100, em comparação à registrada no fim do século 20.

No mesmo período, também deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

As conclusões são do primeiro Relatório de Avaliação Nacional (RAN1) do Painel Brasileiro de Mudanças Climáticas (PBMC), cujo sumário executivo foi divulgado nesta segunda-feira (09/08), durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima). Organizado pela FAPESP e promovido com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), oevento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com o relatório, tendo em vista que as mudanças climáticas e os impactos sobre as populações e os setores econômicos nos próximos anos não serão idênticos em todo o país, o Brasil precisa levar em conta as diferenças regionais no desenvolvimento de ações de adaptação e mitigação e de políticas agrícolas, de geração de energia e de abastecimento hídrico para essas diferentes regiões.

Dividido em três partes, o Relatório 1 – em fase final de elaboração – apresenta projeções regionalizadas das mudanças climáticas que deverão ocorrer nos seis diferentes biomas do Brasil até 2100, e indica quais são seus impactos estimados e as possíveis formas de mitigá-los.

As projeções foram feitas com base em revisões de estudos realizados entre 2007 e início de 2013 por 345 pesquisadores de diversas áreas, integrantes do PBMC, e em resultados científicos de modelagem climática global e regional.

“O Relatório está sendo preparado nos mesmos moldes dos relatórios publicados pelo Painel Intergovernamental das Mudanças Climáticas [IPCC, na sigla em inglês], que não realiza pesquisa, mas avalia os estudos já publicados”, disse José Marengo, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e coordenador do encontro.

“Depois de muito trabalho e interação, chegamos aos resultados principais dos três grupos de trabalho [Bases científicas das mudanças climáticas; Impactos, vulnerabilidades e adaptação; e Mitigação das mudanças climáticas]”, ressaltou.

Principais conclusões

Uma das conclusões do relatório é de que os eventos extremos de secas e estiagens prolongadas, principalmente nos biomas da Amazônia, Cerrado e Caatinga, devem aumentar e essas mudanças devem se acentuar a partir da metade e no fim do século 21.

A temperatura na Amazônia deverá aumentar progressivamente de 1 ºC a 1,5 ºC até 2040 – com diminuição de 25% a 30% no volume de chuvas –, entre 3 ºC e 3,5 ºC no período de 2041 a 2070 – com redução de 40% a 45% na ocorrência de chuvas –, e entre 5 ºC a 6 ºC entre 2071 a 2100.

Enquanto as modificações do clima associadas às mudanças globais podem comprometer o bioma em longo prazo, a questão atual do desmatamento decorrente das intensas atividades de uso da terra representa uma ameaça mais imediata para a Amazônia, ponderam os autores do relatório.

Os pesquisadores ressaltam que estudos observacionais e de modelagem numérica sugerem que, caso o desmatamento alcance 40% na região no futuro, haverá uma mudança drástica no padrão do ciclo hidrológico, com redução de 40% na chuva durante os meses de julho a novembro – o que prolongaria a duração da estação seca e provocaria o aquecimento superficial do bioma em até 4 ºC.

Dessa forma, as mudanças regionais decorrentes do efeito do desmatamento se somariam às provenientes das mudanças globais e constituíram condições propícias para a savanização da Amazônia – problema que tende a ser mais crítico na região oriental, ressaltam os pesquisadores.

“As projeções permitirão analisar melhor esse problema de savanização da Amazônia, que, na verdade, percebemos que poderá ocorrer em determinados pontos da floresta, e não no bioma como um todo, conforme previam alguns estudos”, destacou Tércio Ambrizzi, um dos autores coordenadores do sumário executivo do grupo de trabalho sobre a base científica das mudanças climáticas.

A temperatura da Caatinga também deverá aumentar entre 0,5 ºC e 1 ºC e as chuvas no bioma diminuirão entre 10% e 20% até 2040. Entre 2041 e 2070 o clima da região deverá ficar de 1,5 ºC a 2,5 ºC mais quente e o padrão de chuva diminuir entre 25% e 35%. Até o final do século, a temperatura do bioma deverá aumentar progressivamente entre 3,5 ºC e 4,5 ºC  e a ocorrência de chuva diminuir entre 40% e 50%. Tais mudanças podem desencadear o processo de desertificação do bioma.

Por sua vez, a temperatura no Cerrado deverá aumentar entre 5 ºC e 5,5 ºC e as chuvas diminuirão entre 35% e 45% no bioma até 2100. No Pantanal, o aquecimento da temperatura deverá ser de 3,5ºC a 4,5ºC até o final do século, com diminuição acentuada dos padrões de chuva no bioma – com queda de 35% a 45%.

Já no caso da Mata Atlântica, como o bioma abrange áreas desde a região Sul do país, passando pelo Sudeste e chegando até o Nordeste, as projeções apontam dois regimes distintos de mudanças climáticas.

Na porção Nordeste deve ocorrer um aumento relativamente baixo na temperatura – entre 0,5 ºC e 1 ºC – e decréscimo nos níveis de precipitação (chuva) em torno de 10% até 2040. Entre 2041 e 2070, o aquecimento do clima da região deverá ser de 2 ºC a 3 ºC, com diminuição pluviométrica entre 20% e 25%. Já para o final do século – entre 2071 e 2100 –, estimam-se condições de aquecimento intenso – com aumento de 3 ºC a 4 ºC na temperatura – e diminuição de 30% a 35% na ocorrência de chuvas.

Nas porções Sul e Sudeste as projeções indicam aumento relativamente baixo de temperatura entre 0,5 ºC e 1 ºC até 2040, com aumento de 5% a 10% no número de chuva. Entre 2041 e 2070 deverão ser mantidas as tendências de aumento gradual de 1,5 ºC a 2 ºC na temperatura e de 15% a 20% de chuvas.

Tais tendências devem se acentuar ainda mais no final do século, quando o clima deverá ficar entre 2,5 ºC e 3 ºC mais quente e entre 25% e 30% mais chuvoso.

Por fim, para o Pampa, as projeções indicam que até 2040 o clima da região será entre 5% e 10% mais chuvoso e até 1 ºC mais quente. Já entre 2041 e 2070, a temperatura do bioma deverá aumentar entre 1 ºC e 1,5 ºC  e haverá uma intensificação das chuvas entre 15% e 20%. As projeções para o clima da região no período entre 2071 e 2100 são mais agravantes, com aumento de temperatura de 2,5 ºC a 3 ºC e ocorrência de chuvas entre 35% e 40% acima do normal.

“O que se observa, de forma geral, é que nas regiões Norte e Nordeste do Brasil a tendência é de um aumento de temperatura e de diminuição das chuvas ao longo do século”, resumiu Ambrizzi.

“Já nas regiões mais ao Sul essa tendência se inverte: há uma tendência tanto de aumento da temperatura – ainda que não intenso – e de precipitação”, comparou.

Impactos e adaptação

As mudanças nos padrões de precipitação nas diferentes regiões do país, causadas pelas mudanças climáticas, deverão ter impactos diretos na agricultura, na geração e distribuição de energia e nos recursos hídricos das regiões, uma vez que a água deve se tornar mais rara nas regiões Norte e Nordeste e mais abundante no Sul e Sudeste, alertam os pesquisadores.

Por isso, será preciso desenvolver ações de adaptação e mitigação específicas e rever decisões de investimento, como a construção de hidrelétricas nas regiões leste da Amazônia, onde os rios poderão ter redução da vazão da ordem de até 20%, ressalvaram os pesquisadores.

“Essas variações de impactos mostram que qualquer tipo de estratégia planejada para geração de energia no leste da Amazônia está ameaçada, porque há uma série de fragilidades”, disse Eduardo Assad, pesquisador da Empresa Brasileira de Pesquisa Agropecuária (Embrapa).

“Dará para contar com água. Mas até quando e onde encontrar água nessas regiões são incógnitas”, disse o pesquisador, que é um dos coordenadores do Grupo de Trabalho 2 do relatório, sobre Impactos, vulnerabilidades e adaptação.

De acordo com Assad, é muito caro realizar ações de adaptação às mudanças climáticas no Brasil em razão das fragilidades que o país apresenta tanto em termos naturais – com grandes variações de paisagens – como socioeconômicas.

“A maior parte da população brasileira – principalmente a que habita as regiões costeiras do país – está vulnerável aos impactos das mudanças climáticas. Resolver isso não será algo muito fácil”, estimou.

Entre os setores econômicos do país, segundo Assad, a agricultura é um dos poucos que vêm se adiantando para se adaptar aos impactos das mudanças climáticas.

“Já estamos trabalhando com condições de adaptação há mais de oito anos. É possível desenvolver cultivares tolerantes a temperaturas elevadas ou à deficiência hídrica [dos solos], disse Assad.

O pesquisador também ressaltou que os grupos populacionais com piores condições de renda, educação e moradia sofrerão mais intensamente os impactos das mudanças climáticas no país. “Teremos que tomar decisões rápidas para evitar que tragédias aconteçam.”


Mercedes Bustamante, professora da Universidade de Brasília (UnB), e uma das coordenadoras do Grupo de Trabalho 3, sobre Mitigação das Mudanças Climáticas, apresentou uma síntese de estudos e pesquisas sobre o tema, identificando lacunas do conhecimento e direcionamentos futuros em um cenário de aquecimento global.

Bustamante apontou que a redução das taxas de desmatamento entre 2005 e 2010 – de 2,03 bilhões de toneladas de CO2 equivalente para 1,25 bilhão de toneladas – já teve efeitos positivos na redução das emissões de gases de efeito estufa (GEE) decorrentes do uso da terra.

“As emissões decorrentes da geração de energia e da agricultura, no entanto, aumentaram em termos absolutos e relativos, indicando mudanças no perfil das emissões brasileiras”, disse.

Mantidas as políticas atuais, a previsão é de que as emissões decorrentes dos setores de energia e de transportes aumentem 97% até 2030. Será preciso mais eficiência energética, mais inovação tecnológica e políticas de incentivo ao uso de energia renovável para reverter esse quadro.

Na área de transporte, as recomendações vão desde a transformação de um modal – fortemente baseado no transporte rodoviário – e o uso de combustíveis tecnológicos. “É preciso transferir do individual para o coletivo, investindo, por exemplo, em sistemas aquaviários e em veículos elétricos e híbridos”, ressaltou Bustamante.

O novo perfil das emissões de GEE revela uma participação crescente do metano – de origem animal – e do óxido nitroso – relacionado ao uso de fertilizantes. “Apesar desses resultados, a agricultura avançou no desenvolvimento de estratégias de mitigação e adaptação”, ponderou.

Para a indústria, responsável por 4% das emissões de GEE, a lista de recomendações para a mitigação passa pela reciclagem, pela utilização de biomassa renovável, pela cogeração de energia, entre outros.

As estratégias de mitigação das mudanças climáticas exigem, ainda, uma revisão do planejamento urbano de forma a garantir a sustentabilidade também das edificações de forma a controlar, por exemplo, o consumo da madeira e garantir maior eficiência energética na construção civil.

Informação para a sociedade

Os pesquisadores participantes da redação do relatório destacaram que, entre as virtudes do documento, está a de reunir dados de estudos científicos realizados ao longo dos últimos anos no Brasil que estavam dispersos e disponibilizar à sociedade e aos tomadores de decisão informações técnico-científicas críveis capazes de auxiliar no desenvolvimento de estratégias de adaptação e mitigação para os possíveis impactos das mudanças climáticas.

“Nós, cientistas, temos o desafio de conseguir traduzir a seriedade e a gravidade do momento e as oportunidades que as mudanças climáticas globais encerram para a sociedade. Sabemos que a inação representa a ação menos inteligente que a sociedade pode tomar”, disse Paulo Nobre, coordenador da Rede Clima.

Por sua vez, Celso Lafer, presidente da FAPESP, destacou, na abertura do evento, que a Fundação tem interesse especial nas pesquisas sobre mudanças climáticas, expresso no Programa FAPESP de Pesquisa em Mudanças Climáticas Globais (PFPMCG), mantido pela instituição.

“Uma das preocupações básicas da FAPESP é pesquisar e averiguar o impacto das mudanças climáticas globais naquilo que afeta as especificidades do Brasil e do Estado de São Paulo”, afirmou.

Também participaram da abertura do evento Bruno Covas, secretário do Meio Ambiente do Estado de São Paulo, Carlos Nobre, secretário de Políticas e Programa de Pesquisa e Desenvolvimento (Seped) do Ministério da Ciência, Tecnologia e Inovação (MCTI), e Paulo Artaxo, membro da coordenação do PFPMCG.

Carlos Nobre ressaltou que o relatório será a principal fonte de informações que orientará o Plano Nacional de Mudanças Climáticas que, no momento, está em revisão.

“É muito importante que os resultados desse estudo orientem os trabalhos em Brasília e em várias partes do Brasil, em um momento crítico de reorientar a política nacional, que tem de ir na direção de tornar a economia, a sociedade e o ambiente mais resilientes às inevitáveis mudanças climáticas que estão por vir”, afirmou.

Segundo ele, o Brasil já sinalizou compromisso com a mitigação, materializado na Política Nacional de Mudanças Climáticas e que prevê redução de 10% e 15% das emissões entre 2010 e 2020, respectivamente, relativamente a 2005.

“São Paulo lançou, em 2009, um programa ambicioso, de redução de 20% das emissões, já que a questão da mudança no uso da terra não é uma questão tão importante no Estado, mas sim o avanço tecnológico na geração de energia e em processos produtivos. O Brasil é o único país em desenvolvimento com metas voluntárias para redução de emissões”.

Ele ressaltou, entretanto, que “a adaptação ficou desassistida”. “Não é só mitigar; é preciso também se adaptar às mudanças climáticas. As três redes de pesquisa – Clima, INCT e FAPESP – avançam na adaptação, que é o guia para o desenvolvimento sustentável.”

* Colaboraram Claudia Izique e Noêmia Lopes


Modelo para entender as variações climáticas no país


Por Noêmia Lopes

Modelo Brasileiro do Sistema Terrestre é considerado fundamental para pesquisas sobre o clima(foto:Nasa)

Agência FAPESP – O desmatamento da Amazônia, as queimadas, os processos de interação entre o Oceano Atlântico e a atmosfera são algumas das questões climáticas particulares do Brasil que o Modelo Brasileiro do Sistema Terrestre (BESM, na sigla em inglês) leva em consideração e pretende dar conta de uma forma que mesmo os melhores modelos do mundo não são capazes de fazer.

O modelo foi apresentado em detalhes na segunda-feira (09/09) na abertura da 1ª Conferência Nacional de Mudanças Climáticas Globais, realizada em São Paulo.

Determinar o quanto o clima já mudou, o quanto as suas características ainda vão se alterar e onde isso ocorrerá é a base para o planejamento de políticas públicas de adaptação aos impactos das mudanças climáticas globais, segundo Paulo Nobre, coordenador geral do BESM e da Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima), na abertura do evento.

“O BESM é um eixo estruturante da pesquisa em mudanças climáticas no Brasil e oferece subsídios para o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), para a Rede Clima e para o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC)”, disse Nobre.

Com o intuito de colaborar com as previsões sobre as consequências do aquecimento global e o consequente aumento na frequência dos eventos extremos, o BESM roda no supercomputador Tupã da Rede Clima/PFPMCG, reunindo fluxos atmosféricos, oceânicos, de superfície e, em breve, químicos. Adquirido pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) com apoio da FAPESP, o Tupã está instalado na unidade do Instituto Nacional de Pesquisas Espaciais (Inpe) de Cachoeira Paulista

Embora ainda não esteja em sua versão final e completa, o modelo já consegue, por exemplo, reconstituir a ocorrência dos últimos El Niños e estimar o retorno desse fenômeno, explicar as chuvas na Zona de Convergência do Atlântico Sul e até estimar a variação do gelo no globo de maneira satisfatória.

“Os cenários mais atuais, de 2013, estão disponíveis no supercomputador. Estamos tomando medidas para que o acesso seja disponibilizado ao público em geral até o final do ano”, afirmou Nobre.

Trinta pesquisadores estão diretamente envolvidos no desenvolvimento do BESM e outros 40 estão ligados indiretamente. De acordo com Nobre, esse número deve duplicar em cinco anos e duplicar novamente em 10 anos. “Para tanto, é preciso que cada vez mais jovens doutores integrem esse desafio.”

Nobre ressaltou ainda as graves consequências que o aumento da frequência dos eventos extremos – tais como secas, enchentes e tornados – tem sobre a vida das populações: “Nossas cidades e nossos campos não foram projetados para conviver com esse novo clima, o que torna essencial a entrada do Brasil na modelagem das mudanças climáticas”, disse.

Os quatro componentes

Iracema Cavalcanti, pesquisadora do Inpe, apresentou, durante o primeiro dia da conferência, os resultados já obtidos a partir do componente atmosférico do BESM.

Em comparação com os dados observados, o modelo consegue alcançar boas simulações de variabilidade sazonal (modificações climatológicas das estações), fluxos de umidade, variabilidade interanual (diferença entre anomalias de pressão), variabilidade da precipitação, entre outros. “Ainda há deficiências, como na maioria dos modelos globais. Mas as características gerais estão contempladas”, disse Cavalcanti.

Em relação aos oceanos, não é possível separá-los do que ocorre no modelo atmosférico, daí a modelagem acoplada ser estratégica para o funcionamento eficiente do BESM. A avaliação é de Leo Siqueira, também do Inpe, que apresentou os desafios desse componente.

“Já conseguimos boas representações, mas queremos melhorar as simulações de temperatura dos oceanos, principalmente nos trópicos, e do gelo marinho. Também queremos criar uma discussão saudável sobre qual modelo de gelo terrestre será adotado dentro do BESM”, disse Siqueira.

A modelagem do terceiro componente, superfície, foi apresentada por Marcos Heil Costa, da Universidade Federal de Viçosa (UFV). “A principal função de um modelo que integra processos superficiais é fornecer fluxos de energia e vapor d’água entre a vegetação e a atmosfera. Isso é o básico. Mas o aprimoramento do sistema, ocorrido ao longo dos últimos anos, permitiu que outros processos fossem incorporados”, afirmou.

Alguns desses processos são: fluxos de radiação, energia e massa; ciclos do carbono e do nitrogênio terrestres; recuperação de áreas abandonadas; incêndios na vegetação natural; culturas agrícolas; vazão e áreas inundadas sazonais; uso do solo por ações humanas (desmatamento); representação específica dos ecossistemas; fertilidade do solo; entre outros.

Química é o quarto e mais recente dos componentes. “Sem um modelo químico, os demais precisam ser constantemente ajustados”, disse Sérgio Correa, pesquisador da Universidade Estadual do Rio de Janeiro (UERJ). Correa está à frente de estudos sobre química atmosférica que permitirão refinar os dados do BESM quando esse componente for acoplado ao modelo – uma das próximas fases previstas.

Colaborações com pesquisadores de instituições estrangeiras e treinamentos são outras estratégias que estão em vigor para melhorar as representações do Brasil e da América do Sul, com alcance também global.

Mais informações sobre a 1ª Conferência Nacional de Mudanças Climáticas Globais:

The Science of Why We Don’t Believe Science (Mother Jones)

How our brains fool us on climate, creationism, and the end of the world.

By  | Mon Apr. 18, 2011 3:00 AM PDT

“A MAN WITH A CONVICTION is a hard man to change. Tell him you disagree and he turns away. Show him facts or figures and he questions your sources. Appeal to logic and he fails to see your point.” So wrote the celebrated Stanford University psychologist Leon Festinger [1] (PDF), in a passage that might have been referring to climate change denial—the persistent rejection, on the part of so many Americans today, of what we know about global warming and its human causes. But it was too early for that—this was the 1950s—and Festinger was actually describing a famous case study [2] in psychology.

Festinger and several of his colleagues had infiltrated the Seekers, a small Chicago-area cult whose members thought they were communicating with aliens—including one, “Sananda,” who they believed was the astral incarnation of Jesus Christ. The group was led by Dorothy Martin, a Dianetics devotee who transcribed the interstellar messages through automatic writing.

Through her, the aliens had given the precise date of an Earth-rending cataclysm: December 21, 1954. Some of Martin’s followers quit their jobs and sold their property, expecting to be rescued by a flying saucer when the continent split asunder and a new sea swallowed much of the United States. The disciples even went so far as to remove brassieres and rip zippers out of their trousers—the metal, they believed, would pose a danger on the spacecraft.

Festinger and his team were with the cult when the prophecy failed. First, the “boys upstairs” (as the aliens were sometimes called) did not show up and rescue the Seekers. Then December 21 arrived without incident. It was the moment Festinger had been waiting for: How would people so emotionally invested in a belief system react, now that it had been soundly refuted?

Read also: the truth about Climategate. [3]. Read also: the truth about Climategate [4].

At first, the group struggled for an explanation. But then rationalization set in. A new message arrived, announcing that they’d all been spared at the last minute. Festinger summarized the extraterrestrials’ new pronouncement: “The little group, sitting all night long, had spread so much light that God had saved the world from destruction.” Their willingness to believe in the prophecy had saved Earth from the prophecy!

From that day forward, the Seekers, previously shy of the press and indifferent toward evangelizing, began to proselytize. “Their sense of urgency was enormous,” wrote Festinger. The devastation of all they had believed had made them even more certain of their beliefs.

In the annals of denial, it doesn’t get much more extreme than the Seekers. They lost their jobs, the press mocked them, and there were efforts to keep them away from impressionable young minds. But while Martin’s space cult might lie at on the far end of the spectrum of human self-delusion, there’s plenty to go around. And since Festinger’s day, an array of new discoveries in psychology and neuroscience has further demonstrated how our preexisting beliefs, far more than any new facts, can skew our thoughts and even color what we consider our most dispassionate and logical conclusions. This tendency toward so-called “motivated reasoning [5]” helps explain why we find groups so polarized over matters where the evidence is so unequivocal: climate change, vaccines, “death panels,” the birthplace and religion of the president [6] (PDF), and much else. It would seem that expecting people to be convinced by the facts flies in the face of, you know, the facts.

The theory of motivated reasoning builds on a key insight of modern neuroscience [7] (PDF): Reasoning is actually suffused with emotion (or what researchers often call “affect”). Not only are the two inseparable, but our positive or negative feelings about people, things, and ideas arise much more rapidly than our conscious thoughts, in a matter of milliseconds—fast enough to detect with an EEG device, but long before we’re aware of it. That shouldn’t be surprising: Evolution required us to react very quickly to stimuli in our environment. It’s a “basic human survival skill,” explains political scientist Arthur Lupia[8] of the University of Michigan. We push threatening information away; we pull friendly information close. We apply fight-or-flight reflexes not only to predators, but to data itself.

We apply fight-or-flight reflexes not only to predators, but to data itself.

We’re not driven only by emotions, of course—we also reason, deliberate. But reasoning comes later, works slower—and even then, it doesn’t take place in an emotional vacuum. Rather, our quick-fire emotions can set us on a course of thinking that’s highly biased, especially on topics we care a great deal about.

Consider a person who has heard about a scientific discovery that deeply challenges her belief in divine creation—a new hominid, say, that confirms our evolutionary origins. What happens next, explains political scientist Charles Taber [9] of Stony Brook University, is a subconscious negative response to the new information—and that response, in turn, guides the type of memories and associations formed in the conscious mind. “They retrieve thoughts that are consistent with their previous beliefs,” says Taber, “and that will lead them to build an argument and challenge what they’re hearing.”

In other words, when we think we’re reasoning, we may instead be rationalizing. Or to use an analogy offered by University of Virginia psychologist Jonathan Haidt [10]: We may think we’re being scientists, but we’re actually being lawyers [11] (PDF). Our “reasoning” is a means to a predetermined end—winning our “case”—and is shot through with biases. They include “confirmation bias,” in which we give greater heed to evidence and arguments that bolster our beliefs, and “disconfirmation bias,” in which we expend disproportionate energy trying to debunk or refute views and arguments that we find uncongenial.

That’s a lot of jargon, but we all understand these mechanisms when it comes to interpersonal relationships. If I don’t want to believe that my spouse is being unfaithful, or that my child is a bully, I can go to great lengths to explain away behavior that seems obvious to everybody else—everybody who isn’t too emotionally invested to accept it, anyway. That’s not to suggest that we aren’t also motivated to perceive the world accurately—we are. Or that we never change our minds—we do. It’s just that we have other important goals besides accuracy—including identity affirmation and protecting one’s sense of self—and often those make us highly resistant to changing our beliefs when the facts say we should.

Modern science originated from an attempt to weed out such subjective lapses—what that great 17th century theorist of the scientific method, Francis Bacon, dubbed the “idols of the mind.” Even if individual researchers are prone to falling in love with their own theories, the broader processes of peer review and institutionalized skepticism are designed to ensure that, eventually, the best ideas prevail.

Scientific evidence is highly susceptible to misinterpretation. Giving ideologues scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Our individual responses to the conclusions that science reaches, however, are quite another matter. Ironically, in part because researchers employ so much nuance and strive to disclose all remaining sources of uncertainty, scientific evidence is highly susceptible to selective reading and misinterpretation. Giving ideologues or partisans scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Sure enough, a large number of psychological studies have shown that people respond to scientific or technical evidence in ways that justify their preexisting beliefs. In a classic 1979 experiment [12] (PDF), pro- and anti-death penalty advocates were exposed to descriptions of two fake scientific studies: one supporting and one undermining the notion that capital punishment deters violent crime and, in particular, murder. They were also shown detailed methodological critiques of the fake studies—and in a scientific sense, neither study was stronger than the other. Yet in each case, advocates more heavily criticized the study whose conclusions disagreed with their own, while describing the study that was more ideologically congenial as more “convincing.”

Since then, similar results have been found for how people respond to “evidence” about affirmative action, gun control, the accuracy of gay stereotypes [13], and much else. Even when study subjects are explicitly instructed to be unbiased and even-handed about the evidence, they often fail.

And it’s not just that people twist or selectively read scientific evidence to support their preexisting views. According to research by Yale Law School professor Dan Kahan [14] and his colleagues, people’s deep-seated views about morality, and about the way society should be ordered, strongly predict whom they consider to be a legitimate scientific expert in the first place—and thus where they consider “scientific consensus” to lie on contested issues.

In Kahan’s research [15] (PDF), individuals are classified, based on their cultural values, as either “individualists” or “communitarians,” and as either “hierarchical” or “egalitarian” in outlook. (Somewhat oversimplifying, you can think of hierarchical individualists as akin to conservative Republicans, and egalitarian communitarians as liberal Democrats.) In one study, subjects in the different groups were asked to help a close friend determine the risks associated with climate change, sequestering nuclear waste, or concealed carry laws: “The friend tells you that he or she is planning to read a book about the issue but would like to get your opinion on whether the author seems like a knowledgeable and trustworthy expert.” A subject was then presented with the résumé of a fake expert “depicted as a member of the National Academy of Sciences who had earned a Ph.D. in a pertinent field from one elite university and who was now on the faculty of another.” The subject was then shown a book excerpt by that “expert,” in which the risk of the issue at hand was portrayed as high or low, well-founded or speculative. The results were stark: When the scientist’s position stated that global warming is real and human-caused, for instance, only 23 percent of hierarchical individualists agreed the person was a “trustworthy and knowledgeable expert.” Yet 88 percent of egalitarian communitarians accepted the same scientist’s expertise. Similar divides were observed on whether nuclear waste can be safely stored underground and whether letting people carry guns deters crime. (The alliances did not always hold. Inanother study [16] (PDF), hierarchs and communitarians were in favor of laws that would compel the mentally ill to accept treatment, whereas individualists and egalitarians were opposed.)

Head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

In other words, people rejected the validity of a scientific source because its conclusion contradicted their deeply held views—and thus the relative risks inherent in each scenario. A hierarchal individualist finds it difficult to believe that the things he prizes (commerce, industry, a man’s freedom to possess a gun to defend his family [16]) (PDF) could lead to outcomes deleterious to society. Whereas egalitarian communitarians tend to think that the free market causes harm, that patriarchal families mess up kids, and that people can’t handle their guns. The study subjects weren’t “anti-science”—not in their own minds, anyway. It’s just that “science” was whatever they wanted it to be. “We’ve come to a misadventure, a bad situation where diverse citizens, who rely on diverse systems of cultural certification, are in conflict,” says Kahan [17].

And that undercuts the standard notion that the way to persuade people is via evidence and argument. In fact, head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

Take, for instance, the question of whether Saddam Hussein possessed hidden weapons of mass destruction just before the US invasion of Iraq in 2003. When political scientists Brendan Nyhan and Jason Reifler showed subjects fake newspaper articles [18] (PDF) in which this was first suggested (in a 2004 quote from President Bush) and then refuted (with the findings of the Bush-commissioned Iraq Survey Group report, which found no evidence of active WMD programs in pre-invasion Iraq), they found that conservatives were more likely than before to believe the claim. (The researchers also tested how liberals responded when shown that Bush did not actually “ban” embryonic stem-cell research. Liberals weren’t particularly amenable to persuasion, either, but no backfire effect was observed.)

Another study gives some inkling of what may be going through people’s minds when they resist persuasion. Northwestern University sociologist Monica Prasad [19] and her colleagues wanted to test whether they could dislodge the notion that Saddam Hussein and Al Qaeda were secretly collaborating among those most likely to believe it—Republican partisans from highly GOP-friendly counties. So the researchers set up a study [20] (PDF) in which they discussed the topic with some of these Republicans in person. They would cite the findings of the 9/11 Commission, as well as a statement in which George W. Bush himself denied his administration had “said the 9/11 attacks were orchestrated between Saddam and Al Qaeda.”

One study showed that not even Bush’s own words could change the minds of Bush voters who believed there was an Iraq-Al Qaeda link.

As it turned out, not even Bush’s own words could change the minds of these Bush voters—just 1 of the 49 partisans who originally believed the Iraq-Al Qaeda claim changed his or her mind. Far more common was resisting the correction in a variety of ways, either by coming up with counterarguments or by simply being unmovable:

Interviewer: [T]he September 11 Commission found no link between Saddam and 9/11, and this is what President Bush said. Do you have any comments on either of those?

Respondent: Well, I bet they say that the Commission didn’t have any proof of it but I guess we still can have our opinions and feel that way even though they say that.

The same types of responses are already being documented on divisive topics facing the current administration. Take the “Ground Zero mosque.” Using information from the political myth-busting site [21], a team at Ohio State presented subjects [22] (PDF) with a detailed rebuttal to the claim that “Feisal Abdul Rauf, the Imam backing the proposed Islamic cultural center and mosque, is a terrorist-sympathizer.” Yet among those who were aware of the rumor and believed it, fewer than a third changed their minds.

A key question—and one that’s difficult to answer—is how “irrational” all this is. On the one hand, it doesn’t make sense to discard an entire belief system, built up over a lifetime, because of some new snippet of information. “It is quite possible to say, ‘I reached this pro-capital-punishment decision based on real information that I arrived at over my life,'” explains Stanford social psychologist Jon Krosnick [23]. Indeed, there’s a sense in which science denial could be considered keenly “rational.” In certain conservative communities, explains Yale’s Kahan, “People who say, ‘I think there’s something to climate change,’ that’s going to mark them out as a certain kind of person, and their life is going to go less well.”

This may help explain a curious pattern Nyhan and his colleagues found when they tried to test the fallacy [6] (PDF) that President Obama is a Muslim. When a nonwhite researcher was administering their study, research subjects were amenable to changing their minds about the president’s religion and updating incorrect views. But when only white researchers were present, GOP survey subjects in particular were more likely to believe the Obama Muslim myth than before. The subjects were using “social desirabililty” to tailor their beliefs (or stated beliefs, anyway) to whoever was listening.

Which leads us to the media. When people grow polarized over a body of evidence, or a resolvable matter of fact, the cause may be some form of biased reasoning, but they could also be receiving skewed information to begin with—or a complicated combination of both. In the Ground Zero mosque case, for instance, a follow-up study [24] (PDF) showed that survey respondents who watched Fox News were more likely to believe the Rauf rumor and three related ones—and they believed them more strongly than non-Fox watchers.

Okay, so people gravitate toward information that confirms what they believe, and they select sources that deliver it. Same as it ever was, right? Maybe, but the problem is arguably growing more acute, given the way we now consume information—through the Facebook links of friends, or tweets that lack nuance or context, or “narrowcast [25]” and often highly ideological media that have relatively small, like-minded audiences. Those basic human survival skills of ours, says Michigan’s Arthur Lupia, are “not well-adapted to our information age.”

A predictor of whether you accept the science of global warming? Whether you’re a Republican or a Democrat.

If you wanted to show how and why fact is ditched in favor of motivated reasoning, you could find no better test case than climate change. After all, it’s an issue where you have highly technical information on one hand and very strong beliefs on the other. And sure enough, one key predictor of whether you accept the science of global warming is whether you’re a Republican or a Democrat. The two groups have been growing more divided in their views about the topic, even as the science becomes more unequivocal.

So perhaps it should come as no surprise that more education doesn’t budge Republican views. On the contrary: In a 2008 Pew survey [26], for instance, only 19 percent of college-educated Republicans agreed that the planet is warming due to human actions, versus 31 percent of non-college educated Republicans. In other words, a higher education correlated with an increased likelihood of denying the science on the issue. Meanwhile, among Democrats and independents, more education correlated with greater acceptance of the science.

Other studies have shown a similar effect: Republicans who think they understand the global warming issue best are least concerned about it; and among Republicans and those with higher levels of distrust of science in general, learning more about the issue doesn’t increase one’s concern about it. What’s going on here? Well, according to Charles Taber and Milton Lodge of Stony Brook, one insidious aspect of motivated reasoning is that political sophisticates are prone to be more biased than those who know less about the issues. “People who have a dislike of some policy—for example, abortion—if they’re unsophisticated they can just reject it out of hand,” says Lodge. “But if they’re sophisticated, they can go one step further and start coming up with counterarguments.” These individuals are just as emotionally driven and biased as the rest of us, but they’re able to generate more and better reasons to explain why they’re right—and so their minds become harder to change.

That may be why the selectively quoted emails of Climategate were so quickly and easily seized upon by partisans as evidence of scandal. Cherry-picking is precisely the sort of behavior you would expect motivated reasoners to engage in to bolster their views—and whatever you may think about Climategate, the emails were a rich trove of new information upon which to impose one’s ideology.

Climategate had a substantial impact on public opinion, according to Anthony Leiserowitz [27], director of the Yale Project on Climate Change Communication [28]. It contributed to an overall drop in public concern about climate change and a significant loss of trust in scientists. But—as we should expect by now—these declines were concentrated among particular groups of Americans: Republicans, conservatives, and those with “individualistic” values. Liberals and those with “egalitarian” values didn’t lose much trust in climate science or scientists at all. “In some ways, Climategate was like a Rorschach test,” Leiserowitz says, “with different groups interpreting ambiguous facts in very different ways.”

Is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism.

So is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism. Its most famous proponents are an environmentalist (Robert F. Kennedy Jr. [29]) and numerous Hollywood celebrities (most notably Jenny McCarthy [30] and Jim Carrey). TheHuffington Post gives a very large megaphone to denialists. And Seth Mnookin [31], author of the new book The Panic Virus [32], notes that if you want to find vaccine deniers, all you need to do is go hang out at Whole Foods.

Vaccine denial has all the hallmarks of a belief system that’s not amenable to refutation. Over the past decade, the assertion that childhood vaccines are driving autism rateshas been undermined [33] by multiple epidemiological studies—as well as the simple fact that autism rates continue to rise, even though the alleged offending agent in vaccines (a mercury-based preservative called thimerosal) has long since been removed.

Yet the true believers persist—critiquing each new study that challenges their views, and even rallying to the defense of vaccine-autism researcher Andrew Wakefield, afterhis 1998 Lancet paper [34]—which originated the current vaccine scare—was retracted and he subsequently lost his license [35] (PDF) to practice medicine. But then, why should we be surprised? Vaccine deniers created their own partisan media, such as the website Age of Autism, that instantly blast out critiques and counterarguments whenever any new development casts further doubt on anti-vaccine views.

It all raises the question: Do left and right differ in any meaningful way when it comes to biases in processing information, or are we all equally susceptible?

There are some clear differences. Science denial today is considerably more prominent on the political right—once you survey climate and related environmental issues, anti-evolutionism, attacks on reproductive health science by the Christian right, and stem-cell and biomedical matters. More tellingly, anti-vaccine positions are virtually nonexistent among Democratic officeholders today—whereas anti-climate-science views are becoming monolithic among Republican elected officials.

Some researchers have suggested that there are psychological differences between the left and the right that might impact responses to new information—that conservatives are more rigid and authoritarian, and liberals more tolerant of ambiguity. Psychologist John Jost of New York University has further argued that conservatives are “system justifiers”: They engage in motivated reasoning to defend the status quo.

This is a contested area, however, because as soon as one tries to psychoanalyze inherent political differences, a battery of counterarguments emerges: What about dogmatic and militant communists? What about how the parties have differed through history? After all, the most canonical case of ideologically driven science denial is probably the rejection of genetics in the Soviet Union, where researchers disagreeing with the anti-Mendelian scientist (and Stalin stooge) Trofim Lysenko were executed, and genetics itself was denounced as a “bourgeois” science and officially banned.

The upshot: All we can currently bank on is the fact that we all have blinders in some situations. The question then becomes: What can be done to counteract human nature itself?

We all have blinders in some situations. The question then becomes: What can be done to counteract human nature?

Given the power of our prior beliefs to skew how we respond to new information, one thing is becoming clear: If you want someone to accept new evidence, make sure to present it to them in a context that doesn’t trigger a defensive, emotional reaction.

This theory is gaining traction in part because of Kahan’s work at Yale. In one study [36], he and his colleagues packaged the basic science of climate change into fake newspaper articles bearing two very different headlines—”Scientific Panel Recommends Anti-Pollution Solution to Global Warming” and “Scientific Panel Recommends Nuclear Solution to Global Warming”—and then tested how citizens with different values responded. Sure enough, the latter framing made hierarchical individualists much more open to accepting the fact that humans are causing global warming. Kahan infers that the effect occurred because the science had been written into an alternative narrative that appealed to their pro-industry worldview.

You can follow the logic to its conclusion: Conservatives are more likely to embrace climate science if it comes to them via a business or religious leader, who can set the issue in the context of different values than those from which environmentalists or scientists often argue. Doing so is, effectively, to signal a détente in what Kahan has called a “culture war of fact.” In other words, paradoxically, you don’t lead with the facts in order to convince. You lead with the values—so as to give the facts a fighting chance.


“Cientistas podem contar uma história sem perder a acurácia” (Fapesp)

Dan Fay, diretor da Microsoft Research Connections, afirma que a tecnologia pode ajudar os pesquisadores a expor artigos e atrair mais leitores, sejam eles seus pares, formuladores de políticas ou agências de fomento (foto:Edu Cesar/FAPESP)



Por Frances Jones

Agência FAPESP – Com mais de 20 anos de Microsoft, o engenheiro Dan Fay faz parte de um seleto grupo de profissionais que vasculha o mundo científico em busca de parcerias entre a gigante de informática e autores de projetos relacionados às ciências da Terra, energia e meio ambiente.

São projetos como o software World Wide Telescope, desenvolvido em parceria com pesquisadores da Universidade Johns Hopkins, que permite que cientistas de diversas regiões do mundo acessem imagens de objetos celestes coletadas por telescópios espaciais, observatórios e instituições de pesquisa, manipulem e compartilhem esses dados.

“Nosso desafio é encontrar pesquisadores a cuja pesquisa podemos agregar valor e não apenas fornecer mais máquinas”, disse Fay, que, além de ser diretor da divisão de Terra, Energia e Ambiente da Microsoft Research Connections, o braço de pesquisas da Microsoft, integra o conselho consultivo industrial para Computação e Tecnologia da Informação da Purdue University, no estado norte-americano de Indiana.

Fay esteve em São Paulo para participar do Latin American eScience Workshop 2013, promovido pela FAPESP e pela Microsoft Research de 13 a 15 de maio, quando proferiu duas palestras a pesquisadores e estudantes de diversos países sobre avanços em diversas áreas do conhecimento proporcionados pela melhoria na capacidade de análise de grandes volumes de informações. Em uma delas, falou sobre como a ciência pode utilizar a computação em nuvem; na outra, sobre “como divulgar sua pesquisa internacionalmente”. Em seguida, conversou com a Agência FAPESP. Leia abaixo, trechos da entrevista.

Agência FAPESP – O que o senhor espera para o futuro com relação à eScience, a utilização no fazer ciência de tecnologias e ferramentas de computação?
Fay – O interessante sobre a eScience é combinar dados computacionais e novas técnicas nas mais diversas áreas. O que vemos agora é um uso maior da computação, mas o passo seguinte será o cruzamento dos diferentes domínios e o uso combinado dessas informações, como, por exemplo, da biologia e do meio ambiente juntos, fazendo uma análise transversal. Os dois domínios falam línguas diferentes. A passagem entre as áreas será um dos próximos desafios. Não se pode assumir que um dado significa algo. É preciso ter certeza.

Agência FAPESP – Como os pesquisadores podem utilizar a computação em nuvem para seus estudos?
Fay – A computação em nuvem fornece um novo paradigma para enfrentar os desafios da computação e da análise de dados nas mais diversas áreas do conhecimento científico. Diferentemente dos supercomputadores tradicionais, isolados e centralizados, a nuvem está em todos os lugares e pode oferecer suporte a diferente estilos de computação que são adequados para a análise de dados e para colaboração. Nos últimos três anos temos trabalhado com pesquisadores acadêmicos para explorar o potencial desta nova plataforma. Temos mais de 90 projetos de pesquisa que usam o Windows Azure [plataforma em nuvem da Microsoft] e temos aprendido muito. Como em qualquer tecnologia nova, há sempre pessoas que começam antes e outras depois. Há vários pesquisadores que começaram a usá-la para compreender como isso pode mudar a forma com que fazem pesquisa.

Agência FAPESP – O senhor acha que no futuro haverá uma mudança na forma de se divulgar ciência?
Dan Fay – Comentei com os alunos no workshop que sempre haverá os artigos tradicionais, de revistas científicas, que são revisados pelos pares. Com a quantidade de informações que temos hoje, no entanto, para tornar isso mais visível para outras pessoas e para o público em geral, os dados também podem ser apresentados de outra forma. Um artigo que se aprofunda nos detalhes também pode ser acessível a pessoas de diferentes domínios. Produzir fotos e vídeos, entre outros recursos, também pode ajudar.

Agência FAPESP – Esse é um papel dos cientistas?
Fay – Você pode usar os mesmos dados científicos acurados e contar histórias sobre eles. E permitir que as pessoas escutem diretamente de você essa história de forma visual. Essa interação é muito poderosa. É a mesma coisa que ir ao museu e ver várias obras de arte: as pessoas se conectam a elas. Os cientistas querem que seus colegas e as pessoas em geral se conectem dessa forma com suas informações, dados ou artigos. Acho bom encontrar outros mecanismos que possam explicar os dados. Estamos em uma época fascinante na qual há uma preocupação em divulgar a informação de um jeito interessante. Isso é verdade não apenas quando se quer falar para os seus pares, mas especialmente se você quer que os formuladores de políticas, o governo ou as agências de fomento entendam o que é o seu trabalho. Às vezes ele tem de ser apresentado de forma que possa ser consumido com mais facilidade.

Agência FAPESP – A tecnologia ajuda nesse ponto?
Fay – Sim. Parte disso porque essas formas fazem com que as pessoas leiam com mais profundidade os artigos. Há uma pesquisadora em Harvard, uma astrônoma, que criou um desses tours virtuais que temos sobre as galáxias. Ela calcula que mais pessoas assistiram a seus tours do que leram seus artigos científicos. Esse tipo de entendimento está aumentando. Se posso ajudar alguém a ler um artigo ao ver isso em outro lugar, isso é um avanço.

Agência FAPESP – O senhor acha que os cientistas devem entrar em redes sociais digitais, como o Facebook, para expor seus trabalhos?
Fay – Sim. Eles devem sempre se apoiar no rigor científico, mas ajuda empregar técnicas de design ou de marketing. Mesmo em seus pôsteres. É uma forma de divulgar melhor as informações.

Agência FAPESP – E as novas tecnologias promoverão a abertura dos dados científicos?
Fay – Para além da abertura de dados, há um problema social, no qual as pessoas se sentem donas de suas ideias ou informações. Encontrar formas de compartilhar os dados e dar o devido reconhecimento às pessoas que os coletaram, processaram e os tornaram disponíveis é importante. É aí, acredito, que estão vários desafios. Também há a questão dos dados médicos ou de outros dados que você não quer que fiquem soltos por aí.

Why Sandy Has Meteorologists Scared, in 4 Images (The Atlantic)

By Alexis Madrigal

OCT 28 2012, 12:23 PM ET 126

She’s huge. She’s strong and might get stronger. She’s strange. She’s directing the might of her storm surge right at New York City.

sandycomes_615.jpgUpdate 10/29, 4:49pm: The Eastern seaboard has battened down the hatches. Hurricane Sandy is expected to make landfall in New Jersey in the next few hours, but flooding has been reported in Atlantic City and pieces of New York during this morning’s high tide cycle. The Metropolitan Transportation Authority already shut down rail, bus, and subway service in NYC, as did Washington DC’s authorities. All eyes are on the 8 o’clock hour, when the storm surge from Sandy will combine with a very high tide to create maximum water levels. In the worst case scenario, the storm surge will hit precisely at the moment the tide peaks at 8:53pm. In that scenario, New York City, in particular, could sustain substantial damage, especially to its transportation infrastructure.

The good news, if there is any, is that the forecast hasn’t worsened much. It is what it has been, which is grim. Meteorologist Jeff Masters put it in simple terms. “As the core of Sandy moves ashore, the storm will carry with it a gigantic bulge of water that will raise waters levels to the highest storm tides ever seen in over a century of record keeping, along much of the coastline of New Jersey and New York,” Masters wrote today. “The peak danger will be between 7 pm – 10 pm, when storm surge rides in on top of the high tide.”

Here’s the latest map of the prospective storm surge tonight. You can compare it to the image at the bottom, which shows what the forecast was yesterday.


* * *

Hurricane Sandy has already caused her first damage in New York: the subway system will be shut as of 7pm tonight. Meteorologists are scared, so city planners are scared.

For many, the hullabaloo raises memories of Irene, which despite causing $15.6 billion worth of damages in the United States, did not live up to its pre-arrival hype.

By almost all measures, this storm looks like it could be worse: higher winds, a path through a more populated area, worse storm surge, and a greater chance it’ll linger. The atmospherics, you might say, all point to this being the worst storm in recent history.

I’ve been watching weather nerds freak out about a few different graphs over the last several days, which they’ve sent around like sports fans would tweet a particularly vicious hit in the NFL. You don’t want to look, but you also can’t help it.

Dr. Ryan Maue, a meteorologist at WeatherBELL, put out this animated GIF of the storm’s approach yesterday. “This is unprecedented –absolutely stunning upper-level configuration pinwheeling #Sandy on-shore like ping-pong ball,” he tweeted. It shows how cold air to the north and west of the storm spin Sandy into the mid-atlantic coastline. (Nota bene: his models also show very high winds at skyscraper altitudes.)


hurricanegif.gifThis morning, the Wall Street Journal’s Eric Holthaus (@WSJweather), tweeted the following map. “Oh my…. I have never seen so much purple on this graphic. By far. Never,” he said. “Folks, please take this storm seriously.” The storm is strong *and* huge. And when it encounters the cold air from the north and west, it will develop renewed strength thanks to that interaction, a process known as “baroclinic enhancement.”


This last graphic I created from National Oceanographic and Atmospheric Administration data that has weather watchers worried. It shows the probability of a greater than six foot storm surge  in and around New York City. Hurricane Irene, by comparison, caused a four foot surge.
Note that the highest probabilities are focused tightly around New York City, which also happens to be the most densely populated area in the country. That’s a very bad combination. Jeff Masters, author of the must-read storm blog Wunderground, laid out the general problem.
“[According to last night’s forecast], the destructive potential of the storm surge was exceptionally high: 5.7 on a scale of 0 to 6,” he wrote. “This is a higher destructive potential than any hurricane observed between 1969 – 2005, including Category 5 storms like Katrina, Rita, Wilma, Camille, and Andrew.”
Specifically, New York City’s infrastructure may take an unprecedented hit. The subway narrowly escaped flooding during Irene, and Sandy (for all the reasons above) is expected to be worse. So…

“According to the latest storm surge forecast for NYC from NHC, Sandy’s storm surge is expected to be several feet higher than Irene’s. If the peak surge arrives near Monday evening’s high tide at 9 pm EDT, a portion of New York City’s subway system could flood, resulting in billions of dollars in damage,” Masters concluded. “I give a 50% chance that Sandy’s storm surge will end up flooding a portion of the New York City subway system.”

Update 1:06pm: To get a taste of how forecasters are feeling, here is The Weather Channel’s senior meteorologist, Stu Ostro:

History is being written as an extreme weather event continues to unfold, one which will occupy a place in the annals of weather history as one of the most extraordinary to have affected the United States.

On Twitter, Alan Robinson pointed out that I left out another scary map, the rainfall forecast, which shows the storm “sitting over the Delaware and Susquehanna watersheds.” Much of the damage that Irene caused came from flooding rivers. However, there is one key factor militating against similar damage, Jeff Masters of Wunderground says. Irene hit when the ground was already very wet. Sandy is striking when ground moisture is roughly average. Here’s Masters whole statement:

Hurricane Irene caused $15.8 billion in damage, most of it from river flooding due to heavy rains. However, the region most heavily impacted by Irene’s heavy rains had very wet soils and very high river levels before Irene arrived, due to heavy rains that occurred in the weeks before the hurricane hit. That is not the case for Sandy; soil moisture is near average over most of the mid-Atlantic, and is in the lowest 30th percentile in recorded history over much of Delaware and Southeastern Maryland. One region of possible concern is the Susquehanna River Valley in Eastern Pennsylvania, where soil moisture is in the 70th percentile, and river levels are in the 76th – 90th percentile. This area is currently expected to receive 3 – 6 inches of rain (Figure 4), which is probably not enough to cause catastrophic flooding like occurred for Hurricane Irene. I expect that river flooding from Sandy will cause less than $1 billion in damage.