Arquivo da categoria: Uncategorized

Corrente do Golfo pode parar, diz estudo (Observatório do Clima)

JC, 5571, 5 de janeiro de 2017

Novo modelo mostra que esteira oceânica que transporta calor à Europa é mais vulnerável ao aquecimento global do que se imaginava, mas só pararia em séculos não de anos; Brasil seria afetado

Cientistas chineses trabalhando nos EUA trouxeram nesta quarta-feira uma notícia agridoce sobre um dos efeitos mais temidos do aquecimento global. Um modelo climático feito por eles mostra que a corrente oceânica que leva calor dos trópicos à Europa é mais vulnerável do que se imaginava às mudanças do clima, e desligará completamente caso a quantidade de gás carbônico na atmosfera siga aumentando. Por outro lado, esse desligamento ocorreria em séculos, não em anos ou décadas.

Conhecida como circulação termoalina do Atlântico, essa imensa esteira oceânica é um dos principais sistemas de regulação do clima da Terra. Sua face mais conhecida é a Corrente do Golfo, uma corrente quente que migra pela superfície do Atlântico tropical até as imediações do Ártico. No Atlântico Norte, ela fica mais fria e mais salgada (devido à evaporação da água no caminho), afundando e retornando aos trópicos na forma de uma corrente fria submarina. A dissipação de calor dessa corrente é o que mantém a Inglaterra e o norte da Europa com um clima relativamente tépido, mesmo estando em uma latitude elevada.

Desde os anos 1980 os cientistas têm postulado que o aquecimento global, ao derreter o gelo e a neve do Ártico, lançaria grande quantidade de água doce no oceano, diluindo o sal da corrente e impedindo que ela afundasse. O efeito imediato seria a suspensão do transporte da calor para a Europa, que mergulharia numa espécie de era do gelo. Isso já aconteceu há 8.200 anos e resfriou o Velho Continente por dois séculos. Poderia acontecer de novo de forma rápida e causar problemas sérios à civilização, caricaturados no filme-catástrofe O Dia Depois de Amanhã, de 2004.

Observações feitas até aqui, que são esparsas, têm mostrado que justamente desde 2004 esteira oceânica está em sua menor potência nos últimos mil anos, provavelmente por causa do aquecimento global. Alguns cientistas temem que o colapso já tenha começado.

Ocorre que os modelos computacionais que simulam o clima da Terra no futuro, usados pelo IPCC (o painel do clima da ONU), têm falhado sistematicamente em apontar instabilidade no sistema. Por consequência, o desligamento repentino da corrente é considerado pouco provável pelo painel.

Entram em cena Wei Liu, da Universidade da Califórnia em San Diego (hoje na outra costa do país, na Universidade Yale), e colegas. Em estudo publicado nesta quarta-feira no site da revista Science Advances, o grupo aponta que os modelos padecem de um viés: uma distorção faz a corrente parecer artificialmente mais estável do que é de fato.

A origem do problema está longe da Europa, no Atlântico Sul. Essa região do oceano tropical, perto do equador, recebe chuvas constantes na chamada Zona de Convergência Intertropical, o cinturão de tempestades onde massas de ar aquecido dos dois hemisférios se encontram.

Liu e colegas dizem que os modelos do IPCC assumem que há mais água doce oriunda dessas chuvas na corrente do que há de fato. Isso causaria nos modelos uma ilusão de estabilidade – quanto mais água doce no trópico, menor a diferença de salinidade perto do Ártico, portanto, menos suscetível a perturbações a corrente seria. Esse viés, afirma Liu, já havia sido sugerido por outros estudos no passado.

O que o chinês e seu grupo fizeram foi ajustar um dos modelos de acordo com parâmetros de salinidade que eles consideravam mais realistas. Mas não apenas isso: a correção do viés tornou a corrente mais instável e vulnerável ao próprio aquecimento da água do mar – algo que casa melhor com as observações. “O aquecimento reduz a densidade da água e impede a convecção”, disse Liu ao OC.  “O método não é perfeito, mas é o melhor que podemos fazer agora para corrigir o viés e fazer uma projeção mais confiável.”

Os pesquisadores usaram o modelo ajustado para estimar o que acontece com a esteira oceânica caso o nível de CO2 na atmosfera duplique – algo que acontecerá por volta de meados do século se medidas radicais de controle de emissões não forem tomadas.

Aqui vem a nota de alívio do estudo: o colapso da corrente ocorre nas simulações apenas 300 anos após a quantidade de CO2 dobrar na atmosfera. Questionado sobre se isso era uma boa notícia, Liu foi cauteloso: “Sim, 300 anos são muita coisa comparado a uma vida humana, mas mudanças notáveis podem ocorrer antes de a circulação colapsar”, disse. “Além disso, nosso resultado é baseado em um modelo e em um cenário simples de aquecimento.” Liu e seus colegas não consideraram, por exemplo, o fator que até agora tem sido invocado para explicar a redução da corrente: o efeito do degelo da Groenlândia. Ao lançar excesso de água doce sobre o oceano no Ártico, o derretimento poderia agravar a situação de uma corrente que já seria impactada pelo aquecimento da superfície.

Um efeito esperado dessa redução na corrente, por exemplo, é uma mudança nos padrões de chuva em várias regiões do planeta. Um dos lugares que seriam afetados é o Brasil. Estudos do grupo do geólogo de Francisco Cruz, da USP, já mostraram que fases de redução da circulação termoalina no passado corresponderam a chuvas torrenciais no Brasil, devido ao deslocamento da Zona de Convergência Intertropical para o sul.

“Precisamos aplicar essa metodologia a mais modelos climáticos e a cenários de aquecimento global mais realistas”, afirmou Liu.

Observatório do Clima

Global warming hiatus disproved — again (Science Daily)

Study confirms steady warming of oceans for past 45 years

Date:
January 4, 2017
Source:
University of California – Berkeley
Summary:
Scientists calculated average ocean temperatures from 1999 to 2015, separately using ocean buoys and satellite data, and confirmed the uninterrupted warming trend reported by NOAA in 2015, based on that organization’s recalibration of sea surface temperature recordings from ships and buoys. The new results show that there was no global warming hiatus between 1998 and 2012.

A new UC Berkeley analysis of ocean buoy (green) and satellite data (orange) show that ocean temperatures have increased steadily since 1999, as NOAA concluded in 2015 (red) after adjusting for a cold bias in buoy temperature measurements. NOAA’s earlier assessment (blue) underestimated sea surface temperature changes, falsely suggesting a hiatus in global warming. The lines show the general upward trend in ocean temperatures. Credit: Zeke Hausfather, UC Berkeley

A controversial paper published two years ago that concluded there was no detectable slowdown in ocean warming over the previous 15 years — widely known as the “global warming hiatus” — has now been confirmed using independent data in research led by researchers from the University of California, Berkeley, and Berkeley Earth, a non-profit research institute focused on climate change.

The 2015 analysis showed that the modern buoys now used to measure ocean temperatures tend to report slightly cooler temperatures than older ship-based systems, even when measuring the same part of the ocean at the same time. As buoy measurements have replaced ship measurements, this had hidden some of the real-world warming.

After correcting for this “cold bias,” researchers with the National Oceanic and Atmospheric Administration concluded in the journal Science that the oceans have actually warmed 0.12 degrees Celsius (0.22 degrees Fahrenheit) per decade since 2000, nearly twice as fast as earlier estimates of 0.07 degrees Celsius per decade. This brought the rate of ocean temperature rise in line with estimates for the previous 30 years, between 1970 and 1999.

This eliminated much of the global warming hiatus, an apparent slowdown in rising surface temperatures between 1998 and 2012. Many scientists, including the International Panel on Climate Change, acknowledged the puzzling hiatus, while those dubious about global warming pointed to it as evidence that climate change is a hoax.

Climate change skeptics attacked the NOAA researchers and a House of Representatives committee subpoenaed the scientists’ emails. NOAA agreed to provide data and respond to any scientific questions but refused to comply with the subpoena, a decision supported by scientists who feared the “chilling effect” of political inquisitions.

The new study, which uses independent data from satellites and robotic floats as well as buoys, concludes that the NOAA results were correct. The paper is published Jan. 4 in the online, open-access journal Science Advances.

“Our results mean that essentially NOAA got it right, that they were not cooking the books,” said lead author Zeke Hausfather, a graduate student in UC Berkeley’s Energy and Resources Group.

Long-term climate records

Hausfather said that years ago, mariners measured the ocean temperature by scooping up a bucket of water from the ocean and sticking a thermometer in it. In the 1950s, however, ships began to automatically measure water piped through the engine room, which typically is warm. Nowadays, buoys cover much of the ocean and that data is beginning to supplant ship data. But the buoys report slightly cooler temperatures because they measure water directly from the ocean instead of after a trip through a warm engine room.

NOAA is one of three organizations that keep historical records of ocean temperatures — some going back to the 1850s — widely used by climate modelers. The agency’s paper was an attempt to accurately combine the old ship measurements and the newer buoy data.

Hausfather and colleague Kevin Cowtan of the University of York in the UK extended that study to include the newer satellite and Argo float data in addition to the buoy data.

“Only a small fraction of the ocean measurement data is being used by climate monitoring groups, and they are trying to smush together data from different instruments, which leads to a lot of judgment calls about how you weight one versus the other, and how you adjust for the transition from one to another,” Hausfather said. “So we said, ‘What if we create a temperature record just from the buoys, or just from the satellites, or just from the Argo floats, so there is no mixing and matching of instruments?'”

In each case, using data from only one instrument type — either satellites, buoys or Argo floats — the results matched those of the NOAA group, supporting the case that the oceans warmed 0.12 degrees Celsius per decade over the past two decades, nearly twice the previous estimate. In other words, the upward trend seen in the last half of the 20th century continued through the first 15 years of the 21st: there was no hiatus.

“In the grand scheme of things, the main implication of our study is on the hiatus, which many people have focused on, claiming that global warming has slowed greatly or even stopped,” Hausfather said. “Based on our analysis, a good portion of that apparent slowdown in warming was due to biases in the ship records.”

Correcting other biases in ship records

In the same publication last year, NOAA scientists also accounted for changing shipping routes and measurement techniques. Their correction — giving greater weight to buoy measurements than to ship measurements in warming calculations — is also valid, Hausfather said, and a good way to correct for this second bias, short of throwing out the ship data altogether and relying only on buoys.

Another repository of ocean temperature data, the Hadley Climatic Research Unit in the United Kingdom, corrected their data for the switch from ships to buoys, but not for this second factor, which means that the Hadley data produce a slightly lower rate of warming than do the NOAA data or the new UC Berkeley study.

“In the last seven years or so, you have buoys warming faster than ships are, independently of the ship offset, which produces a significant cool bias in the Hadley record,” Hausfather said. The new study, he said, argues that the Hadley center should introduce another correction to its data.

“People don’t get much credit for doing studies that replicate or independently validate other people’s work. But, particularly when things become so political, we feel it is really important to show that, if you look at all these other records, it seems these researchers did a good job with their corrections,” Hausfather said.

Co-author Mark Richardson of NASA’s Jet Propulsion Laboratory and the California Institute of Technology in Pasadena added, “Satellites and automated floats are completely independent witnesses of recent ocean warming, and their testimony matches the NOAA results. It looks like the NOAA researchers were right all along.”

Other co-authors of the paper are David C. Clarke, an independent researcher from Montreal, Canada, Peter Jacobs of George Mason University in Fairfax, Virginia, and Robert Rohde of Berkeley Earth. The research was funded by Berkeley Earth.


Journal Reference:

  1. Zeke Hausfather, Kevin Cowtan, David C. Clarke, Peter Jacobs, Mark Richardson, Robert Rohde. Assessing recent warming using instrumentally homogeneous sea surface temperature recordsScience Advances, 2017; 3 (1): e1601207 DOI: 10.1126/sciadv.1601207

Climate change could trigger strong sea level rise (Science Daily)

International research team presents findings from frozen ‘climate archive’ of Antarctica

Date:
January 5, 2017
Source:
University of Bonn
Summary:
About 15,000 years ago, the ocean around Antarctica has seen an abrupt sea level rise of several meters. It could happen again.

Iceberg in the southeastern Weddell Sea region. Credit: Photo: Dr. Michael Weber

About 15,000 years ago, the ocean around Antarctica has seen an abrupt sea level rise of several meters. It could happen again. An international team of scientists with the participation of the University of Bonn is now reporting its findings in the magazine Scientific Reports.

University of Bonn’s climate researcher Michael E. Weber is a member of the study group. He says, “The changes that are currently taking place in a disturbing manner resemble those 14,700 years ago.” At that time, changes in atmospheric-oceanic circulation led to a stratification in the ocean with a cold layer at the surface and a warm layer below. Under such conditions, ice sheets melt more strongly than when the surrounding ocean is thoroughly mixed. This is exactly what is presently happening around the Antarctic.

The main author of the study, the Australian climate researcher Chris Fogwill from the Climate Change Research Center in Sydney, explains the process as follows: “The reason for the layering is that global warming in parts of Antarctica is causing land based ice to melt, adding massive amounts of freshwater to the ocean surface. At the same time as the surface is cooling, the deeper ocean is warming, which has already accelerated the decline of glaciers in the Amundsen Sea Embayment.” It appears global warming is replicating conditions that, in the past, triggered significant shifts in the stability of the Antarctic ice sheet.

To investigate the climate changes of the past, the scientists are studying drill cores from the eternal ice. Layer by layer, this frozen “climate archive” reveals its secrets to the experts. In previous studies, the scientists had found evidence of eight massive melting events in deep sea sediments around the Antarctic, which occurred at the transition from the last ice age to the present warm period. Co-author Dr. Weber from the Steinmann Institute of the University of Bonn says: “The largest melt occurred 14,700 years ago. During this time the Antarctic contributed to a sea level rise of at least three meters within a few centuries.”

The present discovery is the first direct evidence from the Antarctic continent which confirms the assumed models. The research team used isotopic analyzes of ice cores from the Weddell Sea region, which now flows into the ocean about a quarter of the Antarctic melt.

Through a combination with ice sheet and climate modeling, the isotopic data show that the waters around the Antarctic were heavily layered at the time of the melting events, so that the ice sheets melted at a faster rate. “The big question is whether the ice sheet will react to these changing ocean conditions as rapidly as it did 14,700 years ago,” says co-author Nick Golledge from the Antarctic Research Center in Wellington, New Zealand.


Journal Reference:

  1. C. J. Fogwill, C. S. M. Turney, N. R. Golledge, D. M. Etheridge, M. Rubino, D. P. Thornton, A. Baker, J. Woodward, K. Winter, T. D. van Ommen, A. D. Moy, M. A. J. Curran, S. M. Davies, M. E. Weber, M. I. Bird, N. C. Munksgaard, L. Menviel, C. M. Rootes, B. Ellis, H. Millman, J. Vohra, A. Rivera, A. Cooper. Antarctic ice sheet discharge driven by atmosphere-ocean feedbacks at the Last Glacial TerminationScientific Reports, 2017; 7: 39979 DOI: 10.1038/srep39979

What It’s Like Being a Sane Person on the House Science Committee (Gizmodo)

12/23/16 12:00pm

Artwork by Jim Cooke

Congressional Committee tweets don’t usually get much attention. But when the House Committee on Science, Space, and Technology sent out a link to a Breitbart story claiming a “plunge” in global temperatures, people took notice. The takedowns flew in, from Slate and Bernie Sanders, from plenty of scientists, and most notably from the Weather Channel, which deemed Breitbart’s use of their meteorologist’s face worthy of a point-by-point debunking video.

There is nothing particularly noteworthy about Breitbart screwing up climate science, but the House Science Committee is among the most important scientific oversight bodies in the country. Since Texas Republican Lamar Smith took over its leadership in 2012, the Committee has spiraled down an increasingly anti-science rabbit hole: absurd hearings aimed at debunking consensus on global warming, outright witch hunts using the Committee’s subpoena power to intimidate scientists, and a Republican membership that includes some of the most anti-science lawmakers in the land.

The GOP’s shenanigans get the headlines, but what about the other side of the aisle? What is it like to be a member of Congress and sit on a science committee that doesn’t seem to understand science? What is it like to be an adult in a room full of toddlers? I asked some of the adults.

“I think it’s completely embarrassing,” said Mark Veasey, who represents Texas’s 33rd district, including parts of Dallas and Fort Worth. “You’re talking about something that 99.9 percent—if not 100 percent—of people in the legitimate science community says is a threat….To quote Breitbart over some of the most brilliant people in the world—and those are American scientists—and how they see climate change, I just think it’s a total embarrassment.”

Paul Tonko, who represents a chunk of upstate New York that includes Albany, has also called it embarrassing. “It is frustrating when you have the majority party of a committee pushing junk science and disproven myths to serve a political agenda,” he said. “It’s not just beneath the dignity of the Science Committee or Congress as a whole, it’s inherently dangerous. Science and research seek the truth—they don’t always fit so neatly with agendas.”

“I think it’s completely embarrassing.”

Suzanne Bonamici, of Oregon’s 1st District, also called it frustrating “to say the least” that the Committee “is spending time questioning climate researchers and ignoring the broad scientific consensus.” California Rep. Eric Swalwellcalled it the “Science” Committee in an email, and made sure I noted the air quotes. He said that in Obama’s first term, the Committee helped push forward on climate change and a green economy. “For the last four years, however, being on the Committee has meant defending the progress we’ve made.”

Frustration, embarrassment, a sense of Sisyphean hopelessness—this sounds like a grim gig. And Veasey also said that he doesn’t have much hope for a change in the Science Committee’s direction, because that change would have to come from the chairman. Smith has received hundreds of thousands of dollars in campaign support from the oil and gas industry over the years, and somehow finds himself in even greater climate change denial than ExxonMobil.

And of course, it isn’t just the leadership. The League of Conservation Voters maintains a scorecard of every legislator in Congress: for 2015, the most recent year available, the average of all the Democratic members on the science committee is 92.75 percent (with 100 being a perfect environment-friendly score). On the GOP side of the aisle, the average is just over three percent.

(I reached out to a smattering of GOP members of the Committee to get their take on its recent direction. None of them responded.)

Bill Foster, who represents a district including some suburbs of Chicago, is the only science PhD in all of Congress (“I very often feel lonely,” he said, before encouraging other scientists to run for office). “Since I made the transition from science into politics not so long ago, I’ve become very cognizant of the difference between scientific facts, and political facts,” he said. “Political facts can be established by repeating over and over something that is demonstrably false, then if it comes to be accepted by enough people it becomes a political fact.” Witness the 52 percent of Republicans who currently believe Trump won the popular vote, and you get the idea.

I’m not sure “climate change isn’t happening” has reached that “political fact” level, though Smith and his ilk have done their damndest. Recent polls suggest most Americans do understand the issue, and more and more they believe the government should act aggressively to tackle it.

“Political facts can be established by repeating over and over something that is demonstrably false, then if it comes to be accepted by enough people it becomes a political fact.”

That those in charge of our government disagree so publicly and strongly now has scientists terrified. “This has a high profile,” Foster said, “because if there is any committee in Congress that should operate on the basis of scientific truth, it ought to be the Science, Space, and Technology committee—so when it goes off the rails, then people notice.”

The odds of the train jumping back on the rails over the next four years appear slim. Policies that came from the Obama White House, like the Clean Power Plan, are obviously on thin ice with a Trump administration, and without any sort of check on Smith and company it is hard to say just how pro-fossil fuel, anti-climate the committee could really get.

In the face of all that, what is a sane member of Congress to do? Elizabeth Esty, who represents Connecticut’s 5th district, was among several Committee members to note that in spite of the disagreements on climate, she has managed to work with GOP leadership on other scientific issues. Rep. Swalwell said he will try and focus on bits of common ground, like the jobs that come with an expanding green economy. Rep. Veasey said his best hope is that some strong conservative voices from outside of Congress might start to make themselves heard by the Party’s upper echelons on climate and related issues.

An ugly and dire scenario, then, but the Democrats all seem to carry at least a glimmer of hope. “It’s certainly frustrating and concerning but I’m an optimist,” Esty said. “I wouldn’t run for this job if I weren’t.”

Dave Levitan is a science journalist, and author of the book Not A Scientist: How politicians mistake, misrepresent, and utterly mangle science. Find him on Twitter and at his website.

Hard-wired: The brain’s circuitry for political belief (Science Daily)

Date:
December 23, 2016
Source:
University of Southern California
Summary:
When people’s political beliefs are challenged, their brains become active in areas that govern personal identity and emotional responses to threats, neuroscientists have found.

The amygdala — the two almond-shaped areas hugging the center of the brain near the front — tends to become active when people dig in their heels about a political belief. Credit: Photo/Courtesy of Brain and Creativity Institute at USC

A USC-led study confirms what seems increasingly true in American politics: People become more hard-headed in their political beliefs when provided with contradictory evidence.

Neuroscientists at the Brain and Creativity Institute at USC said the findings from the functional MRI study seem especially relevant to how people responded to political news stories, fake or credible, throughout the election.

“Political beliefs are like religious beliefs in the respect that both are part of who you are and important for the social circle to which you belong,” said lead author Jonas Kaplan, an assistant research professor of psychology at the Brain and Creativity Institute at USC Dornsife College of Letters, Arts and Sciences. “To consider an alternative view, you would have to consider an alternative version of yourself.”

To determine which brain networks respond when someone holds firmly to a belief, the neuroscientists with the Brain and Creativity Institute at USC compared whether and how much people change their minds on nonpolitical and political issues when provided counter-evidence.

They discovered that people were more flexible when asked to consider the strength of their belief in nonpolitical statements — for example, “Albert Einstein was the greatest physicist of the 20th century.”

But when it came to reconsidering their political beliefs, such as whether the United States should reduce funding for the military, they would not budge.

“I was surprised that people would doubt that Einstein was a great physicist, but this study showed that there are certain realms where we retain flexibility in our beliefs,” Kaplan said.

The study was published on Dec. 23 in the Nature journal, Scientific Reports. Study co-authors were Sarah Gimbel of the Brain and Creativity Institute and Sam Harris, a neuroscientist for the Los Angeles-based nonprofit Project Reason.

Brain response to belief challenges

For the study, the neuroscientists recruited 40 people who were self-declared liberals. The scientists then examined through functional MRI how their brains responded when their beliefs were challenged.

During their brain imaging sessions, participants were presented with eight political statements that they had said they believe just as strongly as a set of eight nonpolitical statements. They were then shown five counter-claims that challenged each statement.

Participants rated the strength of their belief in the original statement on a scale of 1-7 after reading each counter-claim. The scientists then studied their brain scans to determine which areas became most engaged during these challenges.

Participants did not change their beliefs much, if at all, when provided with evidence that countered political statements such as, “The laws regulating gun ownership in the United States should be made more restrictive.”

But the scientists noticed the strength of their beliefs weakened by one or two points when challenged on nonpolitical topics, such as whether “Thomas Edison had invented the light bulb.” The participants were shown counter statements that prompted some feelings of doubt, such as “Nearly 70 years before Edison, Humphrey Davy demonstrated an electric lamp to the Royal Society.”

The study found that people who were most resistant to changing their beliefs had more activity in the amygdalae (a pair of almond-shaped areas near the center of the brain) and the insular cortex, compared with people who were more willing to change their minds.

“The activity in these areas, which are important for emotion and decision-making, may relate to how we feel when we encounter evidence against our beliefs,” said Kaplan, a co-director of the Dornsife Cognitive Neuroimaging Center at USC.

“The amygdala in particular is known to be especially involved in perceiving threat and anxiety,” Kaplan added. “The insular cortex processes feelings from the body, and it is important for detecting the emotional salience of stimuli. That is consistent with the idea that when we feel threatened, anxious or emotional, then we are less likely to change our minds.”

Thoughts that count

He also noted that a system in the brain, the Default Mode Network, surged in activity when participants’ political beliefs were challenged.

“These areas of the brain have been linked to thinking about who we are, and with the kind of rumination or deep thinking that takes us away from the here and now,” Kaplan said.

The researchers said that this latest study, along with one conducted earlier this year, indicate the Default Mode Network is important for high-level thinking about important personal beliefs or values.

“Understanding when and why people are likely to change their minds is an urgent objective,” said Gimbel, a research scientist at the Brain and Creativity Institute. “Knowing how and which statements may persuade people to change their political beliefs could be key for society’s progress,” she said.

The findings can apply to circumstances outside of politics, including how people respond to fake news stories.

“We should acknowledge that emotion plays a role in cognition and in how we decide what is true and what is not true,” Kaplan said. “We should not expect to be dispassionate computers. We are biological organisms.”


Journal Reference:

  1. Jonas T. Kaplan, Sarah I. Gimbel & Sam Harris. Neural correlates of maintaining one’s political beliefs in the face of counterevidenceScientific Reports, December 2016 DOI: 10.1038/srep39589

Researchers model how ‘publication bias’ does, and doesn’t, affect the ‘canonization’ of facts in science (Science Daily)

Date:
December 20, 2016
Source:
University of Washington
Summary:
Researchers present a mathematical model that explores whether “publication bias” — the tendency of journals to publish mostly positive experimental results — influences how scientists canonize facts.

Arguing in a Boston courtroom in 1770, John Adams famously pronounced, “Facts are stubborn things,” which cannot be altered by “our wishes, our inclinations or the dictates of our passion.”

But facts, however stubborn, must pass through the trials of human perception before being acknowledged — or “canonized” — as facts. Given this, some may be forgiven for looking at passionate debates over the color of a dress and wondering if facts are up to the challenge.

Carl Bergstrom believes facts stand a fighting chance, especially if science has their back. A professor of biology at the University of Washington, he has used mathematical modeling to investigate the practice of science, and how science could be shaped by the biases and incentives inherent to human institutions.

“Science is a process of revealing facts through experimentation,” said Bergstrom. “But science is also a human endeavor, built on human institutions. Scientists seek status and respond to incentives just like anyone else does. So it is worth asking — with precise, answerable questions — if, when and how these incentives affect the practice of science.”

In an article published Dec. 20 in the journal eLife, Bergstrom and co-authors present a mathematical model that explores whether “publication bias” — the tendency of journals to publish mostly positive experimental results — influences how scientists canonize facts. Their results offer a warning that sharing positive results comes with the risk that a false claim could be canonized as fact. But their findings also offer hope by suggesting that simple changes to publication practices can minimize the risk of false canonization.

These issues have become particularly relevant over the past decade, as prominent articles have questioned the reproducibility of scientific experiments — a hallmark of validity for discoveries made using the scientific method. But neither Bergstrom nor most of the scientists engaged in these debates are questioning the validity of heavily studied and thoroughly demonstrated scientific truths, such as evolution, anthropogenic climate change or the general safety of vaccination.

“We’re modeling the chances of ‘false canonization’ of facts on lower levels of the scientific method,” said Bergstrom. “Evolution happens, and explains the diversity of life. Climate change is real. But we wanted to model if publication bias increases the risk of false canonization at the lowest levels of fact acquisition.”

Bergstrom cites a historical example of false canonization in science that lies close to our hearts — or specifically, below them. Biologists once postulated that bacteria caused stomach ulcers. But in the 1950s, gastroenterologist E.D. Palmer reported evidence that bacteria could not survive in the human gut.

“These findings, supported by the efficacy of antacids, supported the alternative ‘chemical theory of ulcer development,’ which was subsequently canonized,” said Bergstrom. “The problem was that Palmer was using experimental protocols that would not have detected Helicobacter pylori, the bacteria that we know today causes ulcers. It took about a half century to correct this falsehood.”

While the idea of false canonization itself may cause dyspepsia, Bergstrom and his team — lead author Silas Nissen of the Niels Bohr Institute in Denmark and co-authors Kevin Gross of North Carolina State University and UW undergraduate student Tali Magidson — set out to model the risks of false canonization given the fact that scientists have incentives to publish only their best, positive results. The so-called “negative results,” which show no clear, definitive conclusions or simply do not affirm a hypothesis, are much less likely to be published in peer-reviewed journals.

“The net effect of publication bias is that negative results are less likely to be seen, read and processed by scientific peers,” said Bergstrom. “Is this misleading the canonization process?”

For their model, Bergstrom’s team incorporated variables such as the rates of error in experiments, how much evidence is needed to canonize a claim as fact and the frequency with which negative results are published. Their mathematical model showed that the lower the publication rate is for negative results, the higher the risk for false canonization. And according to their model, one possible solution — raising the bar for canonization — didn’t help alleviate this risk.

“It turns out that requiring more evidence before canonizing a claim as fact did not help,” said Bergstrom. “Instead, our model showed that you need to publish more negative results — at least more than we probably are now.”

Since most negative results live out their obscurity in the pages of laboratory notebooks, it is difficult to quantify the ratio that are published. But clinical trials, which must be registered with the U.S. Food and Drug Administration before they begin, offer a window into how often negative results make it into the peer-reviewed literature. A 2008 analysis of 74 clinical trials for antidepressant drugs showed that scarcely more than 10 percent of negative results were published, compared to over 90 percent for positive results.

“Negative results are probably published at different rates in other fields of science,” said Bergstrom. “And new options today, such as self-publishing papers online and the rise of journals that accept some negative results, may affect this. But in general, we need to share negative results more than we are doing today.”

Their model also indicated that negative results had the biggest impact as a claim approached the point of canonization. That finding may offer scientists an easy way to prevent false canonization.

“By more closely scrutinizing claims as they achieve broader acceptance, we could identify false claims and keep them from being canonized,” said Bergstrom.

To Bergstrom, the model raises valid questions about how scientists choose to publish and share their findings — both positive and negative. He hopes that their findings pave the way for more detailed exploration of bias in scientific institutions, including the effects of funding sources and the different effects of incentives on different fields of science. But he believes a cultural shift is needed to avoid the risks of publication bias.

“As a community, we tend to say, ‘Damn it, this didn’t work, and I’m not going to write it up,'” said Bergstrom. “But I’d like scientists to reconsider that tendency, because science is only efficient if we publish a reasonable fraction of our negative findings.”


Journal Reference:

  1. Silas Boye Nissen, Tali Magidson, Kevin Gross, Carl T Bergstrom. Publication bias and the canonization of false factseLife, 2016; 5 DOI: 10.7554/eLife.21451

Pesquisadores temem ações de Trump relacionadas à ciência e ao clima (Folha de S.Paulo)

Damon Winter/The New York Times
Com menos dinheiro no orçamento, ciência pode ser uma das áreas mais afetadas
Com menos dinheiro no orçamento, ciência pode ser uma das áreas mais afetadas

SALVADOR NOGUEIRA
COLABORAÇÃO PARA A FOLHA

23/12/2016  02h00

A eleição de Donald Trump pode pressagiar um período de declínio para a ciência nos Estados Unidos.

Noves fora a retórica que lhe ganhou a Casa Branca, os planos que ele apresenta para a próxima gestão podem significar cortes orçamentários significativos em pesquisas.

A campanha do republicano à Presidência bateu fortemente em duas teclas: um plano vigoroso de corte de impostos, que reduziria a arrecadação em pelo menos US$ 4,4 trilhões nos próximos dez anos, e um plano de investimento em infraestrutura que consumiria US$ 1 trilhão no mesmo período.

Na prática, isso significa que haverá menos dinheiro no Orçamento americano que poderá ser direcionado para os gastos “discricionários” -aqueles que já não caem automaticamente na conta do governo por força de lei. É de onde vem o financiamento da ciência americana.

“Se o montante de gastos discricionários cai, o subcomitê de Comércio, Justiça e Ciência no Congresso receberá uma alocação menor, e eles terão menos dinheiro disponível para financiar suas agências”, diz Casey Dreier, especialista em política espacial da ONG Planetary Society.

Entre os órgãos financiados diretamente por esse subcomitê estão a Fundação Nacional de Ciência (NSF), a Administração Nacional de Atmosfera e Oceano (Noaa) e a Administração Nacional de Aeronáutica e Espaço (Nasa).

Existe a possibilidade de o financiamento sair intacto desse processo? Sim, mas não é provável. Algum outro setor precisaria pagar a conta.

SEM CLIMA

Ao menos no discurso, e fortemente apoiado por nomeações recentes, Trump já decidiu onde devem ocorrer os cortes mais profundos: ciência climática.

Que Trump se apresenta desde a campanha eleitoral como um negacionista da mudança do clima, não é segredo. No passado, ele chegou a afirmar que o aquecimento global é um embuste criado pelos chineses para tirar a competitividade da indústria americana.

(Para comprar essa versão, claro, teríamos de fingir que não foi a Nasa, agência americana, a maior e mais contundente coletora de evidências da mudança climática.)

Até aí, é o discurso antiglobalização para ganhar a eleição. Mas vai se concretizar no mandato?

Os sinais são os piores possíveis. O advogado Scott Pruitt, indicado para a EPA (Agência de Proteção do Ambiente), vê com ceticismo as políticas contra as mudanças climáticas. E o chefe da equipe de transição escolhido por Trump para a EPA é Myron Ebell, um notório negacionista da mudança climática.

O Centro para Energia e Ambiente do Instituto para Empreendimentos Competitivos, que Ebell dirige, recebe financiamento das indústrias do carvão e do petróleo. Colocá-lo para fazer a transição entre governos da EPA pode ser o clássico “deixar a raposa tomando conta do galinheiro”.

Como se isso não bastasse, durante a campanha os principais consultores de Trump na área de pesquisa espacial, Robert Walker e Peter Navarro, escreveram editoriais sugerindo que a agência espacial devia parar de estudar a própria Terra.

“A Nasa deveria estar concentrada primariamente em atividades no espaço profundo em vez de trabalho Terra-cêntrico que seria melhor conduzido por outras agências”, escreveram.

Há consenso entre os cientistas de que não há outro órgão com competência para tocar esses estudos e assumir a frota de satélites de monitoramento terrestre gerida pela agência espacial.

Além disso, passar as responsabilidades a outra instituição sem atribuir o orçamento correspondente é um jeito sutil de encerrar o programa de monitoramento do clima.

BACKUP

Se isso faz você ficar preocupado com o futuro das pesquisas, imagine os climatologistas nos EUA.

De acordo com o jornal “Washington Post”, eles estão se organizando para criar repositórios independentes dos dados colhidos, com medo que eles sumam das bases de dados governamentais durante o governo Trump.

Ainda que a grita possa evitar esse descaramento, a interrupção das pesquisas pode ter o mesmo efeito.

“Acho que é bem mais provável que eles tentem cortar a coleção de dados, o que minimizaria seu valor”, diz Andrew Dessler, professor de ciências atmosféricas da Universidade Texas A&M. “Ter dados contínuos é crucial para entender as tendências de longo prazo.”

E O QUE SOBRA?

Tirando a mudança climática, a Nasa deve ter algum suporte para dar continuidade a seus planos de longo prazo durante o governo Trump -talvez com alguma mudança.

De certo, há apenas a restituição do Conselho Espacial Nacional, criado durante o governo George Bush (o pai) e desativado desde 1993.

Reunindo as principais autoridades pertinentes, ele tem por objetivo coordenar as ações entre diferentes braços do governo e, com isso, dar uma direção estratégica mais clara e eficiente aos executores das atividades espaciais.

Isso poderia significar uma ameaça ao SLS (novo foguete de alta capacidade da Nasa) e à Orion (cápsula para viagem a espaço profundo), que devem fazer seu primeiro voo teste, não tripulado, em 2018.

Contudo, o apoio a esses programas no Congresso é amplo e bipartidário, de forma que dificilmente Trump conseguirá cancelá-los.

O que ele pode é redirecionar sua função. Em vez de se tornarem as primeiras peças para a “jornada a Marte”, que Barack Obama defendia para a década de 2030, eles seriam integrados num programa de exploração da Lua.

(Tradicionalmente, no Congresso americano, a Lua é um objetivo republicano, e Marte, um objetivo democrata. Não pergunte por quê.)

Trump deve ainda dar maior ênfase às iniciativas de parcerias comerciais para a exploração espacial. Em dezembro, Elon Musk, diretor da empresa SpaceX e franco apoiador da campanha de Hillary Clinton, passou a fazer parte de um grupo de consultores de Trump para a indústria de alta tecnologia.

Áreas afetadas

NASA

Assessores de Trump querem tirar da agência a função de estudar a Terra em favor da exploração espacial

Nasa Goddard Space Flight Center/Flickr
Imagem feita pela Nasa
Imagem feita pela Nasa

PROTEÇÃO?

Scott Pruitt, indicado para Agência de Proteção do Ambiente, já processou o órgão por limitações impostas à indústria petrolífera. A agência pode perder força e deixar certas regulações a cargo dos Estados

Spencer Platt-7.dez.2016/Getty Images/AFP
Scott Pruitt chega a Trump Tower, em 7 de dezembro, para encontro com Donald Trump
Scott Pruitt chega a Trump Tower, em 7 de dezembro, para encontro com Donald Trump

PETRÓLEO

Rex Tillerson, executivo da petroleira ExxonMobil, foi indicado para o posto de secretário de Estado, o que dá mais sinais de que o governo Trump não deve se esforçar para promover fontes de energia limpa

Daniel Kramer – 21.abr.2015/Reuters
Rex Tillerson, CEO da ExxonMobil
Rex Tillerson, CEO da ExxonMobil

A mysterious 14-year cycle has been controlling our words for centuries (Science Alert)

Some of your favourite science words are making a comeback.

DAVID NIELD
2 DEC 2016

Researchers analysing several centuries of literature have spotted a strange trend in our language patterns: the words we use tend to fall in and out of favour in a cycle that lasts around 14 years.

Scientists ran computer scripts to track patterns stretching back to the year 1700 through the Google Ngram Viewer database, which monitors language use across more than 4.5 million digitised books. In doing so, they identified a strange oscillation across 5,630 common nouns.

The team says the discovery not only shows how writers and the population at large use words to express themselves – it also affects the topics we choose to discuss.

“It’s very difficult to imagine a random phenomenon that will give you this pattern,” Marcelo Montemurro from the University of Manchester in the UK told Sophia Chen at New Scientist.

“Assuming these patterns reflect some cultural dynamics, I hope this develops into better understanding of why we change the topics we discuss,” he added.“We might learn why writers get tired of the same thing and choose something new.”

The 14-year pattern of words coming into and out of widespread use was surprisingly consistent, although the researchers found that in recent years the cycles have begun to get longer by a year or two. The cycles are also more pronounced when it comes to certain words.

What’s interesting is how related words seem to rise and fall together in usage. For example, royalty-related words like “king”, “queen”, and “prince” appear to be on the crest of a usage wave, which means they could soon fall out of favour.

By contrast, a number of scientific terms, including “astronomer”, “mathematician”, and “eclipse” could soon be on the rebound, having dropped in usage recently.

According to the analysis, the same phenomenon happens with verbs as well, though not to the same extent as with nouns, and the academics found similar 14-year patterns in French, German, Italian, Russian, and Spanish, so this isn’t exclusive to English.

The study suggests that words get a certain momentum, causing more and more people to use them, before reaching a saturation point, where writers start looking for alternatives.

Montemurro and fellow researcher Damián Zanette from the National Council for Scientific and Technical Research in Argentina aren’t sure what’s causing this, although they’re willing to make some guesses.

“We expect that this behaviour is related to changes in the cultural environment that, in turn, stir the thematic focus of the writers represented in the Google database,” the researchers write in their paper.

“It’s fascinating to look for cultural factors that might affect this, but we also expect certain periodicities from random fluctuations,” biological scientist Mark Pagel, from the University of Reading in the UK, who wasn’t involved in the research, told New Scientist.

“Now and then, a word like ‘apple’ is going to be written more, and its popularity will go up,” he added. “But then it’ll fall back to a long-term average.”

It’s clear that language is constantly evolving over time, but a resource like the Google Ngram Viewer gives scientists unprecedented access to word use and language trends across the centuries, at least as far as the written word goes.

You can try it out for yourself, and search for any word’s popularity over time.

But if there are certain nouns you’re fond of, make the most of them, because they might not be in common use for much longer.

The findings have been published in Palgrave Communications.

Scientists Seek to Update Evolution (Quanta Magazine)

Recent discoveries have led some researchers to argue that the modern evolutionary synthesis needs to be amended. 

By Carl Zimmer. November 22, 2016

Douglas Futuyma, a biologist at Stony Brook University, defends the “Modern Synthesis” of evolution at the Royal Society earlier this month.  Kevin Laland looked out across the meeting room at a couple hundred people gathered for a conference on the future of evolutionary biology. A colleague sidled up next to him and asked how he thought things were going.

“I think it’s going quite well,” Laland said. “It hasn’t gone to fisticuffs yet.”

Laland is an evolutionary biologist who works at the University of St. Andrews in Scotland. On a chilly gray November day, he came down to London to co-host a meeting at the Royal Society called “New Trends in Evolutionary Biology.” A motley crew of biologists, anthropologists, doctors, computer scientists, and self-appointed visionaries packed the room. The Royal Society is housed in a stately building overlooking St. James’s Park. Today the only thing for Laland to see out of the tall meeting-room windows was scaffolding and gauzy tarps set up for renovation work. Inside, Laland hoped, another kind of renovation would be taking place.

In the mid-1900s, biologists updated Darwin’s theory of evolution with new insights from genetics and other fields. The result is often called the Modern Synthesis, and it has guided evolutionary biology for over 50 years. But in that time, scientists have learned a tremendous amount about how life works. They can sequence entire genomes. They can watch genes turn on and off in developing embryos. They can observe how animals and plants respond to changes in the environment.

As a result, Laland and a like-minded group of biologists argue that the Modern Synthesis needs an overhaul. It has to be recast as a new vision of evolution, which they’ve dubbed the Extended Evolutionary Synthesis. Other biologists have pushed back hard, saying there is little evidence that such a paradigm shift is warranted.

This meeting at the Royal Society was the first public conference where Laland and his colleagues could present their vision. But Laland had no interest in merely preaching to the converted, and so he and his fellow organizers also invited prominent evolutionary biologists who are skeptical about the Extended Evolutionary Synthesis.

Both sides offered their arguments and critiques in a civil way, but sometimes you could sense the tension in the room — the punctuations of tsk-tsks, eye-rolling, and partisan bursts of applause.

But no fisticuffs. At least not yet.

Making Evolution as We Know It

Every science passes through times of revolution and of business as usual. After Galileo and Newton dragged physics out of its ancient errors in the 1600s, it rolled forward from one modest advance to the next until the early 1900s. Then Einstein and other scientists established quantum physics, relativity and other new ways of understanding the universe. None of them claimed that Newton was wrong. But it turns out there’s much more to the universe than matter in motion.

Evolutionary biology has had revolutions of its own. The first, of course, was launched by Charles Darwin in 1859 with his book On the Origin of Species. Darwin wove together evidence from paleontology, embryology and other sciences to show that living things were related to one another by common descent. He also introduced a mechanism to drive that long-term change: natural selection. Each generation of a species was full of variations. Some variations helped organisms survive and reproduce, and those were passed down, thanks to heredity, to the next generation.

Darwin inspired biologists all over the world to study animals and plants in a new way, interpreting their biology as adaptations produced over many generations. But he succeeded in this despite having no idea what a gene was. It wasn’t until the 1930s that geneticists and evolutionary biologists came together and recast evolutionary theory. Heredity became the transmission of genes from generation to generation. Variations were due to mutations, which could be shuffled into new combinations. New species arose when populations built up mutations that made interbreeding impossible.

In 1942, the British biologist Julian Huxley described this emerging framework in a book called Evolution: The Modern Synthesis. Today, scientists still call it by that name. (Sometimes they refer to it instead as neo-Darwinism, although that’s actually a confusing misnomer. The term “neo-Darwinism” was actually coined in the late 1800s, to refer to biologists who were advancing Darwin’s ideas in Darwin’s own lifetime.)

The Modern Synthesis proved to be a powerful tool for asking questions about nature. Scientists used it to make a vast range of discoveries about the history of life, such as why some people are prone to genetic disorders like sickle-cell anemia and why pesticides sooner or later fail to keep farm pests in check. But starting not long after the formation of the Modern Synthesis, various biologists would complain from time to time that it was too rigid. It wasn’t until the past few years, however, that Laland and other researchers got organized and made a concerted effort to formulate an extended synthesis that might take its place.

The researchers don’t argue that the Modern Synthesis is wrong — just that it doesn’t capture the full richness of evolution. Organisms inherit more than just genes, for example: They can inherit other cellular molecules, as well as behaviors they learn and the environments altered by their ancestors. Laland and his colleagues also challenge the pre-eminent place that natural selection gets in explanations for how life got to be the way it is. Other processes can influence the course of evolution, too, from the rules of development to the environments in which organisms have to live.

“It’s not simply bolting more mechanisms on what we already have,” said Laland. “It requires you to think of causation in a different way.”

Adding to Darwin

Eva Jablonka, a biologist at Tel Aviv University, used her talk to explore the evidence for a form of heredity beyond genes.

Our cells use a number of special molecules to control which of their genes make proteins. In a process called methylation, for example, cells put caps on their DNA to keep certain genes shut down. When cells divide, they can reproduce the same caps and other controls on the new DNA. Certain signals from the environment can cause cells to change these so-called “epigenetic” controls, allowing organisms to adjust their behavior to new challenges.

Some studies indicate that — under certain circumstances — an epigenetic change in a parent may get passed down to its offspring. And those children may pass down this altered epigenetic profile to their children. This would be kind of heredity that’s beyond genes.

The evidence for this effect is strongest in plants. In one study, researchers were able to trace down altered methylation patterns for 31 generations in a plant called Arabidopsis. And this sort of inheritance can make a meaningful difference in how an organism works. In another study, researchers found that inherited methylation patterns could change the flowering time of Arabidopsis, as well as the size of its roots. The variation that these patterns created was even bigger than what ordinary mutations caused.

After presenting evidence like this, Jablonka argued that epigenetic differences could determine which organisms survived long enough to reproduce. “Natural selection could work on this system,” she said.

While natural selection is an important force in evolution, the speakers at the meeting presented evidence for how it could be constrained, or biased in a particular direction. Gerd Müller, a University of Vienna biologist, offered an example from his own research on lizards. A number of species of lizards have evolved feet that have lost some toes. Some have only four toes, while others have just one, and some have lost their feet altogether.

The Modern Synthesis, Müller argued, leads scientists to look at these arrangements as simply the product of natural selection, which favors one variant over others because it has a survival advantage. But that approach doesn’t work if you ask what the advantage was for a particular species to lose the first toe and last toe in its foot, instead of some other pair of toes.

“The answer is, there is no real selective advantage,” said Müller.

The key to understanding why lizards lose particular toes is found in the way that lizard embryos develop toes in the first place. A bud sprouts off the side of the body, and then five digits emerge. But the toes always appear in the same sequence. And when lizards lose their toes through evolution, they lose them in the reverse order. Müller suspects this constraint is because mutations can’t create every possible variation. Some combinations of toes are thus off-limits, and natural selection can never select them in the first place.

Development may constrain evolution. On the other hand, it also provides animals and plants with remarkable flexibility. Sonia Sultan, an evolutionary ecologist from Wesleyan University, offered a spectacular case in point during her talk, describing a plant she studies in the genus Polygonum that takes the common name “smartweed.”

The Modern Synthesis, Sultan said, would lead you to look at the adaptations in a smartweed plant as the fine-tuned product of natural selection. If plants grow in low sunlight, then natural selection will favor plants with genetic variants that let them thrive in that environment — for example, by growing broader leaves to catch more photons. Plants that grow in bright sunlight, on the other hand, will evolve adaptations that let them thrive in those different conditions.

“It’s a commitment to that view that we’re here to confront,” Sultan said.

If you raise genetically identical smartweed plants under different conditions, Sultan showed, you’ll end up with plants that may look like they belong to different species.

For one thing, smartweed plants adjust the size of their leaves to the amount of sunlight they get. In bright light, the plants grow narrow, thick leaves, but in low light, the leaves become broad and thin. In dry soil, the plants send roots down deep in search of water, while in flood soil, they grow shallow hairlike roots that that stay near the surface.

Scientists at the meeting argued that this flexibility — known as plasticity — can itself help drive evolution. It allows plants to spread into a range of habitats, for example, where natural selection can then adapt their genes. And in another talk, Susan Antón, a paleoanthropologist at New York University, said that plasticity may play a significant role in human evolution that’s gone underappreciated till now. That’s because the Modern Synthesis has strongly influenced the study of human evolution for the past half century.

Paleoanthropologists tended to treat differences in fossils as the result of genetic differences. That allowed them to draw an evolutionary tree of humans and their extinct relatives. This approach has a lot to show for it, Antón acknowledged. By the 1980s, scientists had figured out that our early ancient relatives were short and small-brained up to about two million years ago. Then one lineage got tall and evolved big brains. That transition marked the origin of our genus, Homo.

But sometimes paleoanthropologists would find variations that were harder to make sense of. Two fossils might look in some ways like they should be in the same species but look too different in other respects. Scientists would usually dismiss those variations as being caused by the environment. “We wanted to get rid of all that stuff and get down to their essence,” Antón said.

But that stuff is now too abundant to ignore. Scientists have found a dizzying variety of humanlike fossils dating back to 1.5 to 2.5 million years ago. Some are tall, and some are short. Some have big brains and some have small ones. They all have some features of Homo in their skeletonbut each has a confusing mix-and-match assortment.

Antón thinks that the Extended Evolutionary Synthesis can help scientists make sense of this profound mystery. In particular, she thinks that her colleagues should take plasticity seriously as an explanation for the weird diversity of early Homo fossils.

To support this idea, Antón pointed out that living humans have their own kinds of plasticity. The quality of food a woman gets while she’s pregnant can influence the size and health of her baby, and those influences can last until adulthood. What’s more, the size of a woman — influenced in part by her own mother’s diet — can influence her own children. Biologists have found that women with longer legs tend to have larger children, for example.

Antón proposed that the weird variations in the fossil record might be even more dramatic examples of plasticity. All these fossils date to when Africa’s climate fell into a period of wild climate swings. Droughts and abundant rains would have changed the food supply in different parts of the world, perhaps causing early Homo to develop differently.

The Extended Evolutionary Synthesis may also help make sense of another chapter in our history: the dawn of agriculture. In Asia, Africa and the Americas, people domesticated crops and livestock. Melinda Zeder, an archaeologist at the Smithsonian Institution, gave a talk at the meeting about the long struggle to understand how this transformation unfolded.

Before people farmed, they foraged for food and hunted wild game. Zeder explained how many scientists treat the behavior of the foragers in a very Modern Synthesis way: as finely tuned by natural selection to deliver the biggest payoff for their effort to find food.

The trouble is that it’s hard to see how such a forager would ever switch to farming. “You don’t get the immediate gratification of grabbing some food and putting it in your mouth,” Zeder told me.

Some researchers suggested that the switch to agriculture might have occurred during a climate shift, when it got harder to find wild plants. But Zeder and other researchers have actually found no evidence of such a crisis when agriculture arose.

Zeder argues that there’s a better way of thinking about this transition. Humans are not passive zombies trying to survive in a fixed environment. They are creative thinkers who can change the environment itself. And in the process, they can steer evolution in a new direction.

Scientists call this process niche construction, and many species do it. The classic case is a beaver. It cuts down trees and makes a dam, creating a pond. In this new environment, some species of plants and animals will do better than others. And they will adapt to their environment in new ways. That’s true not just for the plants and animals that live around a beaver pond, but for the beaver itself.

When Zeder first learned about niche construction, she says, it was a revelation. “Little explosions were going off in my head,” she told me. The archaeological evidence she and others had gathered made sense as a record of how humans changed their own environment.

Early foragers show signs of having moved wild plants away from their native habitats to have them close at hand, for example. As they watered the plants and protected them from herbivores, the plants adapted to their new environment. Weedy species also moved in and became crops of their own. Certain animals adapted to the environment as well, becoming dogs, cats and other domesticated species.

Gradually, the environment changed from sparse patches of wild plants to dense farm fields. That environment didn’t just drive the evolution of the plants. It also began to drive the cultural evolution of the farmers, too. Instead of wandering as nomads, they settled down in villages so that they could work the land around them. Society became more stable because children received an ecological inheritance from their parents. And so civilization began.

Niche construction is just one of many concepts from the Extended Evolutionary Synthesis that can help make sense of domestication, Zeder said. During her talk, she presented slide after slide of predictions it provides, about everything from the movements of early foragers to the pace of plant evolution.

“It felt like an infomercial for the Extended Evolutionary Synthesis,” Zeder told me later with a laugh. “But wait! You can get steak knives!”

The Return of Natural Selection

Among the members of the audience was a biologist named David Shuker. After listening quietly for a day and a half, the University of St Andrews researcher had had enough. At the end of a talk, he shot up his hand.

The talk had been given by Denis Noble, a physiologist with a mop of white hair and a blue blazer. Noble, who has spent most of his career at Oxford, said he started out as a traditional biologist, seeing genes as the ultimate cause of everything in the body. But in recent years he had switched his thinking. He spoke of the genome not as a blueprint for life but as a sensitive organ, detecting stress and rearranging itself to cope with challenges. “I’ve been on a long journey to this view,” Noble said.

To illustrate this new view, Noble discussed an assortment of recent experiments. One of them was published last year by a team at the University of Reading. They did an experiment on bacteria that swim by spinning their long tails.

First, the scientists cut a gene out of the bacteria’s DNA that’s essential for building tails. The researchers then dropped these tailless bacteria into a petri dish with a meager supply of food. Before long, the bacteria ate all the food in their immediate surroundings. If they couldn’t move, they died. In less than four days in these dire conditions, the bacteria were swimming again. On close inspection, the team found they were growing new tails.

“This strategy is to produce rapid evolutionary genome change in response to the unfavorable environment,” Noble declared to the audience. “It’s a self-maintaining system that enables a particular characteristic to occur independent of the DNA.”

That didn’t sound right to Shuker, and he was determined to challenge Noble after the applause died down.

“Could you comment at all on the mechanism underlying that discovery?” Shuker asked.

Noble stammered in reply. “The mechanism in general terms, I can, yes…” he said, and then started talking about networks and regulation and a desperate search for a solution to a crisis. “You’d have to go back to the original paper,” he then said.

While Noble was struggling to respond, Shuker went back to the paper on an iPad. And now he read the abstract in a booming voice.

“‘Our results demonstrate that natural selection can rapidly rewire regulatory networks,’” Shuker said. He put down the iPad. “So it’s a perfect, beautiful example of rapid neo-Darwinian evolution,” he declared.

Shuker distilled the feelings of a lot of skeptics I talked to at the conference. The high-flying rhetoric about a paradigm shift was, for the most part, unwarranted, they said. Nor were these skeptics limited to the peanut gallery. Several of them gave talks of their own.

“I think I’m expected to represent the Jurassic view of evolution,” said Douglas Futuyma when he got up to the podium. Futuyma is a soft-spoken biologist at Stony Brook University in New York and the author of a leading textbook on evolution. In other words, he was the target of many complaints during the meeting that textbooks paid little heed to things like epigenetics and plasticity. In effect, Futuyma had been invited to tell his colleagues why those concepts were ignored.

“We must recognize that the core principles of the Modern Synthesis are strong and well-supported,” Futuyma declared. Not only that, he added, but the kinds of biology being discussed at the Royal Society weren’t actually all that new. The architects of the Modern Synthesis were already talking about them over 50 years ago. And there’s been a lot of research guided by the Modern Synthesis to make sense of them.

Take plasticity. The genetic variations in an animal or a plant govern the range of forms into which organism can develop. Mutations can alter that range. And mathematical models of natural selection show how it can favor some kinds of plasticity over others.

If the Extended Evolutionary Synthesis was so superfluous, then why was it gaining enough attention to warrant a meeting at the Royal Society? Futuyma suggested that its appeal was emotional rather than scientific. It made life an active force rather than the passive vehicle of mutations.

“I think what we find emotionally or aesthetically more appealing is not the basis for science,” Futuyma said.

Still, he went out of his way to say that the kind of research described at the meeting could lead to some interesting insights about evolution. But those insights would only arise with some hard work that leads to hard data. “There have been enough essays and position papers,” he said.

Some members in the audience harangued Futuyma a bit. Other skeptical speakers sometimes got exasperated by arguments they felt didn’t make sense. But the meeting managed to reach its end on the third afternoon without fisticuffs.

“This is likely the first of many, many meetings,” Laland told me. In September, a consortium of scientists in Europe and the United States received $11 million in funding (including $8 million from the John Templeton Foundation) to run 22 studies on the Extended Evolutionary Synthesis.

Many of these studies will test predictions that have emerged from the synthesis in recent years. They will see, for example, if species that build their own environments — spider webs, wasp nests and so on — evolve into more species than ones that don’t. They will look at whether more plasticity allows species to adapt faster to new environments.

“It’s doing the research, which is what our critics are telling us to do,” said Laland. “Go find the evidence.”

Correction: An earlier version of this article misidentified the photograph of Andy Whiten as Gerd Müller.

This article was reprinted on TheAtlantic.com.

Um mapa do risco no mundo (Pesquisa Fapesp)

Com exceção do Japão, os países pobres e em desenvolvimento são os mais vulneráveis a desastres naturais 

MARCOS PIVETTA | ED. 249 | NOVEMBRO 2016

mapa
Por estar sujeito a fortes terremotos e inundações causadas por tsunamis, o Japão é o único país desenvolvido que apresenta risco muito alto de ser afetado por cataclismos, segundo a edição de 2016 do World Risk Report, publicação organizada pela Universidade das Nações Unidas, agência alemã Alliance Development Works e Universidade de Stuttgart. A nação asiática figura na 17ª posição do índice mundial de risco a desastres, que classifica 171 países em função da possibilidade de serem alvo de cinco tipos de eventos extremos: secas, inundações, ciclones ou tempestades, terremotos e aumento do nível do mar.

O índice lista as áreas do globo em ordem decrescente de vulnerabilidade a desastres e os separa em cinco categorias. Cada uma delas é composta por 20% do total de países, que são classificados como sendo de risco muito alto, alto, médio, baixo ou muito baixo. O indicador final é calculado por meio da análise de 28 parâmetros geoclimáticos e socioeconômicos, como a quantidade de pessoas expostas a desastres, a renda e a educação da população, a capacidade de mitigar o impacto de eventos extremos e de se adaptar a mudanças.

Vanuatu, um pequeno arquipélago do Pacífico sul distante 1.700 quilômetros a leste da Austrália, com 250 mil habitantes, é o país mais arriscado do mundo, o número 1 do índice. Está sujeito a terremotos, ciclones e pode ser coberto pelas águas se o nível do mar aumentar. Isso sem contar o vulcanismo, que não entra no cálculo do índice. O segundo lugar é ocupado por Tonga, um arquipélago da Polinésia, e o terceiro, pelas Filipinas. O Haiti, onde o furacão Matthew matou 1.300 pessoas e desalojou 35 mil em outubro, aparece em 21º lugar da lista. O Brasil ocupa a 123ª posição e está classificado na categoria dos países de baixo risco, como os Estados Unidos, a Itália, a Argentina e o Reino Unido. “Nenhum índice baseado em desastres naturais é perfeito”, comenta Lucí Hidalgo Nunes, da Unicamp. “De acordo com as variáveis usadas e o peso dado a elas, as classificações mudam. Mas, certamente, o Brasil não é um dos países em pior situação.”

Climate Change in Trump’s Age of Ignorance (New York Times)

Stanford, Calif. — THE good news got pretty much drowned out this month: Yes, 2016 is on track to become the hottest year on record, but thankfully also the third year in a row to see relatively flat growth in global greenhouse gas emissions. With global economic growth on the order of 3 percent a year, we may well have turned a corner toward a sustainable climate economy.

The bad news, of course, is that the world’s wealthiest nation, home to many of the scholars scrambling to reverse global warming, has elected a new president with little or no interest in the topic. Or an active disinterest. Donald J. Trump is surrounding himself with advisers who are likely to do little to challenge his notion of climate change as a Chinese hoax. People like to think of us as living in an age of information, but a better descriptor might be “the age of ignorance.”

How did we get into this predicament? Why are we about to inaugurate the most anti-science administration in American history?

As a graduate student at Harvard in the 1970s and early 1980s, I was astonished to find how little concern there was for the beliefs of ordinary Americans. I was in the history of science department, where all the talk was of Einstein and Darwin and Newton, with the occasional glance at the “reception” of such ideas in the larger literate populace.

I had grown up in a small town in Texas, and later in Kansas City, where the people I knew often talked about nature and God’s glory and corruption and the good life. At Harvard, though, I was puzzled that my professors seemed to have little interest in people outside the vanguard, the kinds of people I had come from, many of whom were fundamentalist Christians, people of solid faith but often in desperate conditions. Why was there so little interest in what they thought or believed? That’s Point 1.

INTERACTIVE MAP

What Trump’s Climate Legacy Could Look Like

How the president-elect deals with climate change could make him the man who shrunk America or the man who helped save the planet.

Point 2: Early in my career as a historian, I was further bothered by how little attention was given to science as an instrument of popular deception. We like to think of science as the opposite of ignorance, the light that washes away the darkness, but there’s much more to that story.

Here my Harvard years were more illuminating. I got into a crowd of appropriately radicalized students, and started to better understand the place of science in the arc of human history. I learned about how science has not always been the saving grace we like to imagine; science gives rise as easily to nuclear bombs and bioweapons as to penicillin and the iPad. I taught for several years in the biology department, where I learned that cigarette makers had been giving millions of dollars to Harvard and other elite institutions to curry favor.

I also started understanding how science could be used as an instrument of deception — and to create or perpetuate ignorance. That is important, because while scholars were ignoring what Karl Marx dismissively called “the idiocy of rural life” (Point 1), tobacco and soft drink and oil companies facing taxation and regulation were busily disseminating mythologies about their products, to keep potential regulators at bay (Point 2).

The denialist conspiracy of the cigarette industry was crucial in this context, since science was one of the instruments used by Big Tobacco to carry out its denial (and distraction) campaign. Cigarette makers had met at the Plaza Hotel in New York City on Dec. 14, 1953, to plan a strategy to rebut the evidence that cigarettes were causing cancer and other maladies. The strategy was pure genius: The claim would be that it had not been “proved” that cigarettes really cause disease, so there was room for honest doubt. Cigarette makers promised to finance research to get to the truth, while privately acknowledging (in a notorious Brown & Williamson document from 1969) that “Doubt is our product.”

For decades thereafter, cigarette makers poured hundreds of millions of dollars into basic biomedical research, exploring things like genetic and viral or occupational causes of cancer — anything but tobacco. Research financed by the industry led to over 7,000 publications in peer-reviewed medical literature and 10 Nobel Prizes. Including consulting relationships, my research shows that at least 25 Nobel laureates have taken money from the cigarette industry over the past half-century. (Full disclosure: I’ve testified against that industry in dozens of tobacco trials.)

Now we know that many other industries have learned from Big Tobacco’s playbook. Physicians hired by the National Football League have questioned the evidence that concussions can cause brain disease, and soda sellers have financed research to deny that sugar causes obesity. And climate deniers have conducted a kind of scavenger hunt for oddities that appear to challenge the overwhelming consensus of climate scientists.

This latter fact might be little more than a historical quirk, were it not for the fact that we’ll soon have a president whose understanding of science is more like that of the people in the towns where I grew up than those scholars who taught me about Darwin and Einstein at Harvard.

We now live in a world where ignorance of a very dangerous sort is being deliberately manufactured, to protect certain kinds of unfettered corporate enterprise. The global climate catastrophe gets short shrift, largely because powerful fossil fuel producers still have enormous political clout, following decades-long campaigns to sow doubt about whether anthropogenic emissions are really causing planetary warming. Trust in science suffers, but also trust in government. And that is not an accident. Climate deniers are not so much anti-science as anti-regulation and anti-government.

Jeff Nesbit, in his recent book, “Poison Tea: How Big Oil and Big Tobacco Invented the Tea Party and Captured the G.O.P.,” documents how Big Tobacco joined with Big Oil in the early 1990s to create anti-tax front groups. These AstroTurf organizations waged a concerted effort to defend the unencumbered sale of cigarettes and petro-products. The breathtaking idea was to protect tobacco and oil from regulation and taxes by starting a movement that would combat all regulation and all taxes.

Part of the strategy, according to Mr. Nesbit, who worked for a group involved in the effort and witnessed firsthand the beginning of this devil’s dance, was to sow doubt by corrupting expertise, while simultaneously capturing the high ground of open-mindedness and even caution itself, with the deceptive mantra: “We need more research.” Much of the climate denial now embraced by people like Mr. Trump was first expressed in the disinformation campaigns of Big Oil — campaigns modeled closely on Big Tobacco’s strategies.

We sometimes hear that those who ignore history are doomed to repeat it, but a “repeat” is perhaps now the least of our worries. Judging purely from his transition team, Mr. Trump’s administration could be more hostile to modern science — and especially earth and environmental sciences — than any we have ever had. Whole agencies could go on the chopping block or face deliberate evisceration. President Obama’s Clean Power Plan may be in jeopardy, along with funding for the Environmental Protection Agency and the National Oceanic and Atmospheric Administration. Grumblings can even be heard from Europe that if the Paris climate accord is abandoned, the United States may face carbon taxes on its export goods. Ignorance and its diabolic facilitator — the corruption of expertise — both have real-world costs that we ignore at our peril.

Um Brasil mais vulnerável no século XXI (Pesquisa Fapesp)

Projeções apontam aumento do risco de desastres naturais, como enchentes, deslizamentos de terra e secas extremas, nas próximas décadas 

MARCOS PIVETTA | ED. 249 | NOVEMBRO 2016

CAPA_Desastres_249_info 1Fora da rota dos grandes furacões, sem vulcões ativos e desprovido de zonas habitadas sujeitas a fortes terremotos, o Brasil não figura entre os países mais suscetíveis a desastres naturais. Ocupa apenas a 123ª posição em um índice mundial dos países mais vulneráveis a cataclismos. Mas a aparência de lugar seguro, protegido dos humores do clima e dos solavancos da geologia, deve ser relativizada. Aqui, cerca de 85% dos desastres são causados por três tipos de ocorrências: inundações bruscas, deslizamentos de terra e secas prolongadas. Esses fenômenos são relativamente recorrentes em zonas tropicais e seus efeitos podem ser atenuados, em grande medida, por políticas públicas de redução de danos. Nas últimas cinco décadas, mais de 10.225 brasileiros morreram em desastres naturais, a maioria em inundações e devido à queda de encostas. As estiagens duradouras, como as comumente observadas no Nordeste, são, no entanto, o tipo de ocorrência que provoca mais vítimas não fatais no país (ver Pesquisa FAPESP nº 241).

Dois estudos baseados em simulações climáticas feitos por pesquisadores brasileiros indicam que o risco de ocorrência desses três tipos de desastre, ligados ao excesso ou à falta de água, deverá aumentar, até o final do século, na maioria das áreas hoje já afetadas por esses fenômenos. Eles também sinalizam que novos pontos do território nacional, em geral adjacentes às zonas atualmente atingidas por essas ocorrências, deverão se transformar em áreas de risco significativo para esses mesmos problemas. “Os impactos tendem a ser maiores no futuro, com as mudanças climáticas, o crescimento das cidades e de sua população e a ocupação de mais áreas de risco”, comenta José A. Marengo, chefe da Divisão de Produtos Integrados de Pesquisa e Desenvolvimento do Centro Nacional de Monitoramento e Alerta de Desastres Naturais (Cemaden), órgão ligado ao Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), que coordenou as simulações climáticas. Parte dos resultados das projeções já foi divulgada em congressos e relatórios, como o documento federal enviado em abril deste ano à Convenção-Quadro das Nações Unidas sobre Mudança do Clima (UNFCCC, na sigla em inglês), e serve de subsídio para direcionar as estratégias do recém-criado Plano Nacional de Adaptação à Mudança do Clima. Mas dados mais detalhados das simulações vão sair em um artigo científico já aceito para publicação na revista Natural Hazards e em trabalhos destinados a outros periódicos.

Arredores da usina de Sobradinho, Bahia: estiagens devem atingir outras partes do país nas próximas décadas

Expansão das secas
De acordo com os estudos, as estiagens severas, hoje um problema de calamidade pública quase sempre associado a localidades do Nordeste, deverão se intensificar também no oeste e parte do leste da Amazônia, no Centro-Oeste, inclusive em torno de Brasília, em pontos dos estados do Sudeste e até no Sul. “Embora parte do Nordeste seja naturalmente mais árido, a seca não se deve apenas ao clima”, afirma o engenheiro civil Pedro Ivo Camarinha, pesquisador do Cemaden. “A vulnerabilidade da região se dá também por uma série de problemas de ordem socioeconômica, de uso do solo e devido à baixa capacidade de adaptação aos impactos das mudanças climáticas.” A carência de políticas públicas específicas para enfrentar os meses de estiagem, o baixo grau de escolaridade da população e a escassez de recursos são alguns dos fatores citados pelos autores como determinantes para aumentar a exposição de parcelas significativas do Nordeste a secas futuras.

A vulnerabilidade a inundações e enxurradas tende a se elevar em 30% nos três estados do Sul, na porção meridional do Mato Grosso e em boa parte da faixa litorânea do Nordeste, segundo um cenário projetado para 2100 pelas simulações climáticas. No estado de São Paulo, o mais populoso do país, a intensificação da ocorrência de enchentes-relâmpago, aquelas originadas após poucos minutos de chuvas torrenciais, deverá ser mais modesta, da ordem de 10%, mas ainda assim significativa. No Brasil Central, a vulnerabilidade a enchentes deverá cair, até porque as projeções indicam menos chuvas (e mais secas) em boa parte da região. “Os modelos divergem sobre o regime futuro de chuvas no oeste da Amazônia”, explica Marengo, cujos estudos se desenvolveram em parte no âmbito de um projeto temático da FAPESP. “Um deles aponta um aumento expressivo na frequência de inundações enquanto o outro sinaliza um cenário de estabilidade ou de leve aumento de enchentes.”

O padrão de deslizamento de terra, associado à ocorrência de chuvas intensas ou prolongadas por dias, deverá seguir, grosso modo, as mesmas tendências verificadas com as inundações, ainda que em um ritmo de crescimento mais moderado. O aumento na incidência de quedas de encostas deverá variar entre 3% e 15% nos lugares hoje já atingidos por esse tipo de fenômeno. O destaque negativo recai sobre a porção mais meridional do país. As áreas sujeitas a deslizamentos no Rio Grande do Sul, em Santa Catarina e no Paraná deverão se expandir e abarcar boa parte desses estados até 2100. No Sudeste, a região serrana na divisa entre São Paulo, Rio de Janeiro e Minas Gerais deverá se tornar ainda mais vulnerável a esse tipo de desastre. “Precisamos implementar com urgência políticas públicas nas regiões mais vulneráveis a inundações e deslizamentos de terra”, afirma o geógrafo Nathan Debortoli, coautor dos estudos, que hoje faz estágio de pós-doutorado na Universidade McGill, do Canadá. “A maior exposição às mudanças climáticas pode tornar a sobrevivência inviável em algumas regiões do país.”

Enchente de 2014 em União da Vitória (SC): Sul deverá ser palco de mais inundações

Para gerar as projeções de risco futuro de desastres, foram usados dois modelos climáticos globais, o HadGEM2 ES, desenvolvido pelo Centro Hadley, da Inglaterra, e o Miroc5, criado pelo centro meteorológico japonês. Acoplado a eles, rodou ainda o modelo de escala regional Eta, desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (Inpe). Trabalhando dessa forma, os autores conseguiram avaliar os padrões predominantes do clima futuro que estão associados à ocorrência de desastres naturais em áreas de, no mínimo, 400 quilômetros quadrados, um quadrado com os lados de 20 quilômetros de extensão.

Mais convergências que divergências
Os resultados fornecidos pelos dois modelos climáticos são semelhantes para cerca de 80% do território nacional. Isso dá robustez às projeções. O modelo inglês é usado há mais de 10 anos em simulações feitas por climatologistas brasileiros, que têm boa experiência acumulada com ele. O japonês começa agora a ser empregado com mais frequência. Há, no entanto, algumas discordâncias nas simulações de longo prazo geradas pelos dois modelos. A lista, por exemplo, dos 100 municípios mais vulneráveis a episódios de seca nas próximas três décadas fornecida pelas simulações do HadGEM2 ES é diferente da obtida com o Miroc5. As cidades de maior risco ficam, segundo o modelo japonês, em quatro estados do Nordeste: Rio Grande do Norte, Paraíba, Pernambuco e Alagoas. As fornecidas pelo modelo inglês se encontram, em sua maioria, em outros estados do Nordeste e também no Centro-Oeste e no norte de Minas Gerais. “Com exceção desses exemplos extremos, as projeções dos dois modelos coincidem em grande medida”, comenta Camarinha. No caso dos fenômenos hídricos, a discrepância mais significativa diz respeito ao regime de chuvas na Amazônia, em especial nos estados do oeste da região Norte (Acre, Amazonas e Rondônia). O HadGEM2 ES projeta mais chuvas — portanto, risco aumentado de inundações e deslizamentos — e o Miroc5, menos. “Prever as chuvas na Amazônia ainda é um desafio para os modelos”, afirma Marengo.

Para quantificar o risco futuro de ocorrer desastres naturais em uma área, é preciso ainda incluir nas simulações, além das informações climáticas, uma série de dados locais, como as condições econômicas, sociais e ambientais dos mais de 5.500 municípios brasileiros e de sua população. Ao final dos cálculos, cada área é classificada em um de cinco níveis de vulnerabilidade: muito baixa, baixa, média, alta e muito alta. “O modelo escolhido, a qualidade dos dados de cada cidade e o peso que se dá a cada variável influenciam no índice final obtido”, explica Camarinha.

CAPA_Desastres_249_info 2O peso do homem
Além da suscetibilidade natural a secas, enchentes, deslizamentos e outros desastres, a ação do homem tem um peso considerável em transformar o que poderia ser um problema de menor monta em uma catástrofe. Os pesquisadores estimam que um terço do impacto dos deslizamentos de terra e metade dos estragos de inundações poderiam ser evitados com alterações de práticas humanas ligadas à ocupação do solo e a melhorias nas condições socioeconômicas da população em áreas de risco.

Moradias precárias em lugares inadequados, perto de encostas ou em pontos de alagamento; infraestrutura ruim, como estradas ou vias que não permitem acesso fácil a zonas de grande vulnerabilidade; falta de uma defesa civil atuante; cidades superpopulosas e impermeabilizadas, que não escoam a água da chuva – todos esses fatores não naturais, da cultura humana, podem influenciar o desfecho final de uma situação de risco. “Até hábitos cotidianos, como não jogar lixo na rua, e o nível de solidariedade e coesão social de uma população podem ao menos mitigar os impactos de um desastre”, pondera a geógrafa Lucí Hidalgo Nunes, do Instituto de Geociências da Universidade Estadual de Campinas (IG-Unicamp). “Obviamente, há desastres naturais tão intensos, como os grandes terremotos no Japão, que nem mesmo uma população extremamente preparada consegue evitar. Mas a recuperação nos países mais estruturados é muito mais rápida.”

Em seus trabalhos, os pesquisadores adotaram um cenário global até o final do século relativamente pessimista, mas bastante plausível: o RCP 8.5, que consta do quinto relatório de avaliação do Painel Intergovernamental de Mudanças Climáticas (IPCC). Esse cenário é marcado por grandes elevações de temperatura e recrudescimento tanto de chuvas como de secas intensas. No caso do Brasil, as projeções indicam que o país deverá ficar ao menos 3 ºC mais quente até o fim do século e que as chuvas podem aumentar até 30% no Sul-Sudeste e diminuir até 40% no Norte-Nordeste. As mudanças climáticas devem tornar mais frequentes os chamados eventos extremos, que podem se manifestar de diferentes formas: secas prolongadas, picos de temperatura, tempestades mais intensas, chuvas prolongadas por vários dias, ressacas mais fortes. Essas ocorrências aumentam o risco de desastres. “Não é, por exemplo, só uma questão da quantidade de chuva que cai em um lugar”, explica Marengo. “Às vezes, a quantidade pode até não mudar, mas a distribuição da chuva ao longo do tempo se altera e essa mudança pode gerar mais desastres.” Numa cidade como São Paulo, chover 50 milímetros no decorrer de três ou quatro dias dificilmente causa danos. Mas, se a pluviosidade se concentrar em apenas uma tarde, provavelmente ocorrerão alagamentos.

CAPA_Desastres_249_info 3Para testar o grau de confiabilidade do índice de vulnerabilidade, os pesquisadores brasileiros compararam os resultados obtidos pelos modelos com os registros reais de desastres do passado recente (1960 a 1990), compilados pelo Atlas brasileiro de desastres naturais. Dessa forma, foi possível ter uma boa ideia se os modelos eram, de fato, úteis para prever as áreas onde ocorreram inundações, deslizamentos de terra e secas no Brasil durante as últimas décadas. Os dados do atlas também serviram de termo de comparação, como base presente para se quantificar o aumento ou a diminuição da vulnerabilidade futura de uma área a desastres. Para estiagem, as simulações do Miroc5 se mostraram geralmente mais confiáveis na maior parte do território nacional. No caso das enchentes e deslizamentos de terra, o HadGEM2 ES forneceu previsões mais precisas para áreas subtropicais e montanhosas, no Sul e Sudeste, e o Miroc5, para o resto do país. A Amazônia, como já destacado, foi o alvo de discórdia.

Um trabalho com metodologia semelhante à empregada pelos estudos de Marengo e de seus colaboradores, mas com enfoque apenas na situação atual, sem as projeções de aumento ou diminuição de risco futuro, foi publicado em abril no International Journal of Disaster Risk Reduction. Em parceria com pesquisadores alemães, o geógrafo Lutiane Queiroz de Almeida, da Universidade Federal do Rio Grande do Norte (UFRN), calculou um conjunto de índices que apontaria o risco de ocorrer desastres naturais em cada município do país. Denominado Drib (Disaster risk indicators in Brazil), o indicador é uma adaptação do trabalho feito em escala mundial pela Universidade das Nações Unidas e instituições europeias (ver mapa e texto às páginas 22 e 23). Além de levar em conta dados sobre o risco de secas, enchentes e deslizamentos de terra, o Drib inclui em seu índice a exposição dos municípios costeiros ao aumento do nível do mar. Para esse tipo de problema, as cidades que se mostraram em maior perigo foram Vila Velha e Vitória, no Espírito Santo, Santos (SP) e Salvador (BA).

Almeida produziu índices de vulnerabilidade para os principais tipos de desastre em todo o território nacional e um número final, o Drib, que indicaria o risco geral de um lugar para a ocorrência de eventos extremos. Chamou a atenção a classificação de praticamente todo o território do Amazonas e do Acre e de metade do Pará como áreas de risco muito elevado, com populações socialmente vulneráveis e expostas a inundações. Entre os 20 municípios com pior desempenho no índice Drib, 12 são da região Norte. Os demais são do Nordeste (seis) e do Sudeste (dois). “Esses municípios têm pequenas populações, entre 3 mil e 25 mil habitantes, alta exposição a desastres e baixa capacidade adaptativa”, comenta o geógrafo da UFRN. “O estudo aponta que apenas 20% dos municípios brasileiros estão bem preparados para mitigar os impactos e reagir imediatamente a eventos extremos.” Em geral, essa é uma característica das regiões Sul e Sudeste.

Deslizamento em Nova Friburgo (RJ) em 2011: alta vulnerabilidade a desastres

Tragédias que se repetem
Muito antes das discussões atuais sobre as mudanças climáticas, os cataclismos naturais despertam interesse no homem. Os desastres são um capítulo trágico da história da humanidade desde tempos imemoriais. Alegado castigo divino, o mítico dilúvio global que teria acabado com a vida na Terra, com exceção das pessoas e animais que embarcaram na arca de Noé, é uma narrativa presente no Gênesis, primeiro livro do Antigo Testamento cristão e do Tanach, o conjunto de textos sagrados do judaísmo. Supostas inundações gigantescas e catastróficas, antes e depois da publicação do Gênesis, aparecem em relatos de várias culturas ao longo dos tempos, desde os antigos mesopotâmicos e gregos até os maias centro-americanos e os vikings. As antigas cidades romanas de Pompeia e Herculano foram soterradas pela lava do monte Vesúvio na famosa erupção de 79 d.C. e, estima-se, cerca de 2 mil pessoas morreram. Dezessete anos antes, essa região da Campania italiana já havia sido afetada por um terremoto de menor magnitude. “Costumamos dizer que, se um desastre já ocorreu em um lugar, ele vai se repetir, mais dia ou menos dia”, comenta Lucí.

Projeto
Assessment of impacts and vulnerability to climate change in Brazil and strategies for adaptation option (nº 2008/58161-1); Modalidade Auxílio à Pesquisa – Programa de Pesquisa sobre Mudanças Climáticas Globais – Temático (Acordo FAPESP/CNPq – Pronex); Pesquisador responsável José A. Marengo (Cemaden); Investimento R$ 812.135,64.

Artigos científicos
DEBORTOLI, N. S et al. An index of Brazil’s vulnerability to expected increases in natural flash flooding and landslide disasters in the context of climate change. Natural Hazards. No prelo.
ALMEIDA, L. Q. et alDisaster risk indicators in Brazil: A proposal based on the world risk index. International Journal of Disaster Risk Reduction. 17 abr. 2016.

Com 516 milímetros de chuva em 5 anos, Ceará tem pior seca desde 1910 (G1)

09/09/2016 09h20 – Atualizado em 09/09/2016 11h57

Previsão para 2017 ainda é indefinida devido ao “Oceano Pacífico Neutro”.
Águas do Açude Orós estão sendo transferidas para o Castanhão.

Do G1 CE com informações da TV Verdes Mares

VER VIDEO

Levantamento feito pela Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme) nesta quinta-feira (8) mostra que nos últimos cinco anos, de 2012 a 2016, foram apenas 516 milímetros de chuva, em média, no Ceará. O índice é o menor desde 1910.

De acordo com o meteorologista Davi Ferran, vai ser preciso conviver com a incerteza pelos próximos meses, já que ainda é cedo pra afirmar se 2017 vai trazer chuva ou não.

Ano Chuva (mm)
2012 388
2013 552
2014 565
2015 524
2016 550
Média 516
Fonte: Funceme

“No período chuvoso do ano que vem, ou seja, março, abril e maio, que é o período chuvoso principal, a maior probabilidade é que o Oceano Pacífico não tenha El Niño nem La Niña. Vamos ter o Oceano Pacífico neutro. Em anos de Oceano Pacífico neutro, a probabilidade de chuvas no Ceará depende mais fortemente do Atlântico. Então a previsão vai ser divulgada somente em janeiro”, explica.

Enquanto isso, segundo a Companhia de Gestão de Recursos Hídricos (Cogerh), os reservatórios secam cada vez mais. No momento, o nível médio dos 153 açudes monitorados pela Cogerh é de apenas 9,4% do volume total.O “Gigante” Castanhão, responsável por abastecer toda a Região Metropolitana de Fortaleza, está praticamente sem água. Há apenas sete anos, ele chegou a inundar a cidade de Jaguaribara com a enorme vazão das comportas.

Hoje, a Cogerh diz que o maior açude do Ceará está com apenas 6% da capacidade. Bem perto dele, o Açude Orós, também na Região Jaguaribana, sangrou em 2004 e 2008. Na época, virou até atração turística no Centro Sul do Estado.

Agora em 2016, o Orós aparece nesse cenário de seca em forma de ajuda. Desde julho, as águas do açude estão sendo transferidas para o Castanhão. Segundo a Cogerh, essa água deve chegar às residências da Região Metropolitana de Fortaleza em setembro, e garantir o abastecimento pelo menos durante esse período  de crise hídrica.

“Nossa programação é até o final de janeiro. Ou seja, até janeiro vamos estar operando de forma integrada os dois reservatórios. O caso da Região Metropolitana, ela está totalmente integrada à Região do Jaguaribe por dois grandes canais: o do Trabalhador e Eixão das Águas. Então é o caso de uma bacia hoje tem uma maior dependência de outra região, de outra bacia hidrográfica, mas elas estão integradas. Esse é o caso que eu diria mais emblemática no Estado”, explica o presidente da Cogerh, João Lúcio Farias.

saiba mais

Ceará passa pela pior seca dos últimos 90 anos, com 38 açudes completamente secos e 42 no volume morto (Ceará News 7)

27/10/2016 11:45Hs

EFEITOS DA ESTIAGEM

O relatório da Cogerh também informa que, somente no mês de outubro o volume nos açudes caiu para 10% de sua capacidade.

Ceará passa pela pior seca dos últimos 90 anos, com 38 açudes completamente secos e 42 no volume morto

Os reservatórios do Ceará estão exauridos por conta da seca prolongada 

A Companhia de Gestão de Recursos Hídricos (Cogerh) relatou a situação preocupante que vive o Ceará por conta da falta de chuvas, que faz o Estado enfrentar a pior seca dos últimos 90 anos.

Segundo a Cogerh, somente no mês de outubro o volume de água nos açudes cearenses caiu para 10 por cento. Dos 153 açudes monitorados pela companhia 131 têm menos de 30% da capacidade máxima e apenas um está com mais de 90%. Outros 42 estão com o volume morto e 38 completamente secos.

No mês de março, considerado o mais chuvoso da temporada de inverno, quando em média são esperados mais de 200 milímetros, o índice registrado foi de apenas 129 milímetros. Os dados confirmam o quinto ano seguido de chuvas abaixo da média no Ceará, ocasionando uma das maiores secas já registradas na história.

Lista dos açudes com volume morto:

Batente, Broco, Capitão Mor, Castro, Catucinzenta, Cipoada, Ema, Farias de Sousa, Flor do Campo, Fogareiro, Forquilha, Frios, Gerardo Atimbone, Jaburu II, Jatobá, Jatobá II, Jenipapeiro, Jenipapeiro II, João Luís, Macacos, Martinópole, Monsenhor, Tabosa, Parambu, Penedo, Pentecoste, Pesqueiro, Poço ds Pedra, Poço do Barro, Pompeu Sobrinho, Riacho da Serra, Riacho do Sangue, Rivaldo de Carvalho, Santo Antônio, Santo Antônio de Aracatiaçu, São Domingos II, São José II, São José III, Sítios Novos, Sucesso, Tejuçuoca, Várzea da Volta e Várzea do Boi.

Lista dos ançudes secos

Adauto Bezerra, Amanari, Barra Velha, Barragem do Batalhão, Bonito, Canafístula, Carão, Carmina, Carnaubal, Cedro, Cumpim, Desterro, Escuridão, Faé, Favelas, Forquilha II, Jerimum, Madeiro, Monte Belo, Nova Floresta, Pau Preto, Pirabibu, Potiretama, Premuoca, Quixabinha, Quixeramobim, Salão, Santa Maria de Aracatiaçu, Santo Antônio de Russas, São Domingos, São José I, São Mateus, Serafim Dias, Sousa, Trapiá II, Trici, Umari, Vieirão.

Fonte: Cogerh

O Brasil deveria mudar o modo como lida com a memória da escravidão? (BBC Brasil)

29 outubro 2016

Exposição 'Mãe Preta', no Rio de Janeiro

O Brasil recebeu a maioria dos africanos escravizados enviados às Américas

Uma sala com peças de um navio que levava para o Brasil 500 mulheres, crianças e homens escravizados é a principal atração do novo museu sobre a história dos americanos negros, em Washington.

Numa segunda-feira de outubro, era preciso passar 15 minutos na fila para entrar na sala com objetos do São José – Paquete de África, no subsolo do Museu de História e Cultura Afroamericana.

Inaugurado em setembro pelo Smithsonian Institution, o museu custou o equivalente a R$ 1,7 bilhão se tornou o mais concorrido da capital americana: os ingressos estão esgotados até março de 2017.

Em 1794, o São José deixou a Ilha de Moçambique, no leste africano, carregado de pessoas que seriam vendidas como escravas em São Luís do Maranhão. A embarcação portuguesa naufragou na costa da África do Sul, e 223 cativos morreram.

Visitantes – em sua maioria negros americanos – caminhavam em silêncio pela sala que simula o porão de um navio negreiro, entre lastros de ferro do São José e algemas usadas em outras embarcações (um dos pares, com circunferência menor, era destinado a mulheres ou crianças).

“Tivemos 12 negros que se afogaram voluntariamente e outros que jejuaram até a morte, porque acreditam que quando morrem retornam a seu país e a seus amigos”, diz o capitão de outro navio, em relato afixado na parede.

Prova de existência

Expor peças de um navio negreiro era uma obsessão do diretor do museu, Lonnie Bunch. Em entrevista ao The Washington Post, ele disse ter rodado o mundo atrás dos objetos, “a única prova tangível de que essas pessoas realmente existiram”.

Destroços do São José foram descobertos em 1980, mas só entre 2010 e 2011 pesquisadores localizaram em Lisboa documentos que permitiram identificá-lo. Um acordo entre arqueólogos marinhos sul-africanos e o Smithsonian selou a vinda das peças para Washington.

Museu de História e Cultura Afroamericana

Inaugurado em setembro, o Museu de História e Cultura Afroamericana custou US$ 1,7 bilhão. DIVULGAÇÃO/SMITHSONIAN

Que o destino do São José fosse o Brasil não era coincidência, diz Luiz Felipe de Alencastro, professor emérito da Universidade de Paris Sorbonne e um dos maiores especialistas na história da escravidão transatlântica.

Ele afirma à BBC Brasil que fomos o paradeiro de 43% dos africanos escravizados enviados às Américas, enquanto os Estados Unidos acolheram apenas 0,5%.

Segundo um estudo da Universidade de Emory (EUA), ao longo da escravidão ingressaram nos portos brasileiros 4,8 milhões de africanos, a maior marca entre todos os países do hemisfério.

Esse contingente, oito vezes maior que o número de portugueses que entraram no Brasil até 1850, faz com que Alencastro costume dizer que o Brasil “não é um país de colonização europeia, mas africana e europeia”.

O fluxo de africanos também explica porque o Brasil é o país com mais afrodescendentes fora da África (segundo o IBGE, 53% dos brasileiros se consideram pretos ou pardos).

Por que, então, o Brasil não tem museus ou monumentos sobre a escravidão comparáveis ao novo museu afroamericano de Washington?

Apartheid e pilhagem da África

Para Alencastro, é preciso considerar as diferenças nas formas como Brasil e EUA lidaram com a escravidão e seus desdobramentos.

Ele diz que, nos EUA, houve uma maior exploração de negros nascidos no país, o que acabaria resultando numa “forma radical de racismo legal, de apartheid”.

Crianças brincam no Museu de História e Cultura Afroamericana

Museu virou um dos mais concorridos da capital americana e está com os ingressos esgotados até março. BBC BRASIL / JOÃO FELLET

Até a década de 1960, em partes do EUA, vigoravam leis que segregavam negros e brancos em espaços públicos, ônibus, banheiros e restaurantes. Até 1967, casamentos inter-raciais eram ilegais em alguns Estados americanos.

No Brasil, Alencastro diz que a escravidão “se concentrou muito mais na exploração dos africanos e na pilhagem da África”, embora os brasileiros evitem assumir responsabilidade por esses processos.

Ele afirma que muitos no país culpam os portugueses pela escravidão, mas que brasileiros tiveram um papel central na expansão do tráfico de escravos no Atlântico.

Alencastro conta que o reino do Congo, no oeste da África, foi derrubado em 1665 em batalha ordenada pelo governo da então capitania da Paraíba.

“O pelotão de frente das tropas era formado por mulatos pernambucanos que foram barbarizar na África e derrubar um reino independente”, ele diz.

Vizinha ao Congo, Angola também foi invadida por milicianos do Brasil e passou vários anos sob o domínio de brasileiros, que a tornaram o principal ponto de partida de escravos destinados ao país.

“Essas histórias são muito ocultadas e não aparecem no Brasil”, ele afirma.

Reparações históricas

Para a brasileira Ana Lucia Araújo, professora da Howard University, em Washington, “o Brasil ainda está muito atrás dos EUA” na forma como trata a história da escravidão.

“Aqui (nos EUA) se reconhece que o dinheiro feito nas costas dos escravos ajudou a construir o país, enquanto, no Brasil, há uma negação disso”, ela diz.

Autora de vários estudos sobre a escravidão nas Américas, Araújo afirma que até a ditadura (1964-1985) era forte no Brasil a “ideologia da democracia racial”, segundo a qual brancos e negros conviviam harmonicamente no país.

São recentes no Brasil políticas para atenuar os efeitos da escravidão, como cotas para negros em universidades públicas e a demarcação de territórios quilombolas.

Ferragens usadas em navios negreiros

Expor peças de um navio negreiro era uma obsessão do diretor do museu. DIVULGAÇÃO/SMITHSONIAN

Ela diz que ainda poucos museus no Brasil abordam a escravidão, “e, quando o fazem, se referem à população afrobrasileira de maneira negativa, inferiorizante”.

Segundo a professora, um dos poucos espaços a celebrar a cultura e a história afrobrasileira é o Museu Afro Brasil, em São Paulo, mas a instituição deve sua existência principalmente à iniciativa pessoal de seu fundador, o artista plástico Emanoel Araújo.

E só nos últimos anos o Rio de Janeiro passou a discutir o que fazer com o Cais do Valongo, maior porto receptor de escravos do mundo. Mantido por voluntários por vários anos, o local se tornou neste ano candidato ao posto de Patrimônio da Humanidade na Unesco.

Para a professora, museus e monumentos sobre a escravidão “não melhoram as vidas das pessoas, mas promovem um tipo de reparação simbólica ao fazer com que a história dessas populações seja reconhecida no espaço público”.

Visibilidade e representação

Para o jornalista e pesquisador moçambicano Rogério Ba-Senga, a escravidão e outros pontos da história entre Brasil a África têm pouca visibilidade no país, porque “no Brasil os brancos ainda têm o monopólio da representação social dos negros”.

“Há muitos negros pensando e pesquisando a cultura negra no Brasil, mas o centro decisório ainda é branco”, diz Ba-Senga, que mora em São Paulo desde 2003.

Para ele, o cenário mudará quando negros forem mais numerosos na mídia brasileira – “para que ponham esses assuntos em pauta” – e nos órgãos públicos.

Para Alencastro, mesmo que o Estado brasileiro evite tratar da escravidão, o tema virá à tona por iniciativa de outros grupos.

“Nações africanas que foram pilhadas se tornaram independentes. Há nesses países pessoas estudando o tema e uma imigração potencialmente crescente de africanos para o Brasil”, ele diz.

Em outra frente, o professor afirma que movimentos brasileiros em periferias e grupos quilombolas pressionam para que os assuntos ganhem espaço.

“Há hoje uma desconexão entre a academia e o debate no movimento popular, mas logo, logo tudo vai se juntar, até porque a maioria da população brasileira é afrodescentente. Os negros são maioria aqui.”

Catálogo traz à tona História Indígena e Escravidão Negra no Brasil (Nossa Ciência)

PESQUISA Segunda, 31 de Outubro de 2016

Mônica Costa

Crédito: Acervo pessoal

Pesquisa investigou documentos referentes ao Brasil, no período colonial, que constam do Arquivo Histórico Ultramarino, em Lisboa/Portugal

“Temos uma imensa documentação fantástica vinculada ao Quilombo dos Palmares, ao tráfico negreiro. Em relação à questão indígena, temos inúmeros povos e grupos étnicos que souberam negociar com a Coroa Portuguesa, lideranças indígenas que souberam lutar em favor do seu próprio povo.” A afirmação é da professora Juciene Ricarte, da Universidade Federal e Campina Grande (UFCG) sobre o conteúdo dos Catálogos Gerais dos Manuscritos Avulsos e em Códices referentes à História Indígena e à Escravidão Negra no Brasil Existentes no Arquivo Histórico Ultramarino, recentemente lançados em Campina Grande (PB)

Durante quatro anos, o projeto analisou 136.506 mil verbetes/documentos entre os anos de 1581 e 1843 que constam do Arquivo Histórico Ultramarino (AHU), de Lisboa, em Portugal. Foram analisadas cartas relatórios, requerimentos, cartas régias, alvarás, provisões, consultas, relatos de viagens, entre outros documentos geridos pela burocracia administrativa portuguesa e que lidavam com as questões indígenas e da escravidão no Brasil Colonial. Segundo a coordenadora do projeto, os documentos falam do cotidiano da Colônia. “Tem situações e narrativas de luta em mocambos, mocambos com indígenas e negros, levantes em aldeamentos, da vida desses protagonistas”, explica.

Guerra dos Bárbaros

Ao final, o projeto catalogou 6.009 verbetes, sendo 3.052 sobre a História Indígena e 2.957 referentes à escravidão negra em todas as regiões do País. Professora do Programa de Pós-Graduação em História, Juciene garante que muitas monografias, dissertações, teses e livros poderão surgir a partir dessas duas coleções, que contêm ainda todos os documentos digitalizados. “Pesquisadores, antropólogos, historiadores, memorialistas poderão usar esses documentos porque tem mais do que os livros-catálogos com o resumo. Por exemplo, se a pessoa quiser pesquisar sobre os Potiguaras com os Janduis, na Guerra dos Bárbaros, procura no DVD e com o número do verbete, ela vai encontrar a imagem digitalizada do manuscrito. Então, ela pode imprimir, arquivar no próprio computador, ampliar, reduzir e ainda tem acessibilidade para cegos.”

Além da produção dos livros-catálogos, o projeto realizou a gravação dos verbetes em áudio para promover a acessibilidade aos deficientes visuais “Esse formato é extremamente necessário e importante para o que objetivamos de acessibilidade no tocante às fontes históricas. Nenhum outro sistema de informação no trato com documentação de questões étnicas foi produzido com a possibilidade não só da leitura de verbetes, mas da escuta dos resumos”, ressaltou.

Povos exterminados

Tendo concluído o Pós-Doutorado na Universidade Nova de Lisboa, em 2015, Juciene afirma que os pesquisadores encontraram histórias e memórias sobre o cotidiano de diversos grupos indígenas que nem existem mais. São lutas e resistências de muitos que deram a própria vida, etnocídios, povos que foram exterminados lutando por seus territórios tradicionais, outros se adaptando à nova realidade colonial para também sobreviver.

Ela explica que é no período colonial que ocorrem as primeiras relações interétnicas entre indígenas e não-indígenas, entre negros e não-negros, entre senhores e escravos e entre missionários e indígenas. São as primeiras relações do que iria constituir o povo brasileiro. A etnohistoriadora argumenta que a documentação recolhida mostra homens e mulheres que são sujeitos do seu tempo e que tanto indígenas, quanto os homens e mulheres negros conseguiram construir relações e sociabilidade num mundo que, muitas vezes, era de dominação. “Quando se constituiu os aldeamentos indígenas sob a tutela de missionários, da Igreja e depois, com a Lei do Marquês de Pombal, quando expulsaram os jesuítas, esses indígenas sabiam muito bem construir novos espaços nesse mundo colonial, mesmo deixando de falar a própria língua, porque eram obrigados, continuavam sendo indígenas, resistiam, lutavam e ao mesmo tempo, tentavam sobreviver naquela realidade que lhe era imposta. Assim também os homens e mulheres negros. A ideia de escravidão negra é que fossem submetidos. Absolutamente! Eles construíam negociações ou atos de violências numa tentativa de sobreviver num mundo de escravidão”, narra.

Nordeste

Relacionado ao que hoje compreende o nordeste, a coordenadora do projeto esclarece que foi catalogada importante documentação sobre grupos étnicos que já não existem mais no Rio Grande do Norte ou na Paraíba. São os indígenas do sertão, da chamada Guerra dos Bárbaros, além de outros grupos étnicos que viviam ao longo do Rio São Francisco, muitos mocambos e quilombos. Esses documentos podem inclusive ser usados em laudos antropológicos para identificação de territórios tradicionais tanto indígenas, quanto negros.

Justificando a importância do trabalho, a professora afirma que ele não fala apenas do passado, porque negros e indígenas continuam existindo hoje, lutando por inclusão étnico-racial. “Nos próprios livros didáticos de História, é como se a História Indígena e a História do Negro no Brasil não fosse importante e com um instrumento de pesquisa como esse, a gente muda a historiografia nacional, contribui para que esses protagonistas, reais sujeitos históricos do Brasil, tenham vez na escrita da História”, ressalta.

Os produtos culturais – compostos por livros-catálogos e DVD´s – foram realizados por uma equipe de 43 pesquisadores da Universidade Federal de Campina Grande (UFCG) em parceria com a Fundação Parque Tecnológico da Paraíba (PaqTcPB), através do Edital Cultural da Petrobrás/2010. Os recursos foram de R$ 500 mil. A tiragem de cada Catálogo é de dois mil exemplares, a serem distribuídos para todas as universidades brasileiras, arquivos históricos, Movimento Negro e Movimento Indígena. A distribuição será gratuita e exclusivamente para instituições.

Brasil tem de modernizar pecuária para combater mudança do clima (Folha de S.Paulo)

Marcelo Leite

30/10/2016  02h00

As emissões de carbono aumentaram 3,5% enquanto o PIB atrofiava 3,8%O As emissões de carbono aumentaram 3,5% enquanto o PIB atrofiava 3,8%. Apu Gomes/Folhapress

Brasil deu uma rasteira no clima do planeta em 2015. No ano em que se aprovou o Acordo de Paris para conter o aquecimento global, o país aumentou, em vez de diminuir, a produção de gases do efeito estufa. A maior parte da culpa cabe à agropecuária.

Não poderia ser pior a notícia divulgada na quarta-feira (26) pelo Sistema de Estimativa de Emissão de Gases do Efeito Estufa, da rede de ONGs Observatório do Clima.

As emissões de carbono aumentaram 3,5% enquanto o PIB atrofiava 3,8%. Em geral, essas coisas andam juntas: para produzir mais, gasta-se mais energia, que no mundo todo é a principal fonte de gases que, como o CO2, ajudam a aquecer a atmosfera por impedir a dissipação de radiação de origem solar.

Não no Brasil. Aqui a atividade que mais contribui para agravar o efeito estufa é a mudança do uso da terra. Grosso modo, desmatamento, com a Amazônia à frente.

A destruição de florestas responde, sozinha, por 46% de toda a poluição climática lançada pelos brasileiros em 2015. Segundo o Seeg, o desmatamento emitiu o equivalente a 875 milhões do total de 1,9 bilhão de toneladas de CO2.

Quando a floresta é derrubada para abrir espaço a campos e pastos, toda a biomassa que havia ali –troncos, folhas, raízes etc.– acaba chegando à atmosfera na forma de compostos de carbono que agravam o aquecimento global. Queimadas e apodrecimento são os principais processos.

Isso não é tudo. As plantações e o gado, além de provocar desmatamento, também originam emissões na própria atividade, como o famigerado “arroto da vaca” (metano proveniente da fermentação entérica ou digestão de celulose).

Noves fora, a agropecuária representa 69% –mais de dois terços– de todas as emissões nacionais. É muita coisa para um setor que empregava menos de 17 milhões de pessoas em 2006 (último censo do setor) e, em 2015, respondeu por 21% do PIB brasileiro.

Só agricultura e pecuária tiveram produção em alta no ano passado. Indústria e serviços recuaram, atrofiando a demanda por energia e transporte, outras fontes importantes de gases do efeito estufa. Com isso, cresceu a participação relativa das mudanças no uso da terra.

Além do mais, o desmatamento cresceu também em termos absolutos. Segundo o Instituto Nacional de Pesquisas Espaciais (Inpe), na Amazônia –onde estão as maiores florestas do Brasil– o aumento foi de 24%. Partimos de 5.012 km2 em 2014 para 6.207 km2 de floresta perdida em 2015 (área correspondente a quatro municípios de São Paulo).

A pecuária bovina sozinha, com seus 215 milhões de cabeças, foi a causa do equivalente a 240 milhões de toneladas de CO2, em 2015, só com a fermentação entérica. Isso dá 12,6% das emissões brasileiras.

Na média a pecuária de corte no Brasil utiliza uma cabeça por hectare. Dobrando ou triplicando essa baixíssima produtividade, sobretudo por meio da recuperação de pastos, dá para reduzir a emissão de carbono a quase zero.

Criar bois “verdes” é a bola da vez. O Brasil é capaz de fazer isso, com regulação, tecnologia e crédito, assim como aumentou a produtividade no cultivo de grãos e derrubou a taxa de desmatamento de 2005 para cá (ainda que ela esteja subindo de novo).

‘Relatório sobre 1,5ºC trará dilema moral’ (Observatório do Clima)

Vice-presidente do IPCC afirma que próximo documento do grupo, em 2018, pode apresentar a escolha entre salvar países-ilhas e usar tecnologias incipientes de modificação climática

O próximo relatório do IPCC, o Painel Intergovernamental sobre Mudanças Climáticas, encomendado para 2018, pode apresentar à humanidade um dilema moral: devemos lançar mão em larga escala de tecnologias ainda não testadas e potencialmente perigosas de modificação do clima para evitar que o aquecimento global ultrapasse 1,5oC? Ou devemos ser prudentes e evitar essas tecnologias, colocando em risco a existência de pequenas nações insulares ameaçadas pelo aumento do nível do mar?

Quem expõe a dúvida é Thelma Krug, 65, diretora de Políticas de Combate ao Desmatamento do Ministério do Meio Ambiente e vice-presidente do painel do clima da ONU. Ela coordenou o comitê científico que definiu o escopo do relatório e produziu, no último dia 20, a estrutura de seus capítulos. A brasileira deverá ter papel-chave também na redação do relatório, cujos autores serão escolhidos a partir de novembro.

O documento em preparação é um dos relatórios mais aguardados da história do IPCC. É também único pelo fato de ser feito sob encomenda: a Convenção do Clima, na decisão do Acordo de Paris, em 2015, convidou o painel a produzir um relatório sobre impactos e trajetórias de emissão para limitar o aquecimento a 1,5oC, como forma de embasar cientificamente o objetivo mais ambicioso do acordo. A data de entrega do produto, 2018, coincidirá com a primeira reunião global para avaliar a ambição coletiva das medidas tomadas contra o aquecimento global após a assinatura do tratado.

Segundo Krug, uma das principais mensagens do relatório deverá ser a necessidade da adoção das chamadas emissões negativas, tecnologias que retirem gases-estufa da atmosfera, como o sequestro de carbono em usinas de bioenergia. O problema é que a maior parte dessas tecnologias ou não existe ainda ou nunca foi testada em grande escala. Algumas delas podem envolver modificação climática, a chamada geoengenharia, cujos efeitos colaterais – ainda especulativos, como as próprias tecnologias – podem ser quase tão ruins quanto o mal que elas se propõem a curar.

Outro risco, apontado pelo climatólogo britânico Kevin Anderson em comentário recente na revista Science, é essas tecnologias virarem uma espécie de desculpa para a humanidade não fazer o que realmente precisa para mitigar a mudança climática: parar de usar combustíveis fósseis e desmatar florestas.

“Ficamos numa situação muito desconfortável com várias tecnologias e metodologias que estão sendo propostas para emissões negativas”, disse Krug. “Agora, numa situação em que você não tem uma solução a não ser esta, aí vai ser uma decisão moral. Porque aí você vai ter dilema com as pequenas ilhas, você vai ter um problema de sobrevivência de alguns países.”

Ela disse esperar, por outro lado, que o relatório mostre que existem tecnologias maduras o suficiente para serem adotadas sem a necessidade de recorrer a esquemas mirabolantes.

“Acho que há espaço para começarmos a pensar em alternativas”, afirmou, lembrando que, quanto mais carbono cortarmos rápido, menos teremos necessidade dessas novas tecnologias.

Em entrevista ao OC, concedida dois dias depois de voltar do encontro do IPCC na Tailândia e minutos antes de embarcar para outra reunião, na Noruega, Thelma Krug falou sobre suas expectativas para o relatório e sobre os bastidores da negociação para fechar seu escopo – que opôs, para surpresa de ninguém, as nações insulares e a petroleira Arábia Saudita.

A sra. coordenou o comitê científico que definiu o índice temas que serão tratados no relatório do IPCC sobre os impactos de um aquecimento de 1,5oC. A entrega dessa coordenação a uma cientista de um País em desenvolvimento foi deliberada?

O IPCC decidiu fazer três relatórios especiais neste ciclo: um sobre 1,5oC, um sobre oceanos e um sobre terra. O presidente do IPCC [o coreano Hoesung Lee] achou por bem que se formasse um comitê científico e cada um dos vice-presidentes seria responsável por um relatório especial. Então ele me designou para o de 1,5oC, designou a Ko Barrett [EUA] para o de oceanos e o Youba [Sokona, Mali] para o de terra. O comitê foi formado para planejar o escopo: número de páginas, título, sugestões para cada capítulo. E morreu ali. Por causa da natureza do relatório, que será feito no contexto do desenvolvimento sustentável e da erradicação da pobreza, houve também a participação de duas pessoas da área de ciências sociais, de fora do IPCC. Agora, no começo de novembro, sai uma chamada para nomeações. Serão escolhidos autores principais, coordenadores de capítulos e revisores.

Quantas pessoas deverão produzir o relatório?

No máximo cem. Considerando que vai ter gente do birô também. Todo o birô do IPCC acaba envolvido, são 30 e poucas pessoas, que acabam aumentando o rol de participantes.

A sra. vai participar?

Participarei, e participarei bastante. Os EUA fizeram um pedido para que o presidente do comitê científico tivesse um papel de liderança no relatório. Isso porque, para esse relatório, eu sinto algo que eu não sentia tanto para os outros: se não fosse eu acho que seria difícil. Porque teve muita conversa política.

Quando um país levanta uma preocupação, eu tenho de entender mais a fundo onde a gente vai ter que ter flexibilidade para construir uma solução. Eu acho que foi muito positivo o fato de o pessoal me conhecer há muitos anos e de eu ter a liberdade de conversar com uma Arábia Saudita com muita tranquilidade, de chegar para as pequenas ilhas e conversar com muita tranquilidade e tentar resolver as preocupações.

Por exemplo, quando as pequenas ilhas entraram com a palavra loss and damage [perdas e danos], para os EUA isso tem uma conotação muito política, e inaceitável para eles no contexto científico. No fórum científico, tivemos de encontrar uma forma que deixasse as pequenas ilhas confortáveis sem mencionar a expressão loss and damage, mas captando com bastante propriedade aquilo que eles queriam dizer com isso. Acabou sendo uma negociação com os autores, com os cientistas e com o pessoal do birô do painel para chegar numa acomodação que deixasse a todos satisfeitos.

E qual era a preocupação dos sauditas?

Na reunião anterior, que definiu o escopo do trabalho, a gente saiu com seis capítulos bem equilibrados entre a parte de ciências naturais e a parte de ciência social. Por exemplo, essa parte de desenvolvimento sustentável, de erradicação da pobreza, o fortalecimento do esforço global para tratar mudança do clima. E os árabes não queriam perder esse equilíbrio. E as pequenas ilhas diziam que o convite da Convenção foi para fazer um relatório sobre impactos e trajetórias de emissões.

Mas as ilhas estavam certas, né?

De certa maneira, sim. O que não foi certo foi as ilhas terem aceitado na reunião de escopo que o convite fosse aceito pelo IPCC “no contexto de fortalecer o esforço global contra a ameaça da mudança climática, do desenvolvimento sustentável e da erradicação da pobreza”.

Eles abriram o escopo.

A culpa não foi de ninguém, eles abriram. A partir do instante em que eles abriram você não segura mais. Mas isso requereu também um jogo de cintura para tirar um pouco do peso do desenvolvimento sustentável e fortalecer o peso relativo dos capítulos de impactos e trajetórias de emissões.

Essa abertura do escopo enfraquece o relatório?

Não. Porque esse relatório vai ter 200 e poucas páginas, e cem delas são de impactos e trajetórias. Alguns países achavam que já havia muito desenvolvimento sustentável permeando os capítulos anteriores, então por que você ia ter um capítulo só para falar de desenvolvimento sustentável? Esse capítulo saiu de 40 páginas para 20 para justamente fortalecer a contribuição relativa de impactos e trajetórias do relatório. E foi uma briga, porque as pequenas ilhas queriam mais um capítulo de impactos e trajetórias. Esse relatório é mais para eles. Acima de qualquer coisa, os mais interessados nesse relatório são as pequenas ilhas.

Um dos desafios do IPCC com esse relatório é justamente encontrar literatura sobre 1,5oC, porque ela é pouca. Em parte porque 1,5oC era algo que as pessoas não imaginavam que seria possível atingir, certo?

Exato.

Porque o sistema climático tem uma inércia grande e as emissões do passado praticamente nos condenam a 1,5oC. Então qual é o ponto de um relatório sobre 1,5oC?

O ponto são as emissões negativas. O capítulo 4 do relatório dirá o que e como fazer. Faremos um levantamento das tecnologias existentes e emergentes e a agilidade com que essas tecnologias são desenvolvidas para estarem compatíveis em segurar o aumento da temperatura em 1.5oC. Vamos fazer uma revisão na literatura, mas eu não consigo te antecipar qualquer coisa com relação à forma como vamos conseguir ou não chegar a essas emissões negativas. Mas é necessário: sem elas eu acho que não dá mesmo.

A sra. acha, então, que as emissões negativas podem ser uma das grandes mensagens desse novo relatório…

Isso já ocorreu no AR5 [Quinto Relatório de Avaliação do IPCC, publicado em 2013 e 2014]. Porque não tinha jeito, porque você vai ter uma emissão residual. Só que no AR5 não tínhamos muita literatura disponível.

Quando se vai falar também da velocidade com a qual você consegue implementar essas coisas… o relatório também toca isso aí no contexto atual. Mas, no sufoco, essas coisas passam a ter outra velocidade, concorda? Se você demonstrar que a coisa está ficando feia, e está, eu acho que isso sinaliza para o mundo a necessidade de ter uma agilização maior no desenvolvimento e na implementação em larga escala de tecnologias que vão realmente levar a emissões negativas no final deste século.

Nós temos esse tempo todo?

Para 1,5oC é bem complicado. Em curto prazo, curtíssimo prazo, você precisa segurar as emissões, e aí internalizar o que você vai ter de emissões comprometidas. De tal forma que essas emissões comprometidas estariam sendo compensadas pelas tecnologias de emissões negativas. Esse é muito o meu pensamento. Vamos ver como isso acabará sendo refletido no relatório em si.

Haverá cenários específicos para 1,5oC rodados pelos modelos climáticos?

Tem alguma coisa nova, mas não tem muita coisa. Eles devem usar muita coisa que foi da base do AR5, até porque tem de ter comparação com 2oC. A não ser que rodem de novo para o 2oC. Precisamos entender o que existe de modelagem nova e, se existe, se ela está num nível de amadurecimento que permita que a gente singularize esses modelos para tratar essa questão nesse novo relatório.

Há cerca de 500 cenários para 2oC no AR5, e desses 450 envolvem emissões negativas em larga escala.

Para 1,5oC isso vai aumentar. Para 1,5oC vai ter de acelerar a redução de emissões e ao mesmo tempo aumentar a introdução de emissões negativas nesses modelos.

Há alguns dias o climatologista Kevin Anderson, diretor-adjunto do Tyndall Centre, no Reino Unido, publicou um comentário na revista Science dizendo que as emissões negativas eram um “risco moral por excelência”, por envolver competição por uso da terra, tecnologias não testadas e que vão ter de ser escaladas muito rápido. A sra. concorda?

Eu acho que essa questão de geoengenharia é uma das coisas que vão compor essa parte das emissões negativas. E aí talvez ele tenha razão: o mundo fica assustado com as coisas que vêm sendo propostas. Porque são coisas loucas, sem o amadurecimento necessário e sem a maneira adequada de se comunicar com o público. Mas vejo também que haverá tempo para um maior amadurecimento disso.

Mas concordo plenamente que ficamos numa situação muito desconfortável com várias tecnologias e metodologias que estão sendo propostas para emissões negativas. Mas esse é meu ponto de vista. Agora, numa situação em que você não tem uma solução a não ser esta, aí vai ser uma decisão moral. Porque aí você vai ter dilema com as pequenas ilhas, você vai ter um problema de sobrevivência de alguns países.

Deixe-me ver se entendi o seu ponto: a sra. acha que há um risco de essas tecnologias precisarem ser adotadas e escaladas sem todos os testes que demandariam num cenário ideal?

Fica difícil eu dizer a escala disso. Sem a gente saber o esforço que vai ser possível fazer para cortar emissões em vez de ficar pensando em compensar muito fortemente o residual, fica difícil dizer. Pode ser que já haja alguma tecnologia amadurecida antes de começar a pensar no que não está amadurecido. Acho que há espaço para começarmos a pensar em alternativas.

Agora, entre você falar: “Não vou chegar a 1,5oC porque isso vai exigir implementar tecnologias complicadas e que não estão amadurecidas” e isso ter uma implicação na vida das pequenas ilhas… isso também é uma preocupação moral. É um dilema. Eu tenho muita sensibilidade com a questão de geoengenharia hoje. E não sou só eu. O IPCC tem preocupação até em tratar esse tema. Mas é a questão do dilema. O que eu espero que o relatório faça é indicar o que precisa ser feito. Na medida em que você vai fazendo maiores reduções, você vai diminuindo a necessidade de emissões negativas. É essa análise de sensibilidade que os modelos vão fazer.

Observatório do Clima

Pope Francis’s edict on climate change has fallen on closed ears, study finds (The Guardian)

Hailed as a significant call for action, the pope’s encyclical has not had the anticipated rallying effect on public opinion, researchers have found

Pope Francis environmental activists

Knowledge of the pope’s encyclical, called Laudato Si’, did not appear to be linked to higher levels of concern regarding climate change, the study found. Photograph: Bullit Marquez/AP

 

The pope’s call for action on climate change has fallen on closed ears, research suggests.

A study by researchers in the US has found that right-leaning Catholics who had heard of the pope’s message were less concerned about climate change and its effects on the poor than those who had not, and had a dimmer view of the pope’s credibility.

“The pope and his papal letter failed to rally any broad support on climate change among the US Catholics and non-Catholics,” said Nan Li, first author of the research from Texas Tech University.

“The conservative Catholics who are cross-pressured by the inconsistency between the viewpoints of their political allies and their religious authority would tend to devalue the pope’s credibility on this issue in order to resolve the cognitive dissonance that they experience,” she added.

Issued in June 2015, Pope Francis’s encyclical, called Laudato Si’, warned of an “unprecedented destruction of ecosystems” if climate change continues unchecked and cited the scientific consensus that human activity is behind global warming.

Research conducted on the eve of the announcement found that 68% of Americans and 71% of US Catholics believe in climate change, with Democrats more likely than Republicans to believe in the issue, put it down to human causes and rate it as a serious problem.

The pontiff’s comments were seen by many as a significant call for action in the battle against climate change, focusing on the moral need to address the impact of humans on the planet. “Pope Francis is personally committed to this [climate] issue like no other pope before him. The encyclical will have a major impact,” said Christiana Figueres, the UN’s climate chief, at the time.

But new research published in the journal Climatic Change suggests that the encyclical might not have had the anticipated rallying effect on public opinion.

In a nationally representative survey of 2,755 individuals across the US, including more than 700 Catholics, researchers quizzed individuals on their attitudes towards climate change, its effects on the poor and papal credibility on the issue, together with questions on their political views and demographics such as age, sex and ethnicity. The team found that 22.5% of respondents said they had either heard of the pope’s message or his plans for the letter.

Overall, the team found that members of the public who identified as politically liberal, whether Catholic or not, were more likely to be concerned about climate change and perceive climate change as disproportionately affecting the poor than those who identified as conservative.

But knowledge of the papal letter did not overall appear to be linked to higher levels of concern regarding climate change.

Instead, the researchers found that the effects of awareness of the letter were small, although awareness was linked to more polarised views. For both Catholics and non-Catholics, conservatives who were aware of the letter were less likely to be concerned about climate change and its risk to the poor, compared to those who had not. The opposite trend was seen among liberals.

But, the authors say, among both conservative Catholics and non-Catholics who had heard of the encyclical, the pontiff’s perceived credibility decreased as political leaning veered to the right.

“For people who are most conservative, the Catholics who are aware of the encyclical give the pope 0.5 less than Catholics who aren’t aware of the encyclical on a one to five scale,” said Li.

The researchers say it is not clear if the increased polarisation is caused by hearing about the encyclical or, for example, if more politically engaged individuals were simply more likely to be aware of the papal letter.

“In sum, while [the] pope’s environmental call may have increased some individuals’ concerns about climate change, it backfired with conservative Catholics and non-Catholics, who not only resisted the message but defended their pre-existing beliefs by devaluing the pope’s credibility on climate change,” the authors write.

The results chime with the reaction to the papal stance by conservative media and a number of prominent individuals, including former presidential candidate Jeb Bush who rebuffed the pope’s message, saying: “I don’t get economic policy from my bishops or my cardinal or my pope.”

Neil Thorns, director of advocacy at the Catholic aid agency Cafod, said: “Laudato Si’ was a wake-up call on how we’re treating our planet and its people which unsurprisingly – although disappointingly – some climate deniers and those with vested interests were not willing to hear.”

Is herbalism another form of magic? (The Irish Times)

Patients less likely to be fobbed off these days with a vague promise they will get better

“Ireland has a rich ethno-medical knowledge and a history of traditional healing,” says Helen Sheridan, professor of pharmacology at Trinity College.

 GPs in Ireland used to give people a bottle of medicine. It was pink or it was blue, and if one didn’t work you tried the other one. Then, as now, most ailments got better with or without medication.

Many people in Ireland, until at least the mid 20th century, believed that their health and wellbeing, as well as that of their animals, were routinely threatened by envious and ill-intentioned neighbours, witches and fairies.

Biddy Early, the famous wise woman of Clare who is said to have died in 1874, reputedly had a magical power to cure illnesses and ailments.

Stories collected by Lady Gregory say Biddy Early had a magic bottle – in the same vein as a crystal ball – which she used to communicate with the fairies and to heal people. People came to her and told them her problems. She listened.

Along with another healer, Moll Anthony of Kildare – who was such an outcast the priest is said to refused her a Christian burial – both of these women gave out bottles containing some kind of unspecified liquid which people were told to drink. Exactly what was in these bottles, nobody is sure.

Today, the work of herbalists is subject to far more scrutiny, and their patients are less likely to be fobbed off with a vague promise they will get better. Now, they want to know what’s in the bottle.

“Ireland has a rich ethno-medical knowledge and a history of traditional healing, but it is not as culturally embedded as in other countries like France, Germany and Austria,” says Helen Sheridan, professor of pharmacology at Trinity College.

Dr Ronnie Moore, a lecturer in sociology and a lecturer in public health medicine and epidemiology at UCD, is a critic of the power of modern biomedicine and takes a different perspective.

“The herbs or minerals are all props: this is about magic and to belief systems,” he said.

“Magic?” I ask incredulously. “That’s a loaded word.”

“I like to use the word because that is exactly what is at play here,” he says. “Talk of placebo and nocebo if you want, but you’re buying into medical discourse. I introduce my students to placebo by calling it witchcraft, because it does the same thing and has the same functions.”

What’s so wrong about medical discourse? I ask. Hasn’t it greatly expanded the human lifespan, saved hundreds of millions of lives and led to massive improvements in our quality of life?

“Biomedicine tends to see the body as a machine, but to use that approach ignores psychosocial responses – of which there are many – to healing,” says Moore.

“Which has done more harm: herbs or biomedicine? [The disgraced obstetrician] Michael Neary needlessly removed 129 women’s wombs; the drug Thalidomide led to birth defects; and people have died on drug trials.”

When Moore started to write a book on the topic, he realised that his ideas would be controversial and decided that he needed to work with other academics.

But there’s increasing evidence that this “magic”, to use Moore’s term, might actually work, and it seems to be due to one of the most misunderstood concepts in modern healthcare: the placebo effect.

Helen Sheridan, associate professor at the School of Pharmacy and Pharmaceutical Sciences in Trinity College Dublin and an advisor to the subcommitte on herbal medicines with the Health Products Regulatory Authority, says placebo applies to people when they may be some element of the immune system brought into play, that is controlled by the mind.

In her recent book Cure, the author Jo Marchant lays bare a catalogue of studies showing that the placebo effect is deeply complex and so much more than just a curious trick of the mind where we believe we are better.

Marchant tells of Ted Kaputchuk, who trained and worked as a traditional Chinese herbalist and acupuncturist for many years before becoming professor of medicine and professor of global health and social medicine at Harvard Medical School. While practicing as a herbalist, he watched people visibly improve before they had even left his office, but he became uncomfortable with the idea that it was the herbs at work.

Placebo effect

In a more recent experiment, Kaputchuk teamed up with his colleague, Dr Anthony Lembo, a gastroenterologist. In a trial of 80 patients with long-term irritable bowel syndrome, half were given a placebo and told it was a placebo but it might help with self-healing, and they still did better than those who got no treatment. A study of 20 women with depression showed up similar results, while a study on migraine patients found that those who knew they were taking a placebo still felt 30 per cent less pain than those receiving no treatment.

Evidence is mounting for the placebo effect. The mere belief we are being looked after, with medicine and care from nurses or loved ones, can help to ease symptoms, boost the immune system and even prevent us from getting sick in the first place.

Studies conducted by Jon Levine, a neuroscientist at the University of California in Los Angeles, have shown that our brains can release endorphins – “the happy drug” but also a natural painkiller – which is part of the opiate family of chemicals that includes heroin and morphine – when we take placebo. Our mind doesn’t just influence our health, it is inextricably linked with it.

But Marchant also shows that the placebo effect – or call it “a belief in the infinite healing power of the universe” over modern medicine, or whatever else you want to – won’t cure many illnesses, including diabetes, asthma and cancer. Nor will it lower your blood pressure. So it’s not the panacea either.

Herbalists have tended to emphasise the importance of good digestion and gut health, exposing themselves to the claim that they’re similar to reflexologists who say that different parts of the hands or feet correspond to different parts of the body and that ailments can be cured by stimulating them.

Unlike reflexologists, however, there’s at least some solid evidence to support them.

Earlier this year, researchers at University College Cork found that the microbes in our gut influence how our nerves work.

We already know that bowel disorders, the immune system and obesity are influenced by the microbiome (the 1kg+ of bacteria and other organisms living in our gut) and now there is evidence that it can influence stress, anxiety and depression.

Professor John Cryan, head of the Department of Anatomy and Neuroscience at UCC, told this newspaper’s science editor, Dick Ahlstrom, that our brains have developed with signals from the microbes all the time.

Irving Kirsch, a lecturer in medicine at Harvard University, has produced a body of research showing that the effect of pharmaceutical drugs used for depression had little more effect than placebo.

Kirsch put in a freedom of information request to the US Food and Drug Administration on clinical trials of antidepressants.

The response suggested what pharmaceutical firms had not been telling us: with the exception of severe cases, most antidepressants (such as Prozac) performed little or no better than an inert sugar pill placebo.

His research has been criticised on the basis of flaws in those trials and the difficulties in measuring improvements in depression.

But between the placebo effect and the influence of the microbiome on our body and mind, could the herbalists be onto something?

Research in the National Folklore Collection shows many herbal remedies were accompanied by some kind of ritual: usually a chant, prayer, incantation, or sometimes a symbolic rite such as passing a sick person three times around a bush or animal.

People get better, says anthropologist Dan Moerman of the University of Michigan, because of the meaning that is attached to the treatment, whether that’s from a medical doctor or a traditional herbalist.

A range of researchers suggest that how we take our pills is important and they work better if there’s a little ritual around them: take them with a prayer or meditation, before bath time or get someone else to give them to you which will help you feel more cared for.

Bethann Roche is one of the founders of the Irish Medical Anthropology Network, and her own background is in anthropology and medicine.

She has spent most of her working life as a public health doctor in Ireland and many years examining the phenomenon of faith healing. She says anthropology has a contribution to make to health – and she emphasises the word health as distinct from medicine.

Regarding magic she say: “it is helpful to look at this in total context rather than blaming health professionals for being too narrow-minded or patients for being too superstitious”.

Isn’t placebo just a polite way of saying “it’s all in your head” I ask Dr Dilis Clare, a GP and practicing herbalist based in Galway.

She laughs heartily. “And isn’t that a wonderful place to be? Your healing is all in your head. That is fantastic.”

I grimace and prevaricate. Well, I say, the implication is that you were imagining it all along.

The smile falls from her face.

“So?” she asks. “If imagination is so powerful that it can stop coals burning feet, why would it not be strong enough to either give you IBS or be a part of it?”

If you have an abnormal microbiome it produces hormones which are like small protein molecules going straight to the brain, easily absorbed across the gut barrier and blood brain barrier.

“Which came first, the illness or the imagination, the chicken of the egg? Does it matter?”

Tsunami meteorológico? Entenda fenômeno que assustou Santa Catarina (UOL Notícias)

Fernando Cymbaluk*
Do UOL, em São Paulo 19/10/2016, 12h44 

VIDEO: http://tv.uol/15G3x

 

Uma onda que atingiu duas praias no sul de Santa Catarina arrastou carros e assustou os banhistas em um dia de calor e fortes ventos. O fenômeno foi provocado por uma grande tempestade no mar que impulsionou a onda “gigante”. O evento, que é raro e perigoso, tem nome: tsunami meteorológico.

Sim, podemos dizer que ocorrem tsunamis no Brasil. Comuns no leste e sudeste da Ásia, tsunamis são ondas que avançam na costa provocando danos (em japonês, “tsu” quer dizer porto, e “nami” significa onda).

Os tsunamis que já devastaram grandes áreas de países como o Japão são provocados por abalos sísmicos em um ponto do oceano. Eles são muito mais drásticos do que o caso brasileiro, com ondas bem maiores, que alcançam diversas praias após irradiarem do epicentro do tremor.

Já o tsunami meteorológico, como o nome diz, é provocado por eventos meteorológicos (da atmosfera) e ocorre mais localmente. É mais propício na primavera e no verão, época de tempestades.

Apesar de raro, há registros de sua ocorrência em locais como Cabo Frio (RJ) e Florianópolis (SC). Uma onda mais forte atingindo a praia é algo perigoso para banhistas e pessoas que morem nas costas. Além disso, tempestades no mar também trazem riscos devido aos ventos, raios e trovões.

Carros arrastados por onda em Balneário Rincão (SC). Ao fundo, nuvem de tempestade que provoca tsunami meteorógico

Como se forma

Um tsunami meteorológico ocorre quando um conjunto de cúmulo-nimbo, a nuvem que provoca as tempestades, se propaga em paralelo sobre o oceano. Nesse cenário, uma grande onda pode se formar caso as ondas do mar também estejam alinhadas a essas nuvens.

“Ocorre uma ressonância entre a onda de pressão [nuvem] e a onda do mar, que se aproxima da costa, cresce em amplitude e pode inundar a região costeira”, explica Renato Ramos da Silva, professor de física da atmosfera da UFSC (Universidade Federal de Santa Catarina).

Em uma tempestade, o ar sobe, formando uma zona de baixa pressão atmosférica. Tal mudança nas condições atmosféricas ocorre de forma brusca. Essa formação é chamada de linha de instabilidade. Seu rápido deslocamento acoplado às ondas do mar faz com que a onda ganhe tamanho.

O nome tsunami meteorológico, contudo, não é consenso entre os meteorologistas. Para José Carlos Figueiredo, meteorologista da Unesp, a grande onda que se verificou em SC é comum no Nordeste, sem contudo ser chamada de tsunami.

“Em algumas praias, há ondas que invadem a areia. O avanço pode ser provocado por tempestades naturais no mar”, diz Figueiredo. Ele lembra ainda que ciclones que ocorrem no Sul do Brasil provocam ressacas em praias de SP e RJ. Nesses episódios, fortes ondas também invadem a costa.

Para o meteorologista, outro fenômeno, conhecido como “downburst”, pode explicar para a grande onda que atingiu as praias catarinenses. Nesse tipo de evento, a chuva, “em vez de precipitar normal e pausadamente, precipita tudo de uma vez”, explica. A grande chuva poderia, assim, ter levado a formação de uma onda maior.

Difícil de prever

Tsunamis meteorológicos não são nada fáceis de serem previstos. Isso porque sua ocorrência é muito localizada, dependendo da formação de tempestades em um ponto do oceano e das condições do mar um lugar específico.

Segundo Silva, para prever o fenômeno a tempo de avisar a população seria necessária “uma boa previsão meteorológica junto de um modelo oceânico de previsão de ondas”.

* Com colaboração de Gabriel Francisco Ribeiro

Relembre tornado que atingiu SC

27.abr.2015 – A presidente Dilma Rousseff sobrevoa o município de Xanxerê, em Santa Catarina, e observa os estragos provocados pelo tornado que devastou a cidade do interior catarinense (situada a 551 km de Florianópolis), na última segunda-feira (20). De acordo com o último balanço da Defesa Civil, 4.275 pessoas estão desalojadas e há 539 desabrigadas em Xanxerê, por conta dos ventos que ultrapassaram a velocidade de 250 km/h  VEJA MAIS > Imagem: Roberto Stuckert Filho/PR

Uncertainty in Brazil, Vitality in Its Art (New York Times)

SÃO PAULO, Brazil — Biennial art exhibitions were founded in the 1890s at almost the same time as the Olympics, and they serve a similar purpose: to bring attention to the cities that host them and the nations that participate in them. But where the Olympics are still a rather contained affair, art biennials are proliferating like art fairs, becoming homogeneous and forgettable.

The 32nd São Paulo Biennial, through Dec. 11, consciously tries to buck this trend by positioning itself as locally sensitive and globally pertinent. And its timing is perfect. On the heels of the Rio Olympics and the impeachment of Brazil’s president Dilma Rousseff, the exhibition embraces, rather than denies, the problems of the region.

Organized by Jochen Volz, the show includes 81 artists from 33 countries. Its title, “Incerteza Viva” — translated as “Live Uncertainty” — refers to political instability, climate change, huge disparities of wealth, migration and other international problems, but also suggests art’s ability to thrive in the unknown and suggest visionary solutions.

This is particularly true on the first floor of the pavilion built by Oscar Niemeyer, which showcases Brazilian art with an international context: The artist Bené Fonteles has erected a “terreiro,” or ceremonial structure made of clay with a thatched roof, in an attempt to connect traditional Brazilian practices with contemporary art ones.

Objects used by an indigenous shaman sit alongside photos of Marcel Duchamp and John Lennon and Yoko Ono and a copy of João Guimarães-Rosa’s novel “Grande Sertão: Veredas” (1956) — in English, it was “The Devil to Pay in the Backlands”— a masterpiece of modern Brazilian literature. (Incorporating archaic dialects, it has been compared to Joyce’s “Finnegans Wake.”)

One of the most beautiful works in the Biennial is Jonathas de Andrade’s “The Fish” (2016), in which he filmed fishermen in the mangroves of northeast Brazil who still use traditional methods like nets and harpoons. For the video, Mr. de Andrade had the fishermen hold a caught fish to their chests, as if cradling a baby, until it takes its last breath.

At the São Paulo Biennial, the artist Bené Fonteles has erected a “terreiro,” or ceremonial structure made of clay with a thatched roof, in an attempt to connect traditional Brazilian practices with contemporary art ones.Credit Leo Eloy/Estúdio Garagem/Fundação Bienal de São Paulo. 

The video is a shockingly intimate depiction of life, death and the relationship of predator and prey — but also a reminder of our connection with other species — a fact that gets lost in the hyper-industrialized world.

The Brazilian director Leon Hirszman’s films from the 1970s documenting rural laborers singing as they work expand upon this idea. Mr. Hirszman describes the songs, which relieved boredom and shaped the rhythm and movements of the work, as “endangered” cultural products. You can’t sing, after all, over the sounds of industrial machines — or in your corporate cubicle.

Folk art and craft-based practices, often seen as an antidote to digital culture and social media, have been very popular on the biennial circuit in recent years. Folk-inspired art here includes Gilvan Samico’s prints influenced by mythology and carving in northeastern Brazil, and the visionary 1950s and ’60s work by Oyvind Fahlstrom, a Swedish multimedia artist who championed concrete poetry — a visual way of finding liberation through patterns of words and typography. The neo-hippie installation by Wlademir Dias-Pino, “Brazilian Visual Encyclopedia” (1970-2016), is a wild compendium of collages made with found materials.

The Biennial organizers stress that “Live Uncertainty” was intended to interact with the surrounding Ibirapuera Park, a habitat for indigenous tribes before the Europeans arrived. But even nature is a contested term these days, especially in Brazil, where the rain forest and grasslands were seen as obstacles to be conquered. Even Niemeyer, the architect whose futuristic buildings are scattered throughout the park, originally planned to pave over the area in an attempt to tame (if symbolically) Brazil’s unruly wilderness.

The exhibition includes installations by Pia Lindman and Ruth Ewan, which incorporate live plants, and Eduardo Navarro’s sculptural megaphone, which twists out the window to let visitors talk to a palm tree. Brazilian wood — often seen as “exotic” and hence harvested to the brink of extinction — earns a category of the Biennial unto itself.

Carolina Caycedo’s excellent video looks at how river development has affected communities in Brazil’s interior. In Rachel Rose’s video, an astronaut, David Wolf, describes how it’s harder to acclimate to Earth, with its overwhelming smells of grass and air, and gravity, than to outer space.

Jochen Volz, the curator of the São Paulo Biennial, which continues through Dec. 11.CreditNelson Almeida/Agence France-Presse — Getty Images 

 

What started in the ’90s as “identity art,” the idea that an individual’s identity consists of multiple factors, including gender, race, ethnicity, class and sexuality, has now blossomed into investigations of “the post-human,” which could mean a robot or an extraterrestrial.

Lyle Ashton Harris provides some grounding of these cultural shifts in his beautiful assemblage of photographs from this American artist’s journals intertwined with video. Much of his archive is from the late ’80s and ’90s, coinciding with landmark events such as the Black Popular Culture Conference in 1991, the truce between the Crips and the Bloods in 1992 and the Black Nations/Queer Nations conference in 1995.

Cecilia Bengolea and Jeremy Deller’s video highlights a competitive dancer in Jamaican dancehall music culture, echoing the importance of popular music and identity that reverberates throughout the show.

Another tic of biennials is their expansionist tendency: Tired of the white cube, artists and curators would rather inhabit shops, hospitals, schools. This seems like a democratic move, but it often functions in just the opposite way, expending a huge amount of viewers’ time and energy.

“Live Uncertainty” remains mostly — thankfully — in the pavilion. One outside work included William Pope.L’s roving performance with a small contingent of local dancers, which took place over three days. Performers moved through the city in costumes inspired by debutante festivals. They made a sharp contrast with demonstrators who were springing up, too, protesting the president’s impeachment.

Biennials are now given the impossible task of making sense not only of contemporary art but also contemporary history, politics, philosophy, economics, the environment and beyond — all the while remaining sensitive to local culture and cognizant of global developments.

With this tall order, “Live Uncertainty” does an admirable balancing act, arguing for the vitality of indigenous knowledge and experience, and of wisdom drawn from the people who inhabited this hemisphere long before Europeans arrived. Given the current climate of uncertainty in Brazil, this makes more than a little good sense.

Estudo mostra que indústria e psiquiatria criaram doenças e remédios que não curam (Carta Campinas)

By Carta Campinas / sexta-feira, 01 jul 2016 10:38 AM

robert whitaker fotografia de videoUma série de reportagens e livros publicados ao longo de 25 anos pelo jornalista Robert Whitaker (foto), especialista em questões de ciência e medicina, abriu uma crise na prática médica da psiquiatria e na solução mágica de curar os transtornos mentais com medicação.

O jornalista, do The Boston Globe, o mesmo jornal das série de reportagens que gerou o filme Spotlight, levantou dados alarmantes sobre a indústria farmacêutica das doenças mentais e sua incapacidade de curar.  “Em 1955, havia 355.000 pessoas em hospitais com um diagnóstico psiquiátrico nos Estados Unidos; em 1987, 1,25 milhão de pessoas no país recebia aposentadoria por invalidez por causa de alguma doença mental; em 2007, eram 4 milhões. No ano passado, 5 milhões.

Para ele, associações médicas e a indústria estão criando pacientes e mercado para seus remédios. “Se olharmos do ponto de vista comercial, o êxito desse setor é extraordinário. Temos pílulas para a felicidade, para a ansiedade, para que seu filho vá melhor na escola. O transtorno por déficit de atenção e hiperatividade é uma fantasia. É algo que não existia antes dos anos noventa”, diz.

Mas essa não é uma crítica simplificada ou econômica, mas bem mais fundamentada durante mais de duas décadas.  “O que estamos fazendo de errado?”, questionam os estudos de Whitaker que também levantou informações de que pacientes de esquizofrenia evoluem melhor em países em que são menos medicados. Outro dado importante foi o estudo da Escola de Medicina de Harvard, que em 1994, mostrou que a evolução de pacientes com esquizofrenia, que foram medicados, pioraram em relação aos anos 70, quando a medicação não era dominante.

A batalha de Whitaker contra os comprimidos como solução tem ganhado apoio. Importantes escolas de medicina o convidam a explicar seus trabalhos e o debate está aberto nos Estados Unidos. “A psiquiatria está entrando em um novo período de crise no país, porque a história que nos contaram desde os anos 80 caiu por terra. A história falsa nos Estados Unidos e em parte do mundo desenvolvido é que a causa da esquizofrenia e da depressão seria biológica. Foi dito que esses distúrbios se deviam a desequilíbrios químicos no cérebro: na esquizofrenia, por excesso de dopamina; na depressão, por falta de serotonina. E nos disseram que havia medicamentos que resolviam o problema, assim como a insulina faz pelos diabéticos”, afirmou em entrevista ao jornal El Pais.

Para ele, os psiquiatras sempre tiveram um complexo de inferioridade. “O restante dos médicos costumava enxergá-los como se não fossem médicos autênticos. Nos anos 70, quando faziam seus diagnósticos baseando-se em ideias freudianas, eram muito criticados. E como poderiam reconstruir sua imagem diante do público? Vestiram suas roupas brancas, o que lhes dava autoridade. E começaram a se chamar a si mesmos de psicofarmacólogos quando passaram a prescrever medicamentos. A imagem deles melhorou. O poder deles aumentou. Nos anos 80, começaram a fazer propaganda desse modelo, e nos noventa, a profissão já não prestava atenção a seus próprios estudos científicos. Eles acreditavam em sua própria propaganda”, relata.

Para Whitaker, houve uma união do útil ao agradável.  Uma história que melhorou a imagem pública da psiquiatria e ajudou a vender medicamentos. No final dos anos oitenta, o comércio desses fármacos movimentava  US$ 800 milhões por ano. Vinte anos mais tarde, já eram US$ 40 bilhões. “Se estudarmos a literatura científica, observamos que já estamos utilizando esses remédios há 50 anos. Em geral, o que eles fazem é aumentar a cronicidade desses transtornos”, afirma de forma categórica.

Essa mensagem, segundo o próprio Whitaker, pode ser perigosa, mas ele não traz conselhos médicos nos estudos (Anatomy of an Epidemic ), não é para casos individuais. “Bom, se a medicação funciona, fantástico. Há pessoas para quem isso funciona. Além disso, o cérebro se adapta aos comprimidos, o que significa que retirá-los pode ter efeitos graves. O que falamos no livro é sobre o resultado de maneira geral. É para que a sociedade se pergunte: nós organizamos o atendimento psiquiátrico em torno de uma história cientificamente correta ou não?”, diz.

Whitaker foi muito criticado, apesar de seu livro contar com muitas evidências e ter recebido prêmios. Mas a obra desafiou os critérios da Associação Norte-Americana de Psiquiatria (APA) e os interesses da indústria farmacêutica. Mas desde 2010 novos estudos confirmaram suas pesquisas. Entre eles, os trabalhos dos psiquiatras Martin Harrow e Lex Wunderink e o fato de a prestigiada revista científica British Journal of Psychiatry já assumir que é preciso repensar o uso de medicamentos. “Os comprimidos podem servir para esconder o mal-estar, para esconder a angústia. Mas não são curativos, não produzem um estado de felicidade”, diz. Veja texto completo. Ou Aqui

Veja vídeo com Robert Whitaker, pena que ainda não está legendado em português.