Arquivo da categoria: tecno-idolatria

>A dor da rejeição (Fapesp)

>
Divulgação Científica
29/3/2011

Estudo indica que o sentimento de rejeição após o fim de um relacionamento amoroso e a dor física ao se machucar ativam as mesmas regiões no cérebro (reprodução)

Agência FAPESP – A dor da rejeição não é apenas uma figura de expressão ou de linguagem, mas algo tão real como a dor física. Segundo uma nova pesquisa, experiências intensas de rejeição social ativam as mesmas áreas no cérebro que atuam na resposta a experiências sensoriais dolorosas.

“Os resultados dão novo sentido à ideia de que a rejeição social ‘machuca’”, disse Ethan Kross, da Universidade de Michigan, que coordenou a pesquisa.

Os resultados do estudo serão publicados esta semana no site e em breve na edição impressa da revista Proceedings of the National Academy of Sciences.

“A princípio, derramar uma xícara de café quente em você mesmo ou pensar em uma pessoa com quem experimentou recentemente um rompimento inesperado parece que provocam tipos diferentes de dor, mas nosso estudo mostra que são mais semelhantes do que se pensava”, disse Kross.

Estudos anteriores indicaram que as mesmas regiões no cérebro apoiam os sentimentos emocionalmente estressantes que acompanham a experiência tando da dor física como da rejeição social.

A nova pesquisa destaca que há uma interrelação neural entre esses dois tipos de experiências em áreas do cérebro, uma parte em comum que se torna ativa quando uma pessoa experimenta sensações dolorosas, físicas ou não. Kross e colegas identificaram essas regiões: o córtex somatossensorial e a ínsula dorsal posterior.

Participaram do estudo 40 voluntários que haviam passado por um fim inesperado de relacionamento amoroso nos últimos seis meses e que disseram se sentir rejeitados por causa do ocorrido.

Cada participante completou duas tarefas, uma relacionada à sensação de rejeição e outra com respostas à dor física, enquanto tinham seus cérebros examinados por ressonância magnética funcional.

“Verificamos que fortes sensações induzidas de rejeição social ativam as mesmas regiões cerebrais envolvidas com a sensação de dor física, áreas que são raramente ativadas em estudos de neuroimagens de emoções”, disse Kross.

O artigo Social rejection shares somatosensory representations with physical pain (doi/10.1073/pnas.1102693108), de Ethan Kross e outros, poderá ser lido em breve por assinantes da PNAS em http://www.pnas.org/cgi/doi/10.1073/pnas.1102693108.

>Can a group of scientists in California end the war on climate change? (Guardian)

>
The Berkeley Earth project say they are about to reveal the definitive truth about global warming

Ian Sample
guardian.co.uk
Sunday 27 February 2011 20.29 GMT

Richard Muller of the Berkeley Earth project is convinced his approach will lead to a better assessment of how much the world is warming. Photograph: Dan Tuffs for the Guardian

In 1964, Richard Muller, a 20-year-old graduate student with neat-cropped hair, walked into Sproul Hall at the University of California, Berkeley, and joined a mass protest of unprecedented scale. The activists, a few thousand strong, demanded that the university lift a ban on free speech and ease restrictions on academic freedom, while outside on the steps a young folk-singer called Joan Baez led supporters in a chorus of We Shall Overcome. The sit-in ended two days later when police stormed the building in the early hours and arrested hundreds of students. Muller was thrown into Oakland jail. The heavy-handedness sparked further unrest and, a month later, the university administration backed down. The protest was a pivotal moment for the civil liberties movement and marked Berkeley as a haven of free thinking and fierce independence.

Today, Muller is still on the Berkeley campus, probably the only member of the free speech movement arrested that night to end up with a faculty position there – as a professor of physics. His list of publications is testament to the free rein of tenure: he worked on the first light from the big bang, proposed a new theory of ice ages, and found evidence for an upturn in impact craters on the moon. His expertise is highly sought after. For more than 30 years, he was a member of the independent Jason group that advises the US government on defence; his college lecture series, Physics for Future Presidents was voted best class on campus, went stratospheric on YouTube and, in 2009, was turned into a bestseller.

For the past year, Muller has kept a low profile, working quietly on a new project with a team of academics hand-picked for their skills. They meet on campus regularly, to check progress, thrash out problems and hunt for oversights that might undermine their work. And for good reason. When Muller and his team go public with their findings in a few weeks, they will be muscling in on the ugliest and most hard-fought debate of modern times.

Muller calls his latest obsession the Berkeley Earth project. The aim is so simple that the complexity and magnitude of the undertaking is easy to miss. Starting from scratch, with new computer tools and more data than has ever been used, they will arrive at an independent assessment of global warming. The team will also make every piece of data it uses – 1.6bn data points – freely available on a website. It will post its workings alongside, including full information on how more than 100 years of data from thousands of instruments around the world are stitched together to give a historic record of the planet’s temperature.

Muller is fed up with the politicised row that all too often engulfs climate science. By laying all its data and workings out in the open, where they can be checked and challenged by anyone, the Berkeley team hopes to achieve something remarkable: a broader consensus on global warming. In no other field would Muller’s dream seem so ambitious, or perhaps, so naive.

“We are bringing the spirit of science back to a subject that has become too argumentative and too contentious,” Muller says, over a cup of tea. “We are an independent, non-political, non-partisan group. We will gather the data, do the analysis, present the results and make all of it available. There will be no spin, whatever we find.” Why does Muller feel compelled to shake up the world of climate change? “We are doing this because it is the most important project in the world today. Nothing else comes close,” he says.

Muller is moving into crowded territory with sharp elbows. There are already three heavyweight groups that could be considered the official keepers of the world’s climate data. Each publishes its own figures that feed into the UN’s Intergovernmental Panel on Climate Change. Nasa’s Goddard Institute for Space Studies in New York City produces a rolling estimate of the world’s warming. A separate assessment comes from another US agency, the National Oceanic and Atmospheric Administration (Noaa). The third group is based in the UK and led by the Met Office. They all take readings from instruments around the world to come up with a rolling record of the Earth’s mean surface temperature. The numbers differ because each group uses its own dataset and does its own analysis, but they show a similar trend. Since pre-industrial times, all point to a warming of around 0.75C.

You might think three groups was enough, but Muller rolls out a list of shortcomings, some real, some perceived, that he suspects might undermine public confidence in global warming records. For a start, he says, warming trends are not based on all the available temperature records. The data that is used is filtered and might not be as representative as it could be. He also cites a poor history of transparency in climate science, though others argue many climate records and the tools to analyse them have been public for years.

Then there is the fiasco of 2009 that saw roughly 1,000 emails from a server at the University of East Anglia’s Climatic Research Unit (CRU) find their way on to the internet. The fuss over the messages, inevitably dubbed Climategate, gave Muller’s nascent project added impetus. Climate sceptics had already attacked James Hansen, head of the Nasa group, for making political statements on climate change while maintaining his role as an objective scientist. The Climategate emails fuelled their protests. “With CRU’s credibility undergoing a severe test, it was all the more important to have a new team jump in, do the analysis fresh and address all of the legitimate issues raised by sceptics,” says Muller.

This latest point is where Muller faces his most delicate challenge. To concede that climate sceptics raise fair criticisms means acknowledging that scientists and government agencies have got things wrong, or at least could do better. But the debate around global warming is so highly charged that open discussion, which science requires, can be difficult to hold in public. At worst, criticising poor climate science can be taken as an attack on science itself, a knee-jerk reaction that has unhealthy consequences. “Scientists will jump to the defence of alarmists because they don’t recognise that the alarmists are exaggerating,” Muller says.

The Berkeley Earth project came together more than a year ago, when Muller rang David Brillinger, a statistics professor at Berkeley and the man Nasa called when it wanted someone to check its risk estimates of space debris smashing into the International Space Station. He wanted Brillinger to oversee every stage of the project. Brillinger accepted straight away. Since the first meeting he has advised the scientists on how best to analyse their data and what pitfalls to avoid. “You can think of statisticians as the keepers of the scientific method, ” Brillinger told me. “Can scientists and doctors reasonably draw the conclusions they are setting down? That’s what we’re here for.”

For the rest of the team, Muller says he picked scientists known for original thinking. One is Saul Perlmutter, the Berkeley physicist who found evidence that the universe is expanding at an ever faster rate, courtesy of mysterious “dark energy” that pushes against gravity. Another is Art Rosenfeld, the last student of the legendary Manhattan Project physicist Enrico Fermi, and something of a legend himself in energy research. Then there is Robert Jacobsen, a Berkeley physicist who is an expert on giant datasets; and Judith Curry, a climatologist at Georgia Institute of Technology, who has raised concerns over tribalism and hubris in climate science.

Robert Rohde, a young physicist who left Berkeley with a PhD last year, does most of the hard work. He has written software that trawls public databases, themselves the product of years of painstaking work, for global temperature records. These are compiled, de-duplicated and merged into one huge historical temperature record. The data, by all accounts, are a mess. There are 16 separate datasets in 14 different formats and they overlap, but not completely. Muller likens Rohde’s achievement to Hercules’s enormous task of cleaning the Augean stables.

The wealth of data Rohde has collected so far – and some dates back to the 1700s – makes for what Muller believes is the most complete historical record of land temperatures ever compiled. It will, of itself, Muller claims, be a priceless resource for anyone who wishes to study climate change. So far, Rohde has gathered records from 39,340 individual stations worldwide.

Publishing an extensive set of temperature records is the first goal of Muller’s project. The second is to turn this vast haul of data into an assessment on global warming. Here, the Berkeley team is going its own way again. The big three groups – Nasa, Noaa and the Met Office – work out global warming trends by placing an imaginary grid over the planet and averaging temperatures records in each square. So for a given month, all the records in England and Wales might be averaged out to give one number. Muller’s team will take temperature records from individual stations and weight them according to how reliable they are.

This is where the Berkeley group faces its toughest task by far and it will be judged on how well it deals with it. There are errors running through global warming data that arise from the simple fact that the global network of temperature stations was never designed or maintained to monitor climate change. The network grew in a piecemeal fashion, starting with temperature stations installed here and there, usually to record local weather.

Among the trickiest errors to deal with are so-called systematic biases, which skew temperature measurements in fiendishly complex ways. Stations get moved around, replaced with newer models, or swapped for instruments that record in celsius instead of fahrenheit. The times measurements are taken varies, from say 6am to 9pm. The accuracy of individual stations drift over time and even changes in the surroundings, such as growing trees, can shield a station more from wind and sun one year to the next. Each of these interferes with a station’s temperature measurements, perhaps making it read too cold, or too hot. And these errors combine and build up.

This is the real mess that will take a Herculean effort to clean up. The Berkeley Earth team is using algorithms that automatically correct for some of the errors, a strategy Muller favours because it doesn’t rely on human interference. When the team publishes its results, this is where the scrutiny will be most intense.

Despite the scale of the task, and the fact that world-class scientific organisations have been wrestling with it for decades, Muller is convinced his approach will lead to a better assessment of how much the world is warming. “I’ve told the team I don’t know if global warming is more or less than we hear, but I do believe we can get a more precise number, and we can do it in a way that will cool the arguments over climate change, if nothing else,” says Muller. “Science has its weaknesses and it doesn’t have a stranglehold on the truth, but it has a way of approaching technical issues that is a closer approximation of truth than any other method we have.”

He will find out soon enough if his hopes to forge a true consensus on climate change are misplaced. It might not be a good sign that one prominent climate sceptic contacted by the Guardian, Canadian economist Ross McKitrick, had never heard of the project. Another, Stephen McIntyre, whom Muller has defended on some issues, hasn’t followed the project either, but said “anything that [Muller] does will be well done”. Phil Jones at the University of East Anglia was unclear on the details of the Berkeley project and didn’t comment.

Elsewhere, Muller has qualified support from some of the biggest names in the business. At Nasa, Hansen welcomed the project, but warned against over-emphasising what he expects to be the minor differences between Berkeley’s global warming assessment and those from the other groups. “We have enough trouble communicating with the public already,” Hansen says. At the Met Office, Peter Stott, head of climate monitoring and attribution, was in favour of the project if it was open and peer-reviewed.

Peter Thorne, who left the Met Office’s Hadley Centre last year to join the Co-operative Institute for Climate and Satellites in North Carolina, is enthusiastic about the Berkeley project but raises an eyebrow at some of Muller’s claims. The Berkeley group will not be the first to put its data and tools online, he says. Teams at Nasa and Noaa have been doing this for many years. And while Muller may have more data, they add little real value, Thorne says. Most are records from stations installed from the 1950s onwards, and then only in a few regions, such as North America. “Do you really need 20 stations in one region to get a monthly temperature figure? The answer is no. Supersaturating your coverage doesn’t give you much more bang for your buck,” he says. They will, however, help researchers spot short-term regional variations in climate change, something that is likely to be valuable as climate change takes hold.

Despite his reservations, Thorne says climate science stands to benefit from Muller’s project. “We need groups like Berkeley stepping up to the plate and taking this challenge on, because it’s the only way we’re going to move forwards. I wish there were 10 other groups doing this,” he says.

For the time being, Muller’s project is organised under the auspices of Novim, a Santa Barbara-based non-profit organisation that uses science to find answers to the most pressing issues facing society and to publish them “without advocacy or agenda”. Funding has come from a variety of places, including the Fund for Innovative Climate and Energy Research (funded by Bill Gates), and the Department of Energy’s Lawrence Berkeley Lab. One donor has had some climate bloggers up in arms: the man behind the Charles G Koch Charitable Foundation owns, with his brother David, Koch Industries, a company Greenpeace called a “kingpin of climate science denial”. On this point, Muller says the project has taken money from right and left alike.

No one who spoke to the Guardian about the Berkeley Earth project believed it would shake the faith of the minority who have set their minds against global warming. “As new kids on the block, I think they will be given a favourable view by people, but I don’t think it will fundamentally change people’s minds,” says Thorne. Brillinger has reservations too. “There are people you are never going to change. They have their beliefs and they’re not going to back away from them.”

Waking across the Berkeley campus, Muller stops outside Sproul Hall, where he was arrested more than 40 years ago. Today, the adjoining plaza is a designated protest spot, where student activists gather to wave banners, set up tables and make speeches on any cause they choose. Does Muller think his latest project will make any difference? “Maybe we’ll find out that what the other groups do is absolutely right, but we’re doing this in a new way. If the only thing we do is allow a consensus to be reached as to what is going on with global warming, a true consensus, not one based on politics, then it will be an enormously valuable achievement.”

>Can Geoengineering Save the World from Global Warming? (Scientific American)

>
Ask the Experts | Energy & Sustainability
Scientific American

Is manipulating Earth’s environment to combat climate change a good idea–and where, exactly, did the idea come from?

By David Biello | February 25, 2011

STARFISH PRIME: This nighttime atmospheric nuclear weapons test generated an aurora (pictured) in Earth’s magnetic field, along with an electromagnetic pulse that blew out streetlights in Honolulu. It is seen as an early instance of geoengineering by science historian James Fleming. Image: Courtesy of US Govt. Defense Threat Reduction Agency

As efforts to combat climate change falter despite ever-rising concentrations of heat-trapping gases in the atmosphere, some scientists and other experts have begun to consider the possibility of using so-called geoengineering to fix the problem. Such “deliberate, large-scale manipulation of the planetary environment” as the Royal Society of London puts it, is fraught with peril, of course.

For example, one of the first scientists to predict global warming as a result of increasing concentrations of greenhouse gases in the atmosphere—Swedish chemist Svante Arrhenius—thought this might be a good way to ameliorate the winters of his native land and increase its growing season. Whereas that may come true for the human inhabitants of Scandinavia, polar plants and animals are suffering as sea ice dwindles and temperatures warm even faster than climatologists predicted.

Scientific American corresponded with science historian James Fleming of Colby College in Maine, author of Fixing the Sky: The Checkered History of Weather and Climate Control, about the history of geoengineering—ranging from filling the air with the artificial aftermath of a volcanic eruption to seeding the oceans with iron in order to promote plankton growth—and whether it might save humanity from the ill effects of climate change.

[An edited transcript of the interview follows.]

What is geoengineering in your view?
Geoengineering is planetary-scale intervention [in]—or tinkering with—planetary processes. Period.

As I write in my book, Fixing the Sky: The Checkered History of Weather and Climate Control, “the term ‘geoengineering’ remains largely undefined,” but is loosely, “the intentional large-scale manipulation of the global environment; planetary tinkering; a subset of terraforming or planetary engineering.”

As of June 2010 the term has a draft entry in the Oxford English Dictionary—the modification of the global environment or the climate in order to counter or ameliorate climate change. A 2009 report issued by the Royal Society of London defines geoengineering as “the deliberate large-scale manipulation of the planetary environment to counteract anthropogenic climate change.”

But there are significant problems with both definitions. First of all, an engineering practice defined by its scale (geo) need not be constrained by its stated purpose (environmental improvement), by any of its currently proposed techniques (stratospheric aerosols, space mirrors, etcetera) or by one of perhaps many stated goals (to ameliorate or counteract climate change). Nuclear engineers, for example, are capable of building both power plants and bombs; mechanical engineers can design components for both ambulances and tanks. So to constrain the essence of something by its stated purpose, techniques or goals is misleading at best.

Geo-scale engineering projects were conducted by both the U.S. and the Soviet Union between 1958 and 1962 that had nothing to do with countering or ameliorating climate change. Starting with the [U.S.’s] 1958 Argus A-bomb explosions in space and ending with the 1962 Starfish Prime H-bomb test, the militaries of both nations sought to modify the global environment for military purposes.

Project Argus was a top-secret military test aimed at detonating atomic bombs in space to generate an artificial radiation belt, disrupt the near-space environment, and possibly intercept enemy missiles. It, and the later tests conducted by both the U.S. and the Soviet Union, peaked with H-bomb detonations in space in 1962 that created an artificial [electro]magnetic [radiation] belt that persisted for 10 years. This is geoengineering.

This idea of detonating bombs in near-space was proposed in 1957 by Nicholas Christofilos, a physicist at Lawrence Berkeley National Laboratory. His hypothesis, which was pursued by the [U.S.] Department of Defense’s Advanced Research Projects Agency [subsequently known as DARPA] and tested in Project Argus and other nuclear shots, held that the debris from a nuclear explosion, mainly highly energetic electrons, would be contained within lines of force in Earth’s magnetic field and would travel almost instantly as a giant current spanning up to half a hemisphere. Thus, if a detonation occurred above a point in the South Atlantic, immense currents would flow along the magnetic lines to a point far to the north, such as Greenland, where they would severely disrupt radio communications. A shot in the Indian Ocean might, then, generate a huge electromagnetic pulse over Moscow. In addition to providing a planetary “energy ray,” Christofilos thought nuclear shots in space might also disrupt military communications, destroy satellites and the electronic guidance systems of enemy [intercontinental ballistic missiles], and possibly kill any military cosmonauts participating in an attack launched from space. He proposed thousands of them to make a space shield.

So nuclear explosions in space by the U.S. and the Soviet Union constituted some of the earliest attempts at geoengineering, or intentional human intervention in planetary-scale processes.

The neologism “geoengineer” refers to one who contrives, designs or invents at the largest planetary scale possible for either military or civilian purposes. Today, geoengineering, as an unpracticed art, may be considered “geoscientific speculation”. Geoengineering is a subset of terraformation, which also does not exist outside of the fantasies of some engineers.

I have recently written to the Oxford English Dictionary asking them to correct their draft definition.

Can geoengineering save the world from climate change?
In short, I think it may be infinitely more dangerous than climate change, largely due to the suspicion and social disruption it would trigger by changing humanity’s relationship to nature.

To take just one example from my book, on page 194: “Sarnoff Predicts Weather Control” read the headline on the front page of The New York Times on October 1, 1946. The previous evening, at his testimonial dinner at the Waldorf Astoria, RCA president Brig. Gen. David Sarnoff had speculated on worthy peaceful projects for the postwar era. Among them were “transformations of deserts into gardens through diversion of ocean currents,” a technique that could also be reversed in time of war to turn fertile lands into deserts, and ordering “rain or sunshine by pressing radio buttons,” an accomplishment that, Sarnoff declared, would require a “World Weather Bureau” in charge of global forecasting and control (much like the “Weather Distributing Administration” proposed in 1938). A commentator in The New Yorker intuited the problems with such control: “Who” in this civil service outfit, he asked, “would decide whether a day was to be sunny, rainy, overcast…or enriched by a stimulating blizzard?” It would be “some befuddled functionary,” probably bedeviled by special interests such as the raincoat and galoshes manufacturers, the beachwear and sunburn lotion industries, and resort owners and farmers. Or if a storm was to be diverted—”Detour it where? Out to sea, to hit some ship with no influence in Washington?”

How old is the idea of geoengineering? What other names has it had?
I can trace geoengineering’s direct modern legacy to 1945, and have prepared a table of such proposals and efforts for the [Government Accountability Office]. Nuclear weapons, digital computers and satellites seem to be the modern technologies of choice. Geoengineering has also been called terraformation and, more restrictively, climate engineering, climate intervention or climate modification. Many have proposed abandoning the term geoengineering in favor of solar radiation management and carbon (or carbon dioxide) capture and storage. Of course, the idea of control of nature is ancient—for example, Phaeton or Archimedes.

Phaeton, the son of Helios, received permission from his father [the Greek sun god] to drive the sun chariot, but failed to control it, putting the Earth in danger of burning up. He was killed by a thunderbolt from Zeus to prevent further disaster. Recently, a prominent meteorologist has written about climate control and urged us to “take up Phaeton’s reins,” which is not a good idea.

Archimedes is known as an engineer who said: “Give me a lever long enough and a place to stand, and I will move the Earth.” Some geoengineers think that this is now possible and that science and technology have given us an Archimedean set of levers with which to move the planet. But I ask: “Where will it roll if you tip it?”

How are weather control and climate control related?
Weather and climate are intimately related: Weather is the state of the atmosphere at a given place and time, while climate is the aggregate of weather conditions over time. A vast body of scientific literature addresses these interactions. In addition, historians are revisiting the ancient but elusive term klima, seeking to recover its multiple social connotations. Weather, climate and the climate of opinion matter in complex ways that invite—some might say require or demand—the attention of both scientists and historians. Yet some may wonder how weather and climate are interrelated rather than distinct. Both, for example, are at the center of the debate over greenhouse warming and hurricane intensity. A few may claim that rainmaking, for example, has nothing to do with climate engineering, but any intervention in the Earth’s radiation or heat budget (such as managing solar radiation) would affect the general circulation and thus the location of upper-level patterns, including the jet stream and storm tracks. Thus, the weather itself would be changed by such manipulation. Conversely, intervening in severe storms by changing their intensity or their tracks or modifying weather on a scale as large as a region, a continent or the Pacific Basin would obviously affect cloudiness, temperature and precipitation patterns with major consequences for monsoonal flows, and ultimately the general circulation. If repeated systematically, such interventions would influence the overall heat budget and the climate.

Both weather and climate control have long and checkered histories: My book explains [meteorologist] James Espy’s proposal in the 1830s to set fire to the crest of the Appalachian Mountains every Sunday evening to generate heated updrafts that would stimulate rain and clear the air for cities of the east coast. It also examines efforts to fire cannons at the clouds in the arid Southwest in the hope of generating rain by concussion.

In the 1920s airplanes loaded with electrified sand were piloted by military aviators who “attacked” the clouds in futile attempts to both make rain and clear fog. Many others have proposed either a world weather control agency or creating a global thermostat, either by burning vast quantities of fossil fuels if an ice age threatened or sucking the CO2 out of the air if the world overheated.

After 1945 three technologies—nuclear weapons, digital computers and satellites—dominated discussions about ultimate weather and climate control, but with very little acknowledgement that unintended consequences and social disruption may be more damaging than any presumed benefit.

What would be the ideal role for geoengineering in addressing climate change?
That it generates interest in and awareness of the impossibility of heavy-handed intervention in the climate system, since there could be no predictable outcome of such intervention, physically, politically or socially.

Why do scientists continue to pursue this then, after 200 or so years of failure?
Science fantasy is informed by science fiction and driven by hubris. One of the dictionary definitions of hubris cites Edward Teller (the godfather of modern geoengineering).

Teller’s hubris knew no bounds. He was the [self-proclaimed] father of the H-bomb and promoted all things atomic, even talking about using nuclear weapons to create canals and harbors. He was also an advocate of urban sprawl to survive nuclear attack, the Star Wars [missile] defense system, and a planetary sunscreen to reduce global warming. He wanted to control nature and improve it using technology.

Throughout history rainmakers and climate engineers have typically fallen into two categories: commercial charlatans using technical language and proprietary techniques to cash in on a gullible public, and sincere but deluded scientific practitioners exhibiting a modicum of chemical and physical knowledge, a bare minimum of atmospheric insight, and an abundance of hubris. We should base our decision-making not on what we think we can do “now” and in the near future. Rather, our knowledge is shaped by what we have and have not done in the past. Such are the grounds for making informed decisions and avoiding the pitfalls of rushing forward, claiming we know how to “fix the sky.”

>Robôs fazem ciência (FAPESP)

>
Especiais

25/2/2011
Por Mônica Pileggi

Sistemas automatizados desenvolvidos por pesquisadores do Reino Unido podem ser peça-chave para a criação de fármacos mais eficazes a custo reduzido (divulgação).

Agência FAPESP – Criar máquinas capazes de realizar novas descobertas é algo que está saindo do campo da ficção científica. Um dos maiores exemplos na atualidade está no Reino Unido, onde a equipe do professor Ross King, do Departamento de Ciências da Computação da Universidade de Gales, trabalha há mais de uma década no desenvolvimento de Adam e Eve (Adão e Eva).

O objetivo da dupla automatizada é diminuir o tempo dos ensaios em laboratório para o desenvolvimento de novos fármacos. Além disso, Eve, o modelo de segunda geração, permite encontrar drogas cujos compostos químicos são mais efetivos no tratamento de uma doença e de forma mais rápida e econômica.

Tal façanha é possível graças à capacidade que o robô tem de selecionar compostos, dentre os milhares armazenados em sua biblioteca, que surtirão mais efeito durante os ensaios no combate a determinada doença. E Eve consegue testar mais de um ao mesmo tempo. “Depois, o pesquisador humano analisa os resultados obtidos”, disse King à Agência FAPESP.

“Mas mesmo com todos esses recursos é importante destacar que Eve ainda não possui inteligência artificial”, completou o professor, que participou nesta quinta-feira (24/2) do Workshop on Synthetic Biology and Robotics, em São Paulo. O evento, organizado pela FAPESP e pelo Consulado Britânico em São Paulo, integra a Parceria Brasil–Reino Unido em Ciência e Inovação.

“Hoje, o robô testa os compostos químicos disponíveis na biblioteca, mas não identifica padrões. A partir da próxima semana trabalharemos para que entenda o trabalho que executa”, revelou.

Nessa fase final de desenvolvimento, a meta é tornar Eve capaz o suficiente para identificar novos padrões – combinações de moléculas – que possam vir a ajudar no desenvolvimento de drogas mais eficazes para, em seguida, testá-las.

Teste em larga escala

Embora incompleto, o robô cientista já mostrou do que é capaz. Ao realizar experimentos em larga escala, Eve reduziu de forma expressiva o escopo de fármacos que a engenheira agrônoma Elizabeth Bilsland, da Universidade de Cambridge, precisaria testar em sua pesquisa com os parasitas Schistosoma, Plasmodium vivax e P. falciparum, e Trypanosoma cruzi e T. brucei, além da Leishmania.

“Cada parasita se desenvolve em diferentes condições. E, para criar novos fármacos, é preciso testar novos métodos. Eve testou mais de 15 mil compostos químicos de sua biblioteca para encontrar aqueles capazes de inibir as enzimas dos parasitas, sem danificar os genes humanos”, disse Elizabeth.

De acordo com a pesquisadora, com base nos ensaios para as doenças causadas pelos parasitas listados, o robô teceu uma rede de hipóteses até chegar a um fármaco com potencial para tratar de todas ao mesmo tempo, exceto a leishmaniose. “É o que podemos chamar de droga miraculosa”, ressaltou.

Mas ainda falta muito para a droga chegar ao mercado, uma vez que a hipótese criada pelo robô precisa ser validada. Essa fase do trabalho contará com a colaboração de cientistas da Unicamp e da Unesp.

Por conta do período que uma nova droga leva para ser lançada, Elizabeth destacou as pesquisas que vem realizando com remédios já disponíveis e aprovados pela Food and Drug Administration do governo dos Estados Unidos.

“Algumas delas são aprovadas e indicadas para determinadas doenças, mas também têm potencial para o tratamento de outras. Testamos essas drogas no sistema que criamos e encontramos cerca de cinco que atacam também as enzimas de Trypanosoma e outras que atingem as enzimas do Plasmodium vivax”, explicou.

A finalidade desse estudo é reaproveitar medicamentos já existentes e aprovados para uso humano que sejam eficientes também em outras doenças.

“Durante uma visita a um hospital em Campinas, observei um caso em que um medicamento prescrito para problemas do coração foi utilizado para o tratamento da doença de Chagas, com bons resultados”, disse Elizabeth.

>Clima sob o olhar do Brasil (Fapesp)

>

Especiais

1/2/2011

Por Elton Alisson


Agência FAPESP – Nos modelos climáticos globais divulgados no mais recente relatório do Painel Intergovernamental sobre Mudança Climática (IPCC), divulgado em 2007, o Pantanal e o Cerrado são retratados como se fossem savanas africanas.

Já fenômenos como as queimadas, que podem intensificar o efeito estufa e mudar as características de chuvas e nuvens de uma determinada região, por exemplo, não são caracterizados por não serem considerados relevantes para os países que elaboraram os modelos numéricos utilizados.

Para dispor de um modelo capaz de gerar cenários de mudanças climáticas com perspectiva brasileira, pesquisadores de diversas instituições, integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa em Mudanças Climáticas Globais (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia sobre Mudanças Climáticas (INCT-MC), estão desenvolvendo o Modelo Brasileiro do Sistema Climático Global (MBSCG).

Com conclusão estimada para 2013, o MSBCG deverá permitir aos climatologistas brasileiros realizar estudos sobre mudanças climáticas com base em um modelo que represente processos importantes para o Brasil e que são considerados secundários nos modelos climáticos estrangeiros.

“Boa parte desses modelos internacionais não atende às nossas necessidades. Temos muitos problemas associados ao clima em virtude de ações antropogênicas, como as queimadas e o desmatamento, que não são retratados e que agora serão incluídos no modelo que estamos desenvolvendo no Brasil”, disse Gilvan Sampaio de Oliveira, pesquisador do Centro de Ciência do Sistema Terrestre (CCST) do Instituto Nacional de Pesquisas Espaciais (Inpe), um dos pesquisadores que coordena a construção do MBSCG.

Segundo ele, o modelo brasileiro incorporará processos e interações hidrológicas, biológicas e físico-químicas relevantes do sistema climático regional e global. Dessa forma, possibilitará gerar cenários, com resolução de 10 a 50 quilômetros, de mudanças ambientais regionais e globais que poderão ocorrer nas próximas décadas para prever seus possíveis impactos em setores como agricultura e energia.

“Com esse modelo, teremos capacidade e autonomia para gerar cenários futuros confiáveis, de modo que o país possa se preparar para enfrentar os fenômenos climáticos extremos”, disse Sampaio à Agência FAPESP.

A primeira versão do modelo brasileiro com indicações do que pode ocorrer com o clima no Brasil nos próximos 50 anos deverá ficar pronta até o fim de 2011.

Para isso, os pesquisadores estão instalando e começarão a rodar em fevereiro no supercomputador Tupã, instalado no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), uma versão preliminar do modelo, com módulos computacionais que analisam os fenômenos climáticos que ocorrem na atmosfera, no oceano e na superfície terrestre.

Os módulos computacionais serão integrados gradualmente a outros componentes do modelo, que avaliarão os impactos da vegetação, do ciclo de carbono terrestre, do gelo marinho e da química atmosférica no clima. Em contrapartida, um outro componente apontará as influências das mudanças climáticas em cultivares agrícolas como a cana-de-açúcar, soja, milho e café.

“No futuro, poderemos tentar estimar a produtividade da cana-de-açúcar e da soja, por exemplo, frente ao aumento da concentração de gases de efeito estufa na atmosfera”, disse Sampaio.


Classe IPCC

Segundo o cientista, como a versão final do MSBCG só ficará pronta em 2013, o modelo climático brasileiro não será utilizado no próximo relatório que o IPCC divulgará em 2014, o AR-5. Mas o modelo que será utilizado pelo Painel Intergovernamental para realizar as simulações do AR5, o HadGEM2, contará com participação brasileira.

Por meio de uma cooperação entre o Hadley Center, no Reino Unido, e o Inpe, os pesquisadores brasileiros introduziram no modelo internacional módulos computacionais que avaliarão o impacto das plumas de fumaça produzidas por queimadas e do fogo florestal sobre o clima global, que até então não eram levados em conta nas projeções climáticas.

Com isso, o modelo passou a ser chamado HadGEM2-ES/Inpe. “Faremos simulações considerando esses componentes que introduzimos nesse modelo”, contou Sampaio.

Em 2013, quando será concluída a versão final do Modelo Brasileiro do Sistema Climático Global, o sistema ganhará um módulo computacional de uso da terra e outro metereológico, com alta resolução espacial. No mesmo ano, também serão realizadas as primeiras simulações de modelos regionais de alta resolução para a elaboração de um modelo climático para América do Sul com resolução de 1 a 10 km.

“Até hoje, levávamos meses e até anos para gerar cenários regionais. Com o novo sistema de supercomputação os esforços em modelagem climática regional ganharão outra escala”, afirmou Sampaio.

Leia reportagem publicada pela revista Pesquisa FAPESP sobre o modelo climático brasileiro. 

>Coreia do Sul: robô substitui professor em sala de aula

>
Terra – 28 de dezembro de 2010 • 12h22

Batizado de “Engkey”, o robô sul-coreano custa cerca de R$ 12 mil. Foto: AFP.

Cerca de 30 robôs-professores foram introduzidos em salas de aula de 20 escolas primárias da Coreia do Sul. As máquinas, criadas pelo Instituto de Ciência e Tecnologia do país, tem a intenção de ensinar a língua inglesa para alunos sul-coreanos que não têm contato com o idioma.

Os robôs, chamados “Engkey”, são controlados ao vivo por professores de inglês a partir das Filipinas. Eles têm pouco mais de 1 m de altura e possuem uma tela que capta e mostra o rosto do professor que está, à distância, dando a aula. Os “Engkey” ainda conseguem ler os livros físicos dos alunos e dançar movimentos a cabeça e os braços.

Segundo Sagong Seong-Dae, cientista do Instituto, a questão financeira contou para a substituição do humano pela máquina. “Com boa formação e experiência, os professores filipinos são uma mão-de-obra mais barata do que os daqui”, contou ao site britânico Daily Mail.

Kim Mi-Young, uma oficial do departamento de educação do país, afirmou também ao site que a experiência foi bem-vinda. “As crianças parecem amar os robôs porque eles são bonitinhos. Mas alguns adultos também mostraram um interesse especial afirmando que se sentem menos nervosos de convesarem com máquinas do que com pessoas de verdade”, contou.

Mi-Young fez questão de destacar, no entanto, que os robôs não vão substituir completamente a atuação dos professores humanos, apesar do investimento governamental de cerca de US$ 1,5 milhão, algo em torno de R$ 2,5 milhões. Cada robô tem o preço de aproximadamente R$ 12 mil.

>Superprevisão do tempo? Pergunte ao Tupã (Agência FAPESP)

>
Especiais

Por Elton Alisson, de Cachoeira Paulista (SP)
29/12/2010

Um dos maiores supercomputadores do mundo para previsão de tempo e de mudanças climáticas é inaugurado em Cachoeira Paulista. Equipamento permitirá fazer previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade (foto: Eduardo Cesar/Ag.FAPESP)

Agência FAPESP – O Instituto Nacional de Pesquisas Espaciais (Inpe) inaugurou terça-feira (28/12), no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), o supercomputador Tupã.

Com o nome do deus do trovão na mitologia tupi-guarani, o sistema computacional é o terceiro maior do mundo em previsão operacional de tempo e clima sazonal e o oitavo em previsão de mudanças climáticas.

Não apenas isso. De acordo com a mais recente relação do Top 500 da Supercomputação, que lista os sistemas mais rápidos do mundo, divulgada em novembro, o Tupã ocupa a 29ª posição. Essa é a mais alta colocação já alcançada por uma máquina instalada no Brasil.

Ao custo de R$ 50 milhões, dos quais R$ 15 milhões foram financiados pela FAPESP e R$ 35 milhões pelo Ministério da Ciência e Tecnologia (MCT), por meio da Financiadora de Estudos e Projetos (Finep), o sistema foi fabricado pela Cray, em Wisconsin, nos Estados Unidos.

O Tupã é capaz de realizar 205 trilhões de operações de cálculos por segundo e processar em 1 minuto um conjunto de dados que um computador convencional demoraria mais de uma semana.

Com vida útil de seis anos, o equipamento permitirá ao Inpe gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 quilômetros na América do Sul e 20 quilômetros para todo o globo.

A máquina também possibilitará melhorar as previsões ambientais e da qualidade do ar, gerando prognósticos de maior resolução – de 15 quilômetros – com até seis dias de antecedência, e prever com antecedência de pelo menos dois dias eventos climáticos extremos, como as chuvas intensas que abateram as cidades de Angra dos Reis (RJ) e São Luiz do Paraitinga (SP) no início de 2010.

“Com o novo computador, conseguiremos rodar modelos meteorológicos mais sofisticados, que possibilitarão melhorar o nível de detalhamento das previsões climáticas no país”, disse Marcelo Enrique Seluchi, chefe de supercomputação do Inpe e coodernador substituto do CPTEC, à Agência FAPESP.

Segundo o pesquisador, no início de janeiro de 2011 começarão a ser rodados no supercomputador, em nível de teste, os primeiros modelos meteorológicos para previsão de tempo e de mudanças climáticas. E até o fim de 2011 será possível ter os primeiros resultados sobre os impactos das mudanças climáticas no Brasil com dados que não são levados em conta nos modelos internacionais.

Modelo climático brasileiro

De acordo com Gilberto Câmara, diretor do Inpe, o supercomputador foi o primeiro equipamento comprado pela instituição de pesquisa que dispensou a necessidade de financiamento estrangeiro.

“Todos os outros três supercomputadores do Inpe contaram com financiamento estrangeiro, que acaba custando mais caro para o Brasil. O financiamento da FAPESP e do MCT nos permitiu realizar esse investimento sem termos que contar com recursos estrangeiros”, afirmou.

O supercomputador será utilizado, além do Inpe, por outros grupos de pesquisa, instituições e universidades integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa sobre Mudanças Climática (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia (INCT) para Mudanças Climáticas.

Em seu discurso na inauguração, Carlos Henrique de Brito Cruz, diretor científico da FAPESP, destacou a importância do supercomputador para o avanço das pesquisas realizadas no âmbito do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, que foi concebido para durar pelo menos dez anos, e para a criação do Modelo Brasileiro do Sistema Climático Global (MBSCG).

O modelo incorporará os elementos do sistema terrestre (atmosfera, oceanos, criosfera, vegetação e ciclos biogeoquímicos, entre outros), suas interações e de que modo está sendo perturbado por ações antropogênicas, como, por exemplo, emissões de gases de efeito estudo, mudanças na vegetação e urbanização.

A construção do novo modelo envolve um grande número de pesquisadores do Brasil e do exterior, provenientes de diversas instituições. E se constitui em um projeto interdisciplinar de desenvolvimento de modelagem climática sem precedentes em países em desenvolvimento.

“Não tínhamos, no Brasil, a capacidade de criar um modelo climático global do ponto de vista brasileiro. Hoje, a FAPESP está financiando um grande programa de pesquisa para o desenvolvimento de um modelo climático brasileiro”, disse Brito Cruz.

Na avaliação dele, o supercomputador representará um avanço na pesquisa brasileira em previsão de tempo e mudanças climáticas globais, que são duas questões estratégicas para o país.

Impossibilitado de participar do evento, o ministro da Ciência e Tecnologia, Sergio Rezende, gravou um vídeo, exibido na solenidade de inauguração do supercomputador, em que declarou o orgulho da instalação no Brasil do maior supercomputador do hemisfério Sul.

“Com esse supercomputador, o Brasil dá mais um passo para cumprir as metas de monitoramento do clima assumidas internacionalmente e entra no seleto grupo de países capazes de gerar cenários climáticos futuros”, disse.

>Craig Venter e a célula artifical

>
O único DNA presente é sintético – entrevista com Craig Venter

Steve Connor, do Independent
O Globo, 21/5/2010 – reproduzido no Jornal da Ciência (JC e-mail 4015)

Para cientista, mau uso da tecnologia pode ser enfrentado com uma nova legislação

A criação, pela primeira vez na História, de uma forma de vida artificial, pelo grupo do geneticista Craig Venter – o mesmo responsável pela apresentação do genoma humano em 2001 – abre caminho para a compreensão das origens da vida, e inaugura uma nova era da biologia sintética. O grupo criou uma célula sintética, a partir de um DNA produzido de forma artificial e transplantado para uma bactéria.

Nesta entrevista concedida ao jornal britânico “Independent”, Venter deixa claro que o seu feito foi, de fato, criar a primeira forma de vida artificial. “O único DNA presente (na célula criada) é o sintético”, afirma.

O próximo passo dessa linha de pesquisa, de acordo com ele, “é entender a natureza básica da vida, quais são os conjuntos de genes mínimos necessários para ela. Ainda não sabemos todas as funções de genes presentes em uma célula. Trata-se, portanto, de um enigma fundamental.”

– Qual é novidade de seu estudo?

Esta foi a primeira vez que alguém construiu um cromossomo inteiro, de 1,08 milhão de pares de bases, transplantou-o para uma célula receptora e o fez assumir o controle desta célula, convertendo-a em uma nova espécie de bactéria.

Estabelecemos, portanto, um novo paradigma – temos uma célula totalmente controlada por um cromossomo artificial.

– É, então, uma vida artificial?

Nós a definimos assim por ela ser totalmente determinada por um cromossomo artificial. Começamos com uma célula viva, mas o cromossomo que construímos a transformou completamente. Não há qualquer elemento da célula receptora. Nossa célula ar tificial passou por um bilhão de réplicas. O único DNA presente ali é o artificial. Todas as proteínas foram codificadas por ele. Isso é importante ressaltar: não produzimos as proteínas nem as células artificialmente. Tudo foi ditado pelo cromossomo.

– Podemos dizer que uma vida foi criada do zero?

Não considero que tenha acontecido isso. Criamos uma nova vida a partir de outra já existente, usando um DNA artificial que reprogramou as células.

– Por que a bactéria Mycoplasma mycoides foi escolhida para a pesquisa?

Este é o primeiro passo, a forma escolhida para estabelecer um novo paradigma. Faz sentido começar com algo que, sabemos, é biologicamente ativo. Provamos, assim, que nosso estudo poderia ser feito, o que não é pouca coisa. Mudamos para real o estágio de algo que, dois meses atrás, era considerado hipotético.

– Essa nova forma de vida é um organismo de vida livre e capaz de replicar?

Sim, se considerarmos que o conceito de “vida livre” também pode ser atribuído ao que cresce em um laboratório. Fora dele, o experimento não sobreviveria. No laboratório, se dermos os nutrientes corretos, este organismo pode se replicar sem qualquer intervenção.

– Qual foi a maior dificuldade enfrentada por sua equipe?

Em um determinado momento, havia apenas um erro em um milhão de pares de bases do cromossomo (e não conseguíamos prosseguir). Chegamos a interpretar este episódio como um sinal de que seria impossível conseguir dali uma vida. Foi um momento difícil, porque contrariava algo que eu havia previsto três anos atrás. Enormes obstáculos precisavam ser superados. Tivemos de aprender e inventar novos sistemas para tornar tudo isso possível, o que nunca é algo trivial.

– E agora, o que o senhor espera atingir?

Queremos entender a natureza básica da vida, quais são os conjuntos de genes mínimos necessários para ela. Ainda não sabemos todas as funções de genes presentes em uma célula. Não sabemos o que fazem e como trabalham. Há 15 anos tentamos achar estas respostas, mesmo em células simples. Trata-se, portanto, de um enigma fundamental para chegarmos à próxima etapa. Com o passar dos anos, o uso de novas tecnologias torna tudo mais evidente para nós. É só lembrar dos anos 40 e 50, quando a revolução dos eletrônicos ainda não havia decolado.

Os cientistas que se dedicavam à construção de circuitos àquela época tinham muito pouca noção sobre o que viriam a ser os celulares e os computadores. É muito difícil imaginar todas as aplicações de uma tecnologia.

Considera-se que a população mundial, hoje de 6,8 bilhões de pessoas, passará para 9 bilhões em três ou quatro décadas. E atualmente nós sequer conseguimos prover comida, energia, água potável e remédios para todos. Então, precisamos urgentemente de novas técnicas para atingir esse objetivo, e isso deve ser feito sem destruir o planeta.

– O senhor está brincando de Deus?

Esta pergunta tornou-se quase um clichê. É lembrada toda vez que há uma grande descoberta científica, particularmente na biologia. Ciência é a compreensão da vida em seus níveis mais básicos, e a tentativa de usar esse conhecimento para a melhoria da Humanidade.

Acredito, portanto, que somos parte do progresso do conhecimento científico, e que contribuímos para o entendimento do mundo ao nosso redor.

– O senhor está preocupado com o mau uso das técnicas aplicadas em sua pesquisa?

Tenho que estar. É uma tecnologia poderosa. Propus novas regulações para esta área, porque sinto que as atuais não vão longe como seria necessário. Por sermos os inventores, queremos que seja feito tudo o possível para proteger nossa técnica contra o mau uso. Sugeri, por exemplo, uma legislação para as empresas que sintetizam DNA, para que não façam o genoma de DNAs que sejam potencialmente perigosos.

Queremos que essa descoberta seja posta em um contexto que as pessoas saibam o que ela significa. Creio que esta tenha sido a primeira vez, na ciência, em que uma extensa análise bioética foi realizada antes de os experimentos estarem concluídos.

Esta é parte de um processo em andamento que estamos conduzindo, a nossa tentativa de ter certeza do que esses procedimentos significarão no futuro.

>The root of the climate email fiasco (The Guardian)

>
Learning forced into silos of humanities and science has created closed worlds of specialists who just don’t understand each other

George Monbiot
The Guardian, Tuesday 6 April 2010

The MPs were kind to Professor Phil Jones. During its hearings, the Commons science and technology committee didn’t even ask the man at the centre of the hacked climate emails crisis about the central charge he faces: that he urged other scientists to delete material subject to a freedom of information request. Last week the committee published its report, and blamed his university for the “culture of non-disclosure” over which Jones presided.

Perhaps the MPs were swayed by the disastrous performance of his boss at the hearings. Edward Acton, the vice-chancellor of the University of East Anglia, came across as flamboyant, slippery and insincere. Jones, on the other hand, seemed both deathly dull and painfully honest. How could this decent, nerdy man have messed up so badly?

None of it made sense: the intolerant dismissal of requests for information, the utter failure to engage when the hacked emails were made public, the refusal by other scientists to accept that anything was wrong. Then I read an article by the computer scientist Steve Easterbrook, and for the first time the light began to dawn.

Easterbrook, seeking to defend Jones and his colleagues, describes a closed culture in which the rest of the world is a tedious and incomprehensible distraction. “Scientists normally only interact with other scientists. We live rather sheltered lives … to a scientist, anyone stupid enough to try to get scientific data through repeated FoI requests quite clearly deserves our utter contempt. Jones was merely expressing (in private) a sentiment that most scientists would share – and extreme frustration with people who clearly don’t get it.”

When I read that, I was struck by the gulf between our worlds. To those of us who clamoured for freedom of information laws in Britain, FoI requests are almost sacred. The passing of these laws was a rare democratic victory; they’re among the few means we possess of ensuring that politicians and public servants are answerable to the public. What scientists might regard as trivial and annoying, journalists and democracy campaigners see as central and irreducible. We speak in different tongues and inhabit different worlds.

I know how it happens. Like most people with a science degree, I left university with a store of recondite knowledge that I could share with almost no one. Ill-equipped to understand any subject but my own, I felt cut off from the rest of the planet. The temptation to retreat into a safe place was almost irresistible. Only the extreme specialisation demanded by a PhD, which would have walled me in like an anchorite, dissuaded me.

I hated this isolation. I had a passionate interest in literature, history, foreign languages and the arts, but at the age of 15 I’d been forced, like all students, to decide whether to study science or humanities. From that point we divided into two cultures, and the process made idiots of us all. Perhaps eventually we’ll split into two species. Reproducing only with each other, scientists will soon become so genetically isolated that they’ll no longer be able to breed with other humans.

We all detest closed worlds: the Vatican and its dismissal of the paedophilia scandals as “idle chatter”; the Palace of Westminster, whose members couldn’t understand the public outrage about their expenses; the police forces that refuse to discipline errant officers. Most of us would endorse George Bernard Shaw’s opinion that all professions are conspiracies against the laity. Much of the public hostility to science arises from the perception that it’s owned by a race to which we don’t belong.

But science happens to be the closed world with one of the most effective forms of self-regulation: the peer review process. It is also intensely competitive, and the competition consists of seeking to knock each other down. The greatest scientific triumph is to falsify a dominant theory. It happens very rarely, as only those theories which have withstood constant battery still stand. If anyone succeeded in overturning the canon of climate science, they would soon become as celebrated as Newton or Einstein. There are no rewards for agreeing with your colleagues, tremendous incentives to prove them wrong. These are the last circumstances in which a genuine conspiracy could be hatched.

But it is no longer sufficient for scientists to speak only to each other. Painful and disorienting as it is, they must engage with that irritating distraction called the rest of the world. Everyone owes something to the laity, and science would die if it were not for the billions we spend on it. Scientists need make no intellectual concessions, but they have a duty to understand the context in which they operate. It is no longer acceptable for climate researchers to wall themselves off and leave the defence of their profession to other people.

There are signs that this is changing. The prominent climate change scientist Simon Lewis has just sent a long submission to the Press Complaints Commission about misrepresentation in the Sunday Times. The paper claimed that the Intergovernmental Panel on Climate Change’s contention that global warming could destroy up to 40% of the Amazon rainforest “was based on an unsubstantiated claim by green campaigners who had little scientific expertise”. It quoted Lewis to suggest he supported the story. The article and its claims were reproduced all over the world.

But the claims were wrong: there is solid scientific research showing damage on this scale is plausible in the Amazon. Lewis claims that the Sunday Times falsely represented his views. He left a comment on the website but it was deleted. He sent a letter to the paper but it wasn’t published. Only after he submitted his complaint to the PCC did the Sunday Times respond to him. The paper left a message on his answerphone, which he has made public: “It’s been recognised that the story was flawed.” After seven weeks of stonewalling him, the Sunday Times offered to run his letter. But it has neither taken down the flawed article nor published a correction.

Good luck to Lewis, but as the PCC’s treatment of the News of the World phone-hacking scandal suggests, he’s likely to find himself shut out of another closed world – journalism – in which self-regulation manifestly doesn’t work. Here’s a profession that looks like a conspiracy against the laity even from the inside.

The incomprehension with which science and humanities students regard each other is a tragedy of lost opportunities. Early specialisation might allow us to compete in the ever more specialised labour market, but it equips us for nothing else. As Professor Don Nutbeam, the vice-chancellor of Southampton University, complains: “Young people learn more and more about less and less.”

We are deprived by our stupid schooling system of most of the wonders of the world, of the skills and knowledge required to navigate it, above all of the ability to understand each other. Our narrow, antiquated education is forcing us apart like the characters in a Francis Bacon painting, each locked in our boxes, unable to communicate.

>Should geoengineering tests be governed by the principles of medical ethics?

>
Rules for Planet Hackers

By Eli Kintisch
Thu Apr. 22, 2010 1:00 AM PDT

[Image: Flickr/indigoprime (Creative Commons)]

Nearly 200 scientists from 14 countries met last month at the famed Asilomar retreat center outside Monterey, California, in a very deliberate bid to make history. Their five-day meeting focused on setting up voluntary ground rules for research into giant algae blooms, cloud-brightening, and other massive-scale interventions to cool the planet. It’s unclear how significant the meeting will turn out to be, but the intent of its organizers was unmistakable: By choosing Asilomar, they hoped to summon the spirit of a groundbreaking meeting of biologists that took place on the same site in 1975. Back then, scientists with bushy sideburns and split collars—the forefathers of the molecular revolution, it turned out—established principles for the safe and ethical study of deadly pathogens.

The planners of Asilomar II, as they called it, hoped to accomplish much the same for potentially dangerous experiments in geoengineering. Instead of devising new medical treatments for people, the scientists involved in planet-hacking research are after novel ways to treat the Earth. The analogy of global warming to a curable disease was central to the discussions at the meeting. Climate scientist Steve Schneider of Stanford talked about administering “planetary methadone to get over our carbon addiction.” Others debated what “doses” of geoengineering would be necessary. Most crucially, the thinkers at Asilomar focused on the idea that medical ethics might provide a framework for balancing the risks and benefits of all this new research.

What would it mean to apply the established principles of biomedical research to the nascent field of geoengineering? The ethicists at Asilomar—particularly David Winickoff from Berkeley and David Morrow from the University of Chicago—began with three pillars laid out in the landmark 1979 Belmont Report. The first, respect for persons, says that biomedical scientists should obtain “informed consent” from their test subjects. The second, beneficence, requires that scientists assess the risks and benefits of a given test before they start. The third, justice, invokes the rights of research subjects to whatever medical advances result from the testing. (The people who are placed at risk should be the same ones who might benefit from a successful result.)

Then Winickoff and Morrow proposed applying the Belmont principles to the study of the most aggressive forms of geoengineering—the ones that would block the sun, like a volcanic eruption does, with a spray of sulfur or other particles into the stratosphere. Before we could embark on a radical intervention like that, we’d need to run smaller-scale tests that might themselves pose a risk to the environment. In much the way that a clinical drug trial might produce adverse reactions, so might a real-world trial of, say, the Pinatubo Option. Instead of causing organ failure or death in its subjects, a botched course of geoengineering might damage the ozone layer or reduce rainfall.

The problem, admitted the ethicists, is how to go about applying the Belmont rules outside of medicine. In clinical drug trials, researchers obtain consent from individuals, and they can precisely define the worse-case outcome (like death). But a trial run of hazing up the stratosphere wouldn’t affect specific, identifiable people in any one town, city, or state. The climate is interconnected in many ways, some still mysterious to scientists, and so the risks of even a small-scale test in a particular location might apply across the globe. If everyone on Earth could be affected, how do you figure out whom to ask for informed consent?

One possibility would be to require that all nations of the world agree ahead of time on any tests of consequence. To many gathered at Asilomar, however, this seemed naive; speakers repeatedly invoked the failure of all-inclusive talks to cut global carbon emissions, and it would presumably be much tougher to secure an agreement on work that might damage crop yields or open a hole in the ozone. A more pragmatic approach would be to set up something like a United Nations Planet Hacking Security Council, comprising 15 or so powerful nations whose oversight of research tests would take into account the concerns of a broad swath of countries. But that undemocratic approach would surely face howls of protest.

The principle of beneficence may be just as difficult to follow. Under the Belmont guidelines, doctors must balance the particular risks of a clinical trial with the potential benefit to any individual who might participate. Since it would be impossible to make such a calculation for every person on Earth, planet hackers could at best choose the experiments that minimize harm to the most vulnerable communities—like people living on the coasts of Southeast Asia. But we may not know enough about the risks of geoengineering to make any such credible calculation when the time comes. Consider the Pinatubo Option, by which scientists would mimic the cooling effect of volcanoes. Putting particles in the stratosphere could reduce the total amount of energy that strikes the Earth. Some climate modelers say this would disrupt rainfall by reducing moisture in the atmosphere obtained by evaporation. Others say that geoengineering’s droughts and famines would be less harmful than those caused by unchecked warming. Right now, no one can agree on the nature of the risks, let alone the degree to which they would apply to particular communities.

And what about justice? Among the disruptions that could result from testing the Pinatubo Option is a weakening of the Asian monsoon, a source of water for hundreds of millions of people in India. Those in developing countries will “eat the risk” of geoengineering trials, shouted one of the Asilomar speakers. If representatives from just a small set of countries were appointed as doctors to the planet, then the less powerful nations might end up as the world’s guinea pigs. Of course, the citizens of those nations also would seem to have the most to lose from uninterrupted global warming. These two dangers would have to be measured one against the other—and compensation as part of the experimental program could be one way of making tests more fair.

If medical ethics aren’t quite up to the task of guiding our forays into geoengineering, what other sort of principles should we keep in mind? One important danger to be aware of is the moral hazard that might come with successful trials. That’s the idea that protective circumstances or actions can encourage people to take undue risks—government insurance of banks led to risky investments that caused the savings-and-loan crisis in the 1980s, for example. Moral hazard looms particularly large for geoengineering studies since medium-scale field tests could prematurely give us the sense that we have a low-cost technical fix for global warming, no emissions cuts needed. (Moral hazard isn’t quite as potent in medical research. The availability of cholesterol-lowering drugs may well discourage people from maintaining healthy diets, but it’s unlikely that mere clinical trials would have the same effect.)

Another ethical principle that might apply to geoengineering is minimization—the idea that, a priori, it’s better to tinker at the smallest possible scale necessary to answer vital scientific questions. This notion comes from the ethics of animal experimentation; now we might apply it to planetary systems and the environment more broadly. Up until now, the medical ethics frame for geoengineering has guided discussions of how geoengineering might affect people in various countries. Perhaps we should be talking about how it affects the planet itself.

By that token, we might gain something by thinking of the Earth as a patient on its own terms. The rules and regulations we come up with for tests of geoengineering should take into account the way those experiments might affect ecosystems and nonhuman animals, both under threat from warming. And so maybe the most famous piece of medical ethics ought to apply: the Hippocratic Oath. “First, do no harm” is the crux of the original, but an updated version exhorts doctors to avoid “the twin traps of overtreatment and therapeutic nihilism.” The climate crisis may force us to act despite myriad ethical challenges, for our benefit and for the planet’s.

This piece was produced by Slate as part of the Climate Desk collaboration.

Eli Kintisch is a reporter at Science and author of a new book on geoengineering, Hack the Planet.

>Acelerador de gente (FSP)

>
Entrevista com Karin Knorr Cetina

José Galisi-Filho
Folha de SP, 2/5/2010 – reproduzido no Jornal da Ciência (JC e-mail 4001)

Socióloga que estudou os pesquisadores do LHC diz que experimento elimina noções tradicionais de autoria e prestígio

Ao visitar o LHC (Grande Colisor de Hádrons) em abril de 2008, o físico escocês Peter Higgs pôde contrastar sua dimensão humana com a escala gigantesca da maior máquina já construída pela humanidade.

Se a hipótese de Higgs estiver correta, os dados que começaram a jorrar nas últimas semanas do LHC fornecerão a última peça no quebra-cabeças do modelo padrão, a teoria da física que explica a matéria. Mas a saga do LHC é resultado do trabalho de gerações de pesquisadores, cujos nomes finalmente se diluirão na “simbiose homem-máquina” de um novo paradigma, pela primeira vez realmente global, de cooperação cientifica.

Para Karin Knorr Cetina, professora de sociologia do conhecimento da Universidade de Konstanz, Alemanha, o experimento é, antes de tudo, um “laboratório humano” numa escala sem precedentes na história da ciência moderna.

Cetina passou 30 anos observando os pesquisadores do Cern (Centro Europeu de Física Nuclear), laboratório na Suíça que abriga o LHC, numa espécie de estudo “etnológico” da tribo dos físicos, seus usos e costumes. Segundo ela, noções tradicionais na ciência, como carreira, prestigio e autoria, deixam de ter qualquer significado no modelo de produção de conhecimento do Cern.

Da Universidade de Chicago, EUA, onde é pesquisadora visitante, Cetina falou à Folha:

– O que há de novo na forma de produzir conhecimento no Cern, e como isso se compara com as humanidades?

O novo é a dimensão, a duração e o caráter global do experimento. A estrutura dos experimentos é um experimento em si mesmo, com um caráter antecipatório de um tempo global e de uma sociedade do conhecimento. Poderíamos, talvez, fazer uma comparação com aquele espírito arrojado e inovador no desenvolvimento do supersônico Concorde nos anos 1960, que sinalizou uma ruptura de época. Mas não se pode responder com uma simples frase ao “como” esse experimento é coordenado.

Há muitos mecanismos particulares que sustentam o projeto e o transformam numa espécie de “superorganismo”, na íntima colaboração de mais de 2.000 físicos com o gigantesco LHC, que eles mesmo projetaram e no qual, finalmente, trabalham juntos. Um mecanismo muito importante são as publicações coletivas em ordem alfabética. Quem é privilegiado não é o “gênio”, o autor, ou pesquisadores destacados em suas áreas. Um outro mecanismo é que o experimento mesmo, e não os autores, é “convidado” para as conferências internacionais.

Os atores individuais são apenas os representantes daquilo que produziram em conjunto. Um outro mecanismo é que os participantes se encontram, por exemplo, durante toda uma semana no Cern, e esses encontros são organizados de tal maneira que todos possam e devam ser informados sobre tudo que ocorre. Estabelece-se, assim, uma espécie de consciência coletiva do “conhecimento compartilhado”.

Como poderíamos comparar isso com as ciências humanas? Alguns diagnósticos de época importantes, de historiadores e filósofos, por exemplo, ainda encontram ressonância na opinião pública, mas, infelizmente, a estrutura e a segmentação da pesquisa nesse campo do conhecimento não tem mais nada de interessante a oferecer. A sociologia tradicional não sinaliza mais para a frente.

– Depois de muitos anos de pesquisa de campo em laboratórios como uma etnógrafa da ciência, como se diferenciam as culturas científicas diante do papel do indivíduo?

A biologia molecular, que acompanhei por muitos anos, é uma ciência “de bancada”, na qual, por regra, poucos pesquisadores trabalham juntos, na qual também se produz e publica em coletivo, mas não em ordem alfabética. O papel do pesquisador individual ainda permanece importante. Isso leva, como sabemos, a conflitos em torno de autoria e quem está em que posição na publicação. A física de altas energias procura, em contrapartida, liberar a cooperação, na qual é o conjunto que está no ponto central. O fio condutor não é mais a carreira, mas o resultado cientifico. O acelerador é o elemento dominante, pois ele somente pode ser construído e avaliado por muitos.

– Seria a natureza mesma do projeto incompatível com um novo “insight” individual que poderia mudar tudo de forma imprevisível?

É bem mais provável, no caso do Cern, que a pesquisa em equipe deva produzir excelentes resultados empíricos. Muitos pesquisadores em sociologia e nas humanidades, de maneira geral, produzem resultados parciais, fragmentados, que não se agregam dentro de um sistema numa perspectiva cumulativa -não porque a natureza do social seja fragmentada, mas porque nossa maneira de conduzir pesquisas, nossas convenções de pesquisa, não se agregam. Em muitas ciências empíricas devemos investigar no processo cooperativo -já que na natureza todas as partes de uma sistema se interrelacionam- ou todo o sistema ou saber qual é, realmente, a parte central desse sistema que deve ser isolada e destacada. Esse reducionismo experimental não pode ser levado a cabo na ciência social por motivos éticos, por se tratar de pessoas em sua integridade, que não podemos reduzir a células de cultura. Para tanto, seria necessário muito mais cooperação e pesquisa.

>Manipular la lluvia no es la solución [El Pais, Espanha]

>
Más de 40 países usan técnicas para generar precipitaciones – Dominar la atmósfera de todos en beneficio propio genera dudas

JOSEP GARRIGA 10/12/2009

El 30 de septiembre los cielos de Pekín pesaban oscuros y la niebla ahogaba la ciudad con una nube densa, que amenazaba con aguar el gigantesco desfile militar previsto el día siguiente en la plaza Tiananmen para conmemorar el 60 aniversario de la fundación de la República Popular China. Hubo lluvia. Pero cayó toda esa noche, y el 1 de octubre amaneció radiante y de un azul que parecía imposible. No fue casualidad. Un total de 18 aviones del Ejército Popular de Liberación volaron sobre la ciudad disparando yoduro de plata contra las nubes para forzar las precipitaciones antes de la parada militar.

* * *
En Lleida se usó yoduro de plata contra el granizo durante 20 años
En España sólo se utilizan técnicas de modificación en Teruel y Zaragoza
El 1 de noviembre se provocó una gran nevada en Pekín que colapsó la ciudad
Israel ha logrado aumentar la lluvia en algunas zonas alrededor del 10%
* * *

Desde que, en 1947, Bernard Vonnegut descubriera que el yoduro de plata puede romper los equilibrios internos de las nubes y modificar las precipitaciones, cerca de 40 países siguen utilizando la misma tecnología para tratar de modificar el tiempo. Aunque hubo intentos más audaces durante el siglo pasado -Estados Unidos se atrevió a apaciguar la fuerza de los huracanes-, en la actualidad esta técnica sólo se ha demostrado eficaz para incrementar o detener la lluvia, provocar nevadas y minimizar los daños del granizo. Pero como la imaginación carece de límites, algunos científicos ya piensan en cambiar el rumbo de tornados, calmar los vientos o alterar la dirección de los relámpagos.

A la modificación del clima se le denomina geoingeniería, pero este término se utiliza generalmente para designar las prácticas que tienen como objetivo paliar los efectos negativos del calentamiento global. Sin embargo, existe otra acepción: la destinada en concreto a manipular las condiciones atmosféricas de forma artificial para provocar lluvia o nieve en periodos prolongados de sequía o impedir precipitaciones cuando los nubarrones amenazan con aguar la fiesta, como sucedió durante los Juegos Olímpicos de Pekín.

“Estas prácticas me producen un cierto temor porque justamente lo que estamos intentando es no modificar la química de la atmósfera para frenar el cambio climático. Tengo un espíritu contrario a modificar las pautas atmosféricas y creo que la Organización Meteorológica Mundial debería adoptar una actitud más expeditiva”, advierte Jorge Olcina, investigador del clima en la Facultad de Geografía de Alicante.

Pero ni el tiempo se ha demostrado tan sencillo de manipular ni tampoco existen evidencias -comentan sus valedores- de que estas prácticas sean tan perniciosas para el medio ambiente, aunque sobre todas ellas pesa un componente ético que, como siempre, tiene partidarios y detractores.

Primero, se necesita la materia prima: como no haya nubes -y, por tanto, vapor de agua- es imposible obtener lluvia. En física, nadie posee una varita mágica. Y si lo que se pretende es atenuar las precipitaciones, los resultados pueden defraudar porque en el interior de una nube se producen unos procesos termodinámicos que se desconocen en toda su amplitud. “No podemos hacer que desaparezcan las nubes. Una muy normalita, por ejemplo, tiene unos 20 kilómetros de largo, 10 de ancho y 10 de altura. Es decir, unos 2.000 kilómetros cúbicos. Eso no se puede hacer desaparecer, pero podemos reducir su energía y minimizar los daños. Y respecto a las supercélulas, ni acercarse”. Quien así habla es José Luis Sánchez, catedrático de Meteorología de la Universidad de León, y el mayor experto español en esta materia. Sánchez ha dirigido los programas de lucha contra el granizo que se llevaron a cabo desde 1986 a 2005 en Lleida y ahora mismo asesora a los agricultores de la zona de Alcañiz (Teruel) y Cariñena (Zaragoza).

En Lleida, durante casi 20 años se utilizaron calentadores para sembrar las nubes con un compuesto de yoduro de plata y acetona y conseguir, de esta forma, frenar la energía cinética (masa y velocidad) de las piedras de granizo y minimizar sus efectos negativos sobre las cosechas. En 2005 se anuló la campaña, no por problemas técnicos, sino por los movimientos ciudadanos en contra que atribuían a estas técnicas la prolongada sequía en la zona. Los agricultores tenían que pagar unos ocho euros al año para proteger cerca de 200.000 hectáreas. Maite Torà, de la Asociación de Defensa Vegetal de Lleida, sostiene que los daños se redujeron entre el 30% y el 40%. Un porcentaje bastante significativo para unas personas que podían perder buena parte de su cosecha en unos minutos por culpa de una devastadora tempestad.

Para impregnar las nubes con sales de yoduro de plata se utilizaban en Lleida cerca de 50 calentadores en tierra, pues las avionetas se dejaron de usar en 1984 a pesar de la multitud de leyendas rurales que aseguran haberlas escuchado minutos antes de la evaporación de alguna tormenta. Los calentadores son más efectivos que los aviones porque éstos dependen de la celeridad con que asaltan la tormenta. Si las corrientes internas de aire son desfavorables, la nube no absorbe el yoduro de plata. Por este motivo, China echa mano de los aviones militares con mucha más estabilidad y maniobrabilidad.

El Ejército chino lleva estudiando los métodos de modificación del tiempo desde la década de 1950, pero ha sido en los últimos años cuando se han llevado a cabo las mayores experiencias forzadas de lluvia. El principal objetivo es aliviar, dentro de lo posible, la persistente sequía que sufren muchas zonas del país y, cuando el Gobierno lo considera conveniente, evitar la caída del agua en grandes ceremonias.
El pasado 1 de noviembre recurrieron de nuevo al yoduro de plata y contribuyeron a la primera nevada artificial hecha pública que ha vivido la capital. Fue la más temprana desde hace 22 años. Nueve días después, la nieve inducida volvió a caer sobre Pekín durante la noche, entre truenos y relámpagos, con tal intensidad que en algunas calles el manto blanco llegó a los 20 centímetros. Al amanecer, la ciudad fue un caos.

En ambas ocasiones, se produjeron numerosos accidentes de tráfico y cortes de electricidad, y cientos de vuelos sufrieron retrasos o fueron cancelados. Los efectos de la nieve provocaron críticas de muchos ciudadanos e incluso de algunos periódicos oficiales, que se preguntaban por qué no se había avisado antes.
Los meteorólogos chinos aseguran que sólo es posible modificar el tiempo hasta cierto punto, y algunos, como Xiao Gang, del Instituto de Física Atmosférica de la Academia de Ciencias China, han recomendado no abusar de esta práctica por su posible efecto a largo plazo. “Nadie puede decir de qué forma la manipulación del tiempo cambiará el cielo. Experimentos pasados han mostrado que puede aportar entre el 10% y el 20% adicional de lluvia o nieve. No deberíamos depender demasiado de medidas artificiales para la lluvia y la nieve, porque hay demasiadas incertidumbres en el cielo”, ha dicho.

José Miguel Viñas, físico experto en Meteorología y creador de la página web Divulgameteo, también expresa sus dudas sobre estos métodos inducidos porque pueden ser utilizados por algún Gobierno como medida de coacción o guerra larvada contra otros países. “Si se provoca lluvia en zonas fronterizas se le está privando al país vecino de un bien como puede ser el vapor de agua. A mí también me plantea problemas éticos”, sostiene. Viñas pone un ejemplo más ilustrativo. “El vapor de agua viene a ser como un río. ¿Qué derecho tiene un país a cortar o reducir el caudal de un río que circula después por otro país o el de manejar a su antojo el vapor de agua de la atmósfera?”, se pregunta. Sin embargo, ante posibles conflictos, los convenios internacionales prohíben el uso de estas técnicas en enfrentamientos bélico.

Jeroni Lorente, del departamento de Astronomía y Meteorología de la Universidad de Barcelona, apunta: “Hay que tener mucho cuidado con este tipo de actuaciones a causa de los posibles perjuicios y conflictos socio-políticos entre comunidades y Estados que pueden producir, dejando para la ciencia ficción las denominadas guerras meteorológicas”. Y subraya que la modificación del tiempo atmosférico todavía es una realidad poco discutida.

El debate es escaso, no sólo por los efectos sobre el medio ambiente sino también por el rendimiento y eficacia de estas técnicas. “Tenemos estadísticas que demuestran un aumento de las lluvias del 10% al 12%. Pero es muy difícil demostrarlo fehacientemente porque es complicado controlar los experimentos. Nunca podrá demostrarse que la lluvia ha sido provocada y jamás podremos comparar entre dos nubes iguales”, asegura Daniel Rosenfeld, profesor de Ciencias de la Tierra en la Universidad Hebrea de Jerusalén, y uno de los expertos mundiales en esta materia. “Mediante la siembra de las nubes el precio del agua que se genera no llega a los cinco céntimos de dólar (3,4 céntimos de euro) por metro cúbico, 10 veces más barato que la desalinización”, defiende Rosenfeld.

En 2006, la Comunidad de Madrid intentó importar esta tecnología para abastecer la ciudad y el Canal de Isabel II pero, finalmente, desechó la idea. Israel destina entre 1,5 y 2 millones de dólares al año (entre 1 y 1,35 millones de euros) a la investigación en este campo.

Estados Unidos, por su parte, congeló en 1973 un programa destinado a apaciguar la fuerza de los huracanes que cada año asolan el país. El proyecto se inició en los años sesenta, pero se suspendió 13 años después por falta de presupuesto y eso que la experiencia demostró que en cuatro huracanes los vientos decrecieron entre el 10% y el 30%.

El programa quedó bautizado como Project Stormfury (Proyecto furia de la tormenta) y el avión que dispersaba el yoduro de plata recibió el nombre de Hurricane Hunter (Cazador de huracanes). Pero el proyecto no volvió a ofrecer resultados y en los libros de ciencia ha quedado en duda si la reducción de la velocidad de los vientos de Debbie fue algo causado por el hombre o, en realidad, una deceleración natural provocada por el avance del propio huracán.

Con información de David Alandete (Washington), Juan Miguel Muñoz (Jerusalén) y José Reinoso (Pekín).

Algunas experiencias

– España. Desde 1986 a 2005 se llevaron a cabo campañas de lucha antigranizo en Lleida que redujeron el daño entre el 30% y el 40%. En la actualidad estas técnicas sólo se aplican en la zona de Alcañiz (Teruel) y Cariñena (Zaragoza). En 2006 la Comunidad de Madrid intentó importar tecnología israelí para incrementar las precipitaciones y abastecer el Canal de Isabel II, pero ha descartado el proyecto.

– Rusia. En 1986, tras el accidente de Chernóbil, las autoridades rusas estimularon la lluvia de bandas nubosas, cargadas con partículas radiactivas, antes de que llegaran a Moscú.

– ‘Operación Popeye’. Durante la guerra del Vietnam, Estados Unidos tenía previsto prolongar la época de los monzones para inundar las zonas del Vietcong. La operación fracasó.

– Provocar nevadas. Algunos estados como California, Nevada, Wisconsin o Utah tienen programas para incentivar las nevadas, al igual que en Australia en la zona de las Snowy Mountain.

– China. Las autoridades chinas provocaron lluvia días antes de los Juegos Olímpicos de Pekín para limpiar la atmósfera. Durante la celebración no hubo ningún día lluvioso. El pasado 1 de noviembre cayó una gran nevada en la capital provocada artificialmente.

– Israel. Junto a China, es el país con la tecnología más avanzada para provocar lluvia en algunas zonas desérticas o con escasas precipitaciones. Sin embargo, en otras zonas del país han obtenido resultados negativos.

>Brasil melhora no ranking que mede corrupção

>
Paula Laboissière
Repórter da Agência Brasil
17 de Novembro de 2009 – 13h01/14h40

Brasília – O Brasil subiu cinco posições no ranking anual de corrupção divulgado hoje (17) pela Transparência Internacional. Apesar de ter passado do 80º lugar em 2008 para o 75º neste ano, o relatório apontou que o país ainda é marcado por escândalos que envolvem impunidade e corrupção política.

Na mesma colocação brasileira aparecem a Colômbia, o Suriname e o Peru – todos com 3,7 pontos. Nas Américas, um total de 21 dos 31 países receberam pontuação inferior a 5, o que, de acordo com a Transparência Internacional, indica “sérios problemas de corrupção” na região.

No grupo de países americanos com mais de 5 pontos, o Canadá permanece como líder, além de integrar os dez Estados com os menores índices de corrupção em todo o mundo. O Chile, o Uruguai e a Costa Rica são os únicos da América Latina a integrarem a lista com mais de 5 pontos.

O Haiti aparece mais uma vez como o último no ranking das Américas – apesar de ter passado de 1,4 ponto em 2008 para 1,8 neste ano. Também registraram baixa pontuação a Bolívia, a Nicarágua, Honduras e o Paraguai. Já a presença da Argentina e da Venezuela no grupo com menos de 5 pontos, segundo o documento, é vista como um indicativo de que a corrupção não é presença exclusiva em países pobres.

O relatório acrescenta que jornalistas da América Latina, em particular, enfrentam um ambiente de restrições “crescentes”, com a aprovação de legislações destinadas a “silenciar” a cobertura crítica, limitando a liberdade de imprensa e dificultando a divulgação de práticas de corrupção.

No ranking geral de países, a Nova Zelândia aparece em primeiro lugar com 9,4 pontos, seguida pela Dinamarca, com 9,3 pontos, e por Cingapura, com 9,2 pontos.

>Natureza conflitante

>
Especiais

AGÊNCIA FAPESP – 9/11/2009

Por Alex Sander Alcântara

Agência FAPESP – “Civilizar” o país e inseri-lo em um projeto de modernidade significava, em grande parte, abandonar a ideia do ambiente rural, da natureza selvagem e dos territórios inóspitos e atrasados. Paraíso terrestre, guerra contra a natureza, sentimento de nostalgia, ideia de progresso e transformação da natureza são alguns dos aspectos analisados no livro Natureza e Cultura no Brasil (1870-1922), que acaba de ser lançado.

A obra investiga como grande parte da intelectualidade brasileira – do fim do século 19 até a Semana de Arte Moderna, em 1922 – percebia e concebia as múltiplas relações entre natureza e sociedade, aliado a um projeto de modernidade nacional.

O livro analisa um conjunto de escritos desse período tanto na ficção como em textos não literários (ensaios, relatos de viagem e memórias) de autores consagrados, como Euclides da Cunha, Graça Aranha e Visconde de Taunay, e outros menos conhecidos, como Alberto Rangel, Hugo de Carvalho Ramos e Domicílio da Gama.

De acordo com a autora Luciana Murari, o conjunto de textos é multifacetado, com muitas contradições, dividido de um lado pela tentativa de “racionalizar tudo”, de encaixar a realidade em modelos cognitivos que a explicassem e que possibilitassem que o homem adquirisse controle sobre a natureza e, de outro, pela percepção da natureza como um espaço sagrado e inatingível.

“Essas duas inclinações não se mostravam mutuamente excludentes no contexto das obras, nem mesmo no conjunto da obra de um mesmo autor. Na melhor das hipóteses, em momentos otimistas, grande parte dos intelectuais brasileiros acreditava que o progresso resolveria tudo, anularia as diferenças e criaria a própria nacionalidade”, disse Luciana, professora do Centro de Ciências Humanas e do Programa de Pós-graduação em Letras, Cultura e Regionalidade da Universidade de Caxias do Sul, à Agência FAPESP

O livro é resultado de sua tese de doutorado, defendida na Universidade de São Paulo (USP) sob a orientação de Elias Thomé Saliba, professor titular em Teoria da História da USP, e recebeu apoio da FAPESP na modalidade Auxílio à Pesquisa – Publicações.

“O livro mostra que essa geração de pensadores e ensaístas, mais do que presa às explicações deterministas, biológicas e racistas, viveu uma consciência dividida, característica da cultura do fim de século”, disse Saliba.

“A obra revela ainda como esses pensadores, cada um a sua maneira, denunciam a modernidade postiça, construída a partir da devastação brutal da natureza e da destruição dos laços que mantinham a coesão da sociedade tradicional. Alguns de seus argumentos e descrições, com difusa e surpreendente consciência ecológica, mostram-se ainda estranhamente atuais”, disse.

De acordo com Luciana, em relação ao recorte histórico pouco convencional, a ideia foi investigar o período anterior à Semana de Arte Moderna, “porque esse período precisa ser revisto como um todo e não apenas nos momentos que pareceriam, na melhor das hipóteses, antecipar a chamada revolução modernista”.

“A delimitação é uma referência para se pensar o início do processo de modernização produtiva no Brasil, que também viveu uma espécie de modernização intelectual nesse período, dedicado a transformar os padrões cognitivos em vigor no debate sobre a nacionalidade e a construir uma nova imagem e uma nova postura frente ao país, baseada na ciência”, disse.

Embora não analise os textos dos chamados modernistas de 1922, a pesquisadora conta ter percebido que não houve uma ruptura radical em relação ao debate modernista e algumas questões que circulavam há tempos entre os intelectuais brasileiros do período anterior.

“Os modernistas transformaram muitas coisas e estabeleceram novos padrões estéticos, mas talvez essa noção de ruptura associada ao movimento reproduza o próprio discurso deles, ou de alguns deles, e nos impeça de ver continuidades importantes”, disse.

Ao elencar os escritores interessados na questão da natureza brasileira, Luciana destaca três nomes: o cearense Rodolfo Teófilo, Alberto Rangel, um seguidor de Euclides da Cunha cuja linha ficcional apresenta características de não ficcionais, e Coelho Neto, um dos intelectuais mais prestigiados do seu tempo, mas muito pouco estudado.

Coelho Neto era uma referência para seus contemporâneos, sempre chamado para palpitar nos assuntos mais importantes da vida nacional. Mas acabou, segundo a pesquisadora, ganhando fama de intelectual alienado da realidade nacional.

“Essa acusação, a meu ver, não tem fundamento, mesmo porque ele foi uma referência para o nativismo de sua época, como pioneiro da literatura regionalista. A visão de Coelho Neto sobre a natureza resume muito do que seus contemporâneos discutiam, mas ao mesmo tempo é bastante original porque tem um aspecto místico muito forte e uma emotividade arrebatadora”, disse Luciana.

Sonho da modernidade

Natureza e Cultura no Brasil (1870-1922) está dividido em quatro capítulos, mais um pós-escrito. Um paraíso terrestre mostra as concepções teóricas sobre a relação entre homem e natureza no país e como a relação da sociedade brasileira com sua base natural adquiriu um sentido negativo, “exprimindo um conflito inexorável entre os empreendimentos humanos e as condições do meio natural”.

Guerra contra a natureza, segundo capítulo, aprofunda o diagnóstico “negativo” de uma relação baseada na violência recíproca: tanto a ação destrutiva da natureza em relação aos desígnios humanos como a ação destruídora do homem em relação a ela.

Nos dois últimos capítulos, a autora aborda, respectivamente, o Sentimento do sertão na alma brasileira e o Progresso e transformação da natureza.

“Nesse quarto capítulo, discuto a modernidade propriamente dita, compreendida como uma relação de domínio do homem sobre a natureza. Os autores tentavam demonstrar a viabilidade de uma sociedade moderna no ambiente brasileiro, pacificando a luta do homem contra a natureza e superando a melancolia por meio da ação. É um capítulo sobre as utopias da modernidade brasileira”, explicou.

Segundo Luciana, a construção da natureza no imaginário nacional permite observar o dilema brasileiro a partir da perspectiva de homens conscientes e temerosos do peso da formação colonial e escravocrata do Brasil.

“Trata-se de um fardo que concorria com seus projetos de alinhamento à modernidade e que perturbava a formação de um sentimento coletivo em um país em que as divisões sociais eram muito profundas e irredutíveis”, apontou.

“A modernidade era um sonho que parecia fadado a nunca se realizar, porque aquele peso sempre se fazia sentir e se expressava de forma muito intensa na relação do país com seu meio físico”, disse a autora.

Título: Natureza e Cultura no Brasil (1870-1922)
Autora: Luciana Murari
Ano: 2009
Páginas: 474
Preço: R$ 50
Mais informações: http://www.alamedaeditorial.com.br

>Municípios terão acesso livre a software para organizar contas e melhorar gestão

>
A ferramenta, chamada de e-cidade, estará disponível no Portal do Software Público Brasileiro no fim de outubro e poderá ser acessada gratuitamente pelos municípios

O Povo – 15 Out 2009 – 07h37min

Prefeituras de todo o país terão acesso a um software livre de gestão que vai possibilitar a organização de gastos, do orçamento, da receita tributária, do controle de medicamentos, de recursos humanos e outros serviços no mesmo aplicativo. A ferramenta, chamada de e-cidade, estará disponível no Portal do Software Público Brasileiro no fim de outubro e poderá ser acessada gratuitamente pelos municípios.

O acesso livre ao software foi acertado entre o Ministério do Planejamento e a empresa que criou o programa. De acordo com o secretário de Logística e Tecnologia da Informação do ministério, Rogério Santana, com o uso livre, as prefeituras poderão adaptar as funções do aplicativo à realidade local e trocar experiências com outros gestores.

“Isso vai melhorar a gestão dos recursos e a prestação de serviços à sociedade. Também facilita a auditoria e a apresentação de contas”, avalia. A ferramenta é utilizada atualmente por 15 municípios e será apresentada oficialmente durante o Encontro Nacional de Tecnologia da Informação para os Municípios Brasileiros, nos dias 27 e 28 de outubro em Brasília.

Segundo Santana, o e-cidade vai permitir que prefeitos registrem as receitas arrecadadas com impostos, conheçam melhor os gastos dos municípios em saúde, educação e pessoal, acompanhem o andamento de obras e o controle de imóveis, por exemplo.

A ferramenta também registra a autorização, emissão e liquidação de empenhos orçamentários integradas ao processo de aquisições e emissões de notas fiscais.

“Os municípios brasileiros são muito carentes de soluções tecnológicas. Temos inúmeros municípios que têm gestão ineficiente e que precisam de ajuda. Essa solução tecnológica pode ser uma alternativa.”

A redução da burocracia também é uma das vantagens do aplicativo, segundo Santana. “Vai reduzir a papelada. Muitas árvores serão economizadas na medida em que a gente automatize e use processos eletrônicos no lugar de processos em papel”, completou.

O e-cidade vai estar disponível para download na página na internet do Portal do Software Público Brasileiro a partir do dia 28 de outubro, no endereço eletrônico http://www.softwarepublico.gov.br .

Agência Brasil

>I know I know nothing; but at least I know that

>
Willem Buiter – FT’s Maverecon Blog

September 10, 2009 3:00pm

Science with very few (if any) data

Doing statistical analysis on a sample of size 1 is either a very frustrating or a very liberating exercise. The academic discipline known as history falls into that category. Most applied social science, including applied economics, does too. Applied economists use means fair and foul to try to escape from the reality that economics is not a discipline where controlled experiments are possible. The situation that an economically relevant problem can be studied by means of a control group and a treatment group that are identical as regards all but one external or exogenous driver, whose influence can as a result be isolated, identified and measured, does not arise in practice.

Time series analysis (which establishes associations or correlations between measurable variables over time), cross section analysis (which studies associations or correlations between between variables observed during a common time period but differing by some other criterion (say location, individual or family identity or whatnot)), and panel data analysis, which combines time-series and cross-section data and methodology, all struggle (mostly in vain) with the problem that the economic analyst cannot control for all relevant influences on the behaviour of the phenomenon he is investigating, GDP growth or unemployment, say. The reason for this is first and foremost that the investigating economist doesn’t have a clue as to what should be on an exhaustive list of possible relevant drivers of GDP growth or unemployment. Second, many of the key variables he is aware of may not be measurable or only be measurable with serious errors. Expectations are an example. Finally, the long list of possible explanatory variables that are omitted from consideration are extremely unlikely to be statistically independent of the errors or residuals from a statistical or econometric analysis/estimation that uses just a truncated set of explanatory variables. The result: biased and inconsistent estimates of parameters and other features of the relationship between the explanandum and the explanans.

Economists have made a growth industry of seeking out or concocting quasi-natural experiments that might look like controlled experiments in the natural sciences. Freakonomics: A Rogue Economist Explores the Hidden Side of Everything by Steven Levitt and Stephen J. Dubner contains a sampling of this kind of work.

I have not read a single one of these quasi-natural experiment studies where one could not easily come up with a long list of potentially relevant omitted explanatory variables. Such ‘unobserved heterogeneity’ means that other things were definitely not equal, and the attribution of cause and effect is bound to be flawed. In addition, the determined chase for yet another quasi-controlled or natural experiment has led many economists to look under the lamppost for their missing knowledge, not because that is where they lost it, but because that’s where the light is. A flood of cute but irrelevant studies of issues of no conceivable economic significance has been undertaken simply because a cute but irrelevant natural experiment had been conducted.

Experimental economics was the last refuge of the empirically desperate. It mostly involves paying a bunch of undergraduates (or, if you have a very small budget, graduates) to play a variety of simple games with monetary and occasionally non-monetary pay-offs for the participants. The actions of the players in these highly artificial settings – artificial if only because the players are aware they are the guineau pigs in some academic experiment – are meant to cast light on the behaviour of people in real-word situations subject to similar constraints and facing similar incentives. Halfway between proper experimental or laboratory economics and natural experiments are ‘constructed experiments’ (aka randomised experiments) in which a (team of) economists conducts an experiment in a real-world setting and uses randomised evaluation methods to make inferences and test hypotheses. Typically, the guinea pigs in such randomised experiments are a selection of Indian villagers or other poor population groups – a little research grant goes a long way in a very poor environment. Again, the intentions are good, but the ceteris paribus assumption – that all other material influences on behaviour have either been controlled for or don’t distort the results of the study because they are independent of the unexplained component of behaviour in the constructed experiment – is (a) untestable and (b) generally implausible.

Of course, economics and the other social sciences are not alone in being bereft of meaningful controlled experiments. Two of the jewels in the ‘hard’ or natural science crown, cosmology and the theory of evolution, provide generous companionship for the social science waifs. Scientists at CERN may be able (wittingly or unwittingly) to create little bangs and mini black holes a few miles below ground in Switzerland and France, but this does not amount to a test of the big bang theory. They have no more than one dodgy observation on that. Evolutionary biologists may be able to observe evolution at work in real time ‘in the small’, that is, in microorganisms, butterflies etc. but they don’t have replications of the 4.5 billion year history of the earth, through a collection of parallel universes each of which differs from the others in one observable and measurable aspect only. This does not mean that anything goes. Finding fossils that can confidently be dated to be around 150 million years old makes rather a hash of strict young earth creationist accounts that date the creation of the universe to somewhere between 5,700 and 10,000 years ago. Other propositions, like intelligent design, cannot be proven or disproved and are therefore not scientific in nature.

So what is the poor economist to do when confronted with the need to make predictions or counterfactual analyses? Fundamentally, you pray and you punt.

How do we evaluate the reliability or quality of such forecasts and analyses? Ex-post, by matching them up against outcomes, in the case of forecasts. This is not straighforward – very few economists make completely unconditional forecasts, but it is in principle feasible. In the case of a counterfactual analysis where the counterfactual policy action or event did not take place – who knows? A necessary test of the acceptability of a counterfactual argument is its logical coherence – its internal consistency. That probably gets rid of about 90 percent of what is released into the public domain, but still leaves us with a lot of counterfactual propositions (and forecasts that can not yet be tested against outcomes).

For the counterfactual proposition and the forecasts beyond today that survive the test of logical coherence, all we have is the one data point of history to lend some plausiblity.

What will be the likely shape of the recovery in the overdeveloped world?

What does history teach us about the likely shape of the recovery in the overdeveloped world following the bottoming out of global GDP? Is the financial collapse phase of the Great Depression a good guide? Probably not, because the banking sector and the financial system of the late 1920s and early 1930s were so different from those that went down the chute starting August 2007. A financial sector that is one layer deep, with banks funding themselves mainly from household deposits and investing mainly in loans to the non-financial business sector, is a very different animal from the multi-layered financial sector in the second half of the first decade of the 21st century.

The modern banking system is part of a multi-layered financial sector. It funds itself to a large degree in financial wholesale markets and has on the asset side of its balance sheet many financial instruments issued by other banks and by non-bank financial institutions, including off-balance sheets vehicles of the banks. Rapid deleveraging of a 1930s-style single-layer financial system is bound to be massively disruptive for the real economy. Rapid deleveraging of a modern multi-layered financial system needs not be massively disruptive for the real economy, although it will be if it is done in an uncoordinated, voluntary manner. Since most liabilities (assets) of banks are assets (liabilities) of other banks and non-bank financial institutions, an intelligent, coordinated netting or write-down of intra-financial sector assets and liabilities is technically possible without significant impact on the exposure (on both sides of the balance sheet) of the financial system as a whole to the non-financial sectors.

There are many legal and political obstacles to such a de-layering of financial intermediation – it amounts to the temporary imposition of a form of central planning on the key banks and their financial sector counterparties, but it could be done if the political will were there.

This important difference between the situation of the 1930s and that facing us today makes one more optimistic about the pace of the recovery to come. Against that, much of the tentative insight I have gained about the financial crisis has not come from the lessons of the 1930s but from emerging markets crises since the 1970s. Except for the important qualifier that the US dollar is a global reserve currency, and that the US government (and private sector) has most of its domestic and external liabilities denominated in US dollars, the pathologies of financial boom, bubble and bust in the US, the UK, Iceland, Ireland and Spain (and many of the Central and East European emerging market economies) track those of classical emerging market crises in South America, Asia and CEE in the 1990s, rather well.

The emerging market analogy makes one less optimistic about a robust recovery, as typically, emerging markets whose financial sector was destroyed by a serious financial crisis took many years to recover their pre-crisis growth rates and often never recovered their pre-crisis GDP paths.

But cleary, there are many differences in economic structure, policy regimes and external environment between the overdeveloped world of today and either the industrialised world of the 1930s or the emerging markets of the 1980s and 1990s. For starters, we are now aware of what happened in the 1930s and in the emerging markets (the arrow of history flies only in one direction). Another key difference is that today’s emerging markets and developing countries, whose domestic financial sectors have not been destroyed by the financial crisis, add up to 50 percent of global GDP. Even if China itself cannot be a global locomotive (not even the little engine that could), a sufficient number of emerging markets jointly could lead the global economy out of recession. Controlling for all the things that make ceteris non paribus is a hopeless task. But just because it is hopeless does not mean that we can avoid it. Decisions have to be taken and choices have to be made on the basis of the best available information and analysis, even if the best is pretty crummy. It is, however, key that if it is indeed the case that the best is no good, we admit to this and don’t pretend otherwise. False certainty can be deadly.

Earlier this week, Joseph Stiglitz, told Bloomberg that the U.S. economy faces a significant chance of contracting again after emerging from the worst recession since the Great Depression of the 1930s.

“There’s a significant chance of a W, but I don’t think it’s inevitable,” … . The economy “could just bounce along the bottom.” Sure, but how does he know it whether it will be a V, a W, a rotated and reflected L, a W or double dip, a triple jump or a quadruple bypass? With a sample of at most size one to underpin one’s forecast, the quality of the argument/analysis that produces and supports the forecast is essential. The forecast itself is indeed likely to be much less important than the reasoning behind it. If the conclusion is open-ended, the story better be good.

>Forecasting: Relationship of trust is permanently damaged

>
By Chris Giles – Financial Times – October 5 2009

No one, not even the most gloomy economic forecaster, predicted the global economy’s sudden collapse a year ago. Those that said the crisis would get nasty can feel vindicated, but even they did not foresee the global crisis of confidence that followed the collapse of Lehman Brothers.

Arguably, they could not, says Bart van Ark, chief economist of the Conference Board, the global business organisation. “What you cannot forecast is a shock,” he says.

But in a less precise sense, the crisis of the past year has been the most predicted shock in history. For years, economists and officials have warned that many aspects of the world’s economic system were unsustainable.

“Even if nobody could be sure exactly when the timebomb was going to explode, it was at least useful to know we were sitting on one,” says Andrew Smith, chief economist of accountancy firm KPMG.

Most thought a crisis would arise from a loss of confidence in the dollar, resulting from the huge and prolonged US trade deficit. Instead, something similar arose after it was found that the capital flows to the US had been frittered away by banks lending money to unsuitable sub-prime borrowers and keeping those debts in their off-balance-sheet vehicles.

But though the risk of an economic crisis was regularly highlighted, it was impossible to incorporate into economic models and was therefore put to one side – filed in the “interesting and scary, but not very likely” box. That meant economic forecasts have had a terrible recent record.

Just over a year ago, in summer 2008, the International Monetary Fund thought the prospects for both 2008 and 2009 had improved and were forecasting world economic growth of 3.9 per cent in 2009 – far from a recession. The forecast was a reflection of the prevailing consensus and fears of global inflation.

Then Lehman filed for bankruptcy and economists began a painful process of recognising the likelihood of recession in the advanced world, the spread of the pain to the entire global economy and that the economic crisis was even deeper than had been thought.

By November, the IMF had almost halved its 2009 forecast to 2.2 per cent. And by April this year the Fund was talking about a “slump”, with world output sliding in 2009 by 1.4 per cent, the first drop since the second world war.

By spring 2009, the consensus of private forecasters expected the worst economic performance in the world economy since the Great Depression and little recovery in 2010.

The ever-changing outlook has raised many questions for those making policy. And yet economists have never been so uncertain about the future. It depends crucially on the financial system and its interaction with confidence and trust among people around the world.

Willem Buiter, professor of European political economy at the London School of Economics, argues that it is a fallacy to think economic models, particularly those based on history, can hope to understand the fundamental relationships in a large and complex economy. “So what is the poor economist to do when confronted with the need to make predictions or counterfactual analyses? Fundamentally, you pray and you punt,” he says.

Economists and policymakers are doing just that, alongside telling everyone that their forecasts are dependent on specific events and highly uncertain. Users of forecasts now know they cannot simply take them on trust.

In future there is also likely to be a greater tendency for economists to use their own judgment rather than the outcome of many equations run through a large computer, says Mr van Ark. “Don’t just rely on your model,” he says, “and you want to combine the short-term outlook with a longer term perspective”.

Modesty among economists is also something that will be needed in future, a soft skill that comes with difficulty to many.

But with signs that the global economy is recovering and will grow next year, the world is already hanging on forecasters’ words, however unwise that might be.

Economists will still be stuck with the problem that the unpredictable will happen. And when it does, the vast majority will have much egg on their faces.

* * *

Há paralelos muito interessantes entre o que a economia está vivendo agora, e o cotidiano da meteorologia. Ambos vivem de prognósticos sobre o futuro.

Economistas, que nos Estados Unidos gostam de atuar na área de psicologia (e vice-versa – mas psicólogos, até onde eu sei, não fazem prognósticos públicos), agora sentem na pele os dilemas e pressões só sentidas por meteorologistas.

E, com relação ao uso da experiência e do bom senso como complemento (ou no lugar de) modelos matemáticos – vide parágrafos finais do texto acima -, quando um meteorologista faz isso, é criticado por todos os lados (vide livro de Gary Alan Fine, Authors of the Storm).

>Mídias digitais no exercício da cidadania

>
Agência FAPESP

Especiais
Mídias digitais no exercício da cidadania

24/8/2009

Por Jussara Mangini

Uma equipe de profissionais de várias áreas da computação está desenvolvendo ferramentas para ajudar governos a implementar o conceito de crossmedia (uso cruzado de múltiplos meios de comunicação) em serviços eletrônicos de atendimento ao público, de modo a ampliar e facilitar a interação com os cidadãos.

Coordenado pela professora Lucia Vilela Leite Filgueiras, da Escola Politécnica da Universidade de São Paulo (USP), o Projeto X-Gov foi criado em outubro de 2007 no âmbito do Instituto Virtual de Pesquisas FAPESP-Microsoft Research. Tem como proposta facilitar o processo de produção de aplicações de mídia cruzada pelo gestor público, para que ele desenvolva serviços mais rapidamente e se beneficie das novas tecnologias.

“Acreditamos que isso será melhor para o cidadão porque a diversidade de mídias dá maior alcance e disponibilidade no acesso ao governo. Sabemos que é difícil para o gestor público criar um serviço que use de forma integrada as várias mídias. Por isso, estamos desenvolvendo um software que facilitará esse processo”, explicou Lucia à Agência FAPESP.

Embora bastante usado na publicidade e em jogos, na esfera governamental os pesquisadores não viram ainda nenhuma outra abordagem semelhante, nem no Brasil nem no exterior. De acordo com a coordenadora do projeto, o trabalho está atento à maneira como as novas gerações, mais acostumadas com as mídias digitais, vão querer se relacionar com o governo e exercitar sua cidadania nos próximos anos.

“Essa geração nativa digital – que já nasceu com celular, televisão e internet – acha muito natural trabalhar com tudo isso ao mesmo tempo. Desejamos ajudar os gestores públicos a fazer um governo eletrônico para essa geração”, disse.

Com as novas tecnologias pode-se, por exemplo, mandar uma fotografia pelo celular para mostrar que uma obra está sendo mal feita ou fazer denúncias de desrespeito às leis. Da mesma forma, órgãos públicos podem substituir cartas ou mesmo o e-mail por mensagens de celular (SMS) para notificar as pessoas mais rapidamente sobre o andamento de determinados processos.

“O governo está começando a usar essas mídias, mas ainda de forma não integrada e com muito esforço, porque cada sistema tem que desenvolver tudo de novo. Uma prefeitura, por exemplo, tem que treinar um técnico de informática no desenvolvimento de software para celular, SMS, TV digital, etc. Queremos facilitar esse processo”, indicou Lucia.

O Projeto X-Gov permitirá transições entre mídias: e-mail, SMS, TV digital, web, códigos de barras bidimensionais, click to call e outros. A ideia é que o link entre celular e TV possibilite que um determinado conteúdo acessado por celular – um vídeo de instruções, por exemplo – seja exibido também na televisão, sem prejuízo ao que estava acontecendo no celular.

“Já a transição click to call possibilitará ao cidadão que estiver navegando pelo website solicitar ajuda via telefone, apenas clicando em um botão do navegador que, automaticamente, realizará uma ligação para o usuário”, disse Lucia.

No desenvolvimento do servidor que faz toda a orquestração dos usuários no crossmedia, os pesquisadores estão criando uma linguagem de programação específica e trabalhando na comunicação entre o sistema e o gestor público, para facilitar que esse crie o plano de seu serviço.

Processo de criação

Segundo a professora da Poli, uma das grandes vantagens para o gestor público é que no X-Gov a questão de compatibilidade foi muito bem resolvida, usando-se arquitetura de serviços web, que é um padrão bem aceito no governo e que dá muita flexibilidade na integração com os sistemas atuais.

Esse tipo de software é chamado de framework (arcabouço) e serve como um esqueleto sobre o qual os desenvolvedores do governo criarão seus projetos.

“Como não há serviços crossmedia disponíveis no governo para análise, o arcabouço está sendo construído a partir de sucessivas provas de conceito, cada uma focada em uma funcionalidade específica, de modo que cada ciclo contribua para a evolução da arquitetura final”, explicou Lucia.

Para chegar a isso, a equipe cria um serviço fictício, estuda como esse serviço funciona e congela uma parte dele no esqueleto. São os chamados padrões de tarefa – uma abstração de algo que todo mundo faz. Por exemplo, em comércio eletrônico um padrão de tarefa é o uso de um carrinho de compras. Todo site que tem um funciona mais ou menos do mesmo jeito.

No governo eletrônico também é assim. Foram definidos 18 padrões de tarefa e para cada um deles a equipe do X-Gov está criando softwares para três meios de comunicação: web, celular e TV digital. Isso significa que serão orquestrados em torno de 54 componentes. A cada semana, a equipe tem acrescentado cerca de três novos componentes ao conjunto.

A previsão é que o framework esteja funcionado até outubro, com os componentes dos blocos de construção das tarefas de governo e das transições entre mídias. A partir daí a equipe deseja realizar uma etapa de testes com usuários.

A implementação, na prática, dependerá da aceitação e interesse dos gestores públicos. A equipe do X-Gov estima que o uso será muito natural para os “nativos digitais”.

* * *

Não é notável o contraste do tom entre esse artigo e a entrevista com o Martín-Barbero anteriormente postada? É impressionante a forma como a idéia de “cidadania” é simplificada, neste texto, a ponto de ser entendida como relação de comunicação, geralmente unidirecional, com o Estado.