Arquivo mensal: março 2010

>Google, China and hacktivism (N.Y.Times)

>
Google Links Web Attacks to Vietnam Mine Dispute

By BETTINA WASSENER
The New York Times, March 31, 2010

HONG KONG — Google, fresh off a dispute with China over censorship and intrusion from hackers, says it has identified cyber-attacks aimed at silencing critics of a controversial, Chinese-backed bauxite mining project in Vietnam.

In attacks it described as similar to but less sophisticated than those at the core of its spat with China, Google said malicious software was used to infect “potentially tens of thousands of computers,” broadly targeting Vietnamese speaking computer users around the world.

Infected machines had been used to spy on their owners and to attack blogs containing messages of political dissent, wrote Neel Mehta of the company’s security team in a post late Tuesday on Google’s online security blog.

McAfee, the computer security firm, said in a separate blog posting that it believed “the perpetrators may have political motivations and may have some allegiance to the government of the Socialist Republic of Vietnam.”

It added: “This incident underscores that not every attack is motivated by data theft or money. This is likely the latest example of hacktivism and politically motivated cyberattacks, which are on the rise.”

Google said that while the malware itself was not especially sophisticated, “it has nonetheless been used for damaging purposes.”

“Specifically, these attacks have tried to squelch opposition to bauxite mining efforts in Vietnam, an important and emotionally charged issue in the country.”

Bauxite is a key mineral in making aluminum and one of Vietnam’s most valuable natural resources. Plans by the Vietnamese government to exploit bauxite in the Central Highlands region, in partnership with a Chinese state-run company, have generated much local criticism, including from a well-known war hero, Gen. Vo Nguyen Giap.

General Giap and other opponents say the project will be ruinous to the environment, displace ethnic minority populations and threaten the south-east Asian country’s national security with an influx of Chinese workers and economic leverage.

The role of China in the bauxite project also has stirred up anger in a nation that still fears its bigger neighbor: Vietnam was a tributary state of China for 1,000 years and was invaded by China in 1979, and the two countries continue to joust for sovereignty in the South China Sea.

>Referência em previsões climáticas

>
Agência FAPESP – 26/3/2010

O Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Instituto Nacional de Pesquisas Espaciais (Inpe), passará a integrar um seleto grupo de centros mundiais de previsão climática sazonal.

O centro foi recomendado pela Comissão para Sistemas Básicos da Organização Meteorológica Mundial (OMM) como um Global Producing Center (GPC) ou Centro Produtor Global de previsões de longo prazo.

Após confirmação da OMM – prevista para junho deste ano – o CPTEC receberá um selo de qualidade para suas previsões climáticas sazonais. Segundo avaliação dos especialistas da OMM, o CPTEC atende a vários critérios, com destaque para a metodologia empregada, disseminação de produtos de previsão na internet e existência de um ciclo operacional fixo de previsão climática sazonal.

Em contrapartida, o centro passará a participar de atividades internacionais da OMM, contribuindo com o Centro de Verificação de Previsão de Longo Prazo. Desde 2006, a OMM, por meio do Programa Global de Processamento de Dados e Sistemas de Previsão, passou a atestar a qualidade dos centros de pesquisa e de previsão climática que atendam a determinados quesitos, intitulando-os GPCs de previsões de longo prazo.

Com a recomendação, o CPTEC passará também a integrar um grupo de centros mundiais de previsão climática sazonal, como os National Centers for Environmental Prediction (Estados Unidos), o European Centre for Medium-Range Weather Forecasts (União Europeia), o UK Met Office (Reino Unido), o Meteo-France, o Metorological Service of Canada, o Bureau of Meteorology da Austrália e o Japan Meteorological Agency, entre outros.

>UnB forma primeira aluna indígena

>
UNB Agência de Notícias, 24/03/2010

Maria Amazonir, da etnia Fulni-ô, é a primeira aluna indígena a graduar-se na UnB. Ela recebeu o diploma de bacharel em Comunicação Social na última quarta feira, dia 17 de março. Amazonir está entre os 60 estudantes indígenas que entraram na UnB desde que o convênio com a Funai foi firmado, em 2004. Como jornalista, Amazonir pretende mudar a forma como os indígenas são tratados pela mídia.

Maria Amazonir entrou na UnB no primeiro semestre de 2004, por meio de transferência facultativa. Segundo ela, já trabalhava com Comunicação em sua aldeia, de forma amadora, organizando eventos e palestras para as crianças sobre conscientização dos seus direitos, mas não pensava em ser jornalista. “Era o que eu gostava de fazer e queria me profissionalizar nesta área. Mas a palavra ’jornalista’ parecia grande demais para a minha realidade. Quando mencionava, era ridicularizada pelos outros”, conta Amazonir.

Mas Amazonir não desistiu do que queria. Conseguiu ajuda de uma colega, que pagou cursinho para ela. Passou em uma faculdade particular, conseguiu fazer a matrícula com dinheiro emprestado, mas logo saiu o convênio da Funai com a UnB e a estudante conseguiu a transferência facultativa.

A estudante escolheu Jornalismo porque percebeu que havia pouco espaço para os povos indígenas na mídia e acreditava que isso se devia à falta de profissionais na área. Agora que se formou, quer dar continuidade ao trabalho que começou com seu projeto de conclusão de curso, um programa para debater questões indígenas sob o ponto de vista do índio. “Não é justa a forma de como os meios de comunicação e principalmente a televisão tratam a imagem do índio. Não somos mais dependentes, somos capazes de desenvolver qualquer função social e/ou cultural que o não-índio desenvolve”, defende.

O coordenador acadêmico dos Alunos Indígenas, Paulo Câmara, comemora a formatura de Amazonir. “É chato quando ouvimos que os índios não devem estar aqui, que universidade é só para a elite intelectual. Por isso é muito bom ver a Amazonir se formar com bom rendimento”, enfatiza.

A decana de Ensino de Graduação, Márcia Abrahão, que estava na colação de grau da aluna, acredita que a formatura de Amazonir representa a vitória da diversidade. Segundo ela, a ambientação dos alunos indígenas e o choque de cultura são desafios que ainda precisam ser contornados. “Mesmo assim, sentimos que estamos contribuindo para o desenvolvimento do país e, por outro lado, estamos ganhando, aprendendo com a cultura desses estudantes”, explica.

A UnB tem hoje 60 alunos indígenas, que entram por meio de convênio firmado entre a Funai e a UnB. A universidade disponibiliza as vagas, e a Funai oferece bolsas de permanência, que variam entre R$ 150 e R$ 900. Em 2004, quando a parceria começou, os estudantes ingressavam por transferência facultativa. Desde 2005, a seleção é feita anualmente por vestibular específico, que ano passado teve 162 inscritos para preencher dez vagas nos cursos de Agronomia, Enfermagem e Obstetrícia, Engenharia Florestal, Medicina e Nutrição.

Dificuldade de entrosamento

Camila de Magalhães
Correio Braziliense, 24/06/2009

“Caí de paraquedas na universidade”, relata Amazonir. “Quando fui jogada aqui, era que nem cego em tiroteio, acho injusto fazerem isso”, reclama. A indígena diz que sofreu muito para acompanhar os textos dados em aula. E afirma que tinha vergonha de perguntar o que era resenha ou fichamento, para não parecer ignorante.

O que mais valeu a pena, na avaliação da jornalista, foi a base acadêmica adquirida no período. No entanto, a adaptação com os colegas foi o mais difícil. “A gente tem um sentimento de inferioridade, me sinto diferente”, comenta.

Quando andava sozinha, as pessoas não percebiam sua origem pela aparência, mas ao passear pelas ruas com o ex-marido e as filhas, ela diz que as pessoas tinham um olhar desconfiado, por conta dos fortes traços indígenas. Junto com a necessidade de dedicação ao curso, o preconceito foi um dos motivos para que o companheiro quisesse deixar Brasília e voltar para a aldeia.

Para Amazonir, seu sotaque também foi um empecilho na universidade. “Fazia de tudo para não falar porque eu abria a boca e as pessoas perguntavam de onde eu era”, observa. Durante os cinco anos de experiência acadêmica, a indigena conta que não fez amizades porque a diferença de idade atrapalhava (os alunos eram mais novos) e ela não se enquadrava no tipo de grupo que faz trabalho e vai para o barzinho. “Prefiro ficar de for a, é uma auto-defesa”.

>The beginning of modern tornado forecasting

>
Fawbush and Miller

By Bill Murray
Whatever-weather.com, March 20, 2010

The Californian had little experience with forecasting Midwestern weather. He had been at Tinker Air Force Base in Oklahoma less than three weeks. When World War II broke out, he left his classes at Occidental College where he was enrolled, and enlisted in the Army Air Corps. He ended up in the weather forecaster school in Grand Rapids, Michigan. The demand was so great that new forecasters were put to work after a hurried nine month course in meteorology. His tours of duty were mainly in the South Pacific, forecasting weather for the forces that were battling the Axis. He was eventually promoted to the rank of Captain.

At the end of the war, he was assigned to Fort Benning in Georgia, where he honed his ability to map out the details of weather at different altitudes and visualize those details. This ability to understand a three dimensional picture of the atmosphere is critical to weather forecasting. On the afternoon of March 20, 1948, he plotted the weather at the surface and aloft across the vast and flat terrain of the American Plains. There was nothing on the charts out of the ordinary It looked like a dry and boring forecast with just some gusty winds through the evening hours.

He settled in to get acquainted with the backup forecaster, who was also from California. About 9 p.m., much to the forecasters’ surprise, they began to see surface reports of lightning from stations just to the southwest and west of Oklahoma City. Echoes appeared on their weather radar, less than twenty minutes away. The backup forecaster, a Staff Sergeant, sat down to type up a warning that thunderstorms were approaching. To their horror, at 9:52 p.m., a report streamed across the teletype from Will Rogers Airport, just seven miles to their southwest that a tornado was on the ground, visible from the airport. Sure enough, illuminated by lightning, a huge funnel was visible almost immediately. It roared across the base, doing $10 million worth of damage and injuring several personnel.

There were recriminations immediately. A panel of investigators from Washington flew in the next morning. The nervous weather officer and his superior answered questions. The board of inquiry listened to the facts and quickly rendered a decision. The event was not forecastable given the state of the art in meteorology. But later that day, Colonel Robert Miller and Major Ernest Fawbush were summoned to the Commanding General’s office. He directed Fawbush and Miller to investigate the possibility of forecasting tornadoes.

They reviewed the weather charts from the day before, as well as those from other tornadic events. They identified that tornadoes seemed to occur in warm, moist airmasses, with strong winds aloft. But the difficulty lay in delineating the areas which were most likely to experience the destructive storms. Issuing a tornado forecast for a single point seemed improbable.

But less than a week later on the 25th, Fawbush and Miller looked at their weather charts and then at each other. The weather pattern looked nearly identical to that of the 20th. What were the odds that another tornado would strike the base? Infinitesimal. They went to the General and told him what they saw. The General ordered the base secured. They reconvened with the General at early afternoon. It was then that they issued the first tornado forecast. Sure enough, a tornado moved across the well-prepared base that evening.

It was the beginning of modern tornado forecasting.

[This is one more historical example of the fact that unpredictability raises the specter of blame and accountability to forecasters. RT]

>Understanding Scientific Terms About Climate Change

>
Certainty vs. Uncertainty

Union of Concerned Scientists – http://www.ucsusa.org
Last Revised: 03/17/10

Uncertainty is ubiquitous in our daily lives. We are uncertain about where to go to college, when and if to get married, who will play in the World Series, and so on.

To most of us, uncertainty means not knowing. To scientists, however, uncertainty is how well something is known. And, therein lies an important difference, especially when trying to understand what is known about climate change.

In science, there’s no such thing as absolute certainty. But, research reduces uncertainty. In many cases, theories have been tested and analyzed and examined so thoroughly that their chance of being wrong is infinitesimal. Other times, uncertainties linger despite lengthy research. In those cases, scientists make it their job to explain how well something is known. When gaps in knowledge exist, scientists qualify the evidence to ensure others don’t form conclusions that go beyond what is known.

Even though it may seem counterintuitive, scientists like to point out the level of uncertainty. Why? Because they want to be as transparent as possible and it shows how well certain phenomena are understood. Scientists have even developed their own phrasing regarding uncertainty, such as “very high confidence” (9 out of 10 chances of being correct) about a certain fact and “very likely” (90 chances out of 100) to describe the chance of an outcome.

Decision makers in our society use scientific input all the time. But they could make a critically wrong choice if the unknowns aren’t taken into account. For instance, city planners could build a levee too low or not evacuate enough coastal communities along an expected landfall zone of a hurricane if uncertainty is understated. For these reasons, uncertainty plays a key role in informing public policy.

However, this culture of transparency has caused problems for climate change science. Climate change deniers link certainty projections with not knowing anything. The truth is, science knows much about climate change. We have learned, for example, that the burning of fossil fuels and the clearing or burning of land creates carbon dioxide (CO2), which is released into the atmosphere. There is no uncertainty about this. We have learned that carbon dioxide and other greenhouse gases build up in the atmosphere and trap heat through the greenhouse effect.

Again, there is no uncertainty about this. Earth is warming, and scientists are very certain that humans are the main reason for the world’s temperature increase in the past 50 years.

Scientists know with very high confidence, or even greater certainty, that:

  • Human-induced warming influences physical and biological systems throughout the world
  • Sea levels are rising
  • Glaciers and permafrost are shrinking
  • Oceans are becoming more acidic
  • Ranges of plants and animals are shifting

Scientists are uncertain, however, about how much global warming will occur in the future (between 2.1 degrees and 11 degrees Fahrenheit by 2100). They are also uncertain how soon the sea ice habitat where the ringed seal lives will disappear. Curiously, much of this uncertainty has to do with—are you ready?—humans. The choices we make in the next decade, or so, to reduce emissions of heat-trapping gasses could prevent catastrophic climate change.

So, what’s the bottom line? Science has learned much about climate change. Science tells us what is more or less likely to be true. The latest climate science underscores that there’s an urgent need to reduce heat-trapping emissions. And that is certain.

Table: Language to describe confidence about facts and the likelihood of an outcome.  SOURCE: IPCC WGI (2007).

Terminology for describing confidence about facts
Very High confidence At least 9 out of 10 chance of being correct
High confidence About 8 out of 10 chance
Medium confidence About 5 out of 10 chance
Low confidence About 2 out of 10 chance
Very low confidence Less than 1 out of 10 chance

Terminology for describing likelihood of an outcome
Virtually certain More than 99 chances out of 100
Extremely likely More than 95 chances out of 100
Very likely More than 90 chances out of 100
Likely More than 65 chances out of 100
More likely than not More than 50 chances out of 100


>The clouds of unknowing (The Economist)

>
The science of climate change

There are lots of uncertainties in climate science. But that does not mean it is fundamentally wrong

Mar 18th 2010 | From The Economist print edition

FOR anyone who thinks that climate science must be unimpeachable to be useful, the past few months have been a depressing time. A large stash of e-mails from and to investigators at the Climatic Research Unit of the University of East Anglia provided more than enough evidence for concern about the way some climate science is done. That the picture they painted, when seen in the round—or as much of the round as the incomplete selection available allows—was not as alarming as the most damning quotes taken out of context is little comfort. They offered plenty of grounds for both shame and blame.

At about the same time, glaciologists pointed out that a statement concerning Himalayan glaciers in the most recent report of the Intergovernmental Panel on Climate Change (IPCC) was wrong. This led to the discovery of other poorly worded or poorly sourced claims made by the IPCC, which seeks to create a scientific consensus for the world’s politicians, and to more general worries about the panel’s partiality, transparency and leadership. Taken together, and buttressed by previous criticisms, these two revelations have raised levels of scepticism about the consensus on climate change to new heights.

Increased antsiness about action on climate change can also be traced to the recession, the unedifying spectacle of last December’s climate-change summit in Copenhagen, the political realities of the American Senate and an abnormally cold winter in much of the northern hemisphere. The new doubts about the science, though, are clearly also a part of that story. Should they be?

In any complex scientific picture of the world there will be gaps, misperceptions and mistakes. Whether your impression is dominated by the whole or the holes will depend on your attitude to the project at hand. You might say that some see a jigsaw where others see a house of cards. Jigsaw types have in mind an overall picture and are open to bits being taken out, moved around or abandoned should they not fit. Those who see houses of cards think that if any piece is removed, the whole lot falls down. When it comes to climate, academic scientists are jigsaw types, dissenters from their view house-of-cards-ists.

The defenders of the consensus tend to stress the general consilience of their efforts—the way that data, theory and modelling back each other up. Doubters see this as a thoroughgoing version of “confirmation bias”, the tendency people have to select the evidence that agrees with their original outlook. But although there is undoubtedly some degree of that (the errors in the IPCC, such as they are, all make the problem look worse, not better) there is still genuine power to the way different arguments and datasets in climate science tend to reinforce each other.

The doubters tend to focus on specific bits of empirical evidence, not on the whole picture. This is worthwhile—facts do need to be well grounded—but it can make the doubts seem more fundamental than they are. People often assume that data are simple, graspable and trustworthy, whereas theory is complex, recondite and slippery, and so give the former priority. In the case of climate change, as in much of science, the reverse is at least as fair a picture. Data are vexatious; theory is quite straightforward. Constructing a set of data that tells you about the temperature of the Earth over time is much harder than putting together the basic theoretical story of how the temperature should be changing, given what else is known about the universe in general.

Absorb and reflect

The most relevant part of that universal what-else is the requirement laid down by thermodynamics that, for a planet at a constant temperature, the amount of energy absorbed as sunlight and the amount emitted back to space in the longer wavelengths of the infra-red must be the same. In the case of the Earth, the amount of sunlight absorbed is 239 watts per square metre. According to the laws of thermodynamics, a simple body emitting energy at that rate should have a temperature of about –18ºC. You do not need a comprehensive set of surface-temperature data to notice that this is not the average temperature at which humanity goes about its business. The discrepancy is due to greenhouse gases in the atmosphere, which absorb and re-emit infra-red radiation, and thus keep the lower atmosphere, and the surface, warm (see the diagram below). The radiation that gets out to the cosmos comes mostly from above the bulk of the greenhouse gases, where the air temperature is indeed around –18ºC.

Adding to those greenhouse gases in the atmosphere makes it harder still for the energy to get out. As a result, the surface and the lower atmosphere warm up. This changes the average temperature, the way energy moves from the planet’s surface to the atmosphere above it and the way that energy flows from equator to poles, thus changing the patterns of the weather.

No one doubts that carbon dioxide is a greenhouse gas, good at absorbing infra-red radiation. It is also well established that human activity is putting more of it into the atmosphere than natural processes can currently remove. Measurements made since the 1950s show the level of carbon dioxide rising year on year, from 316 parts per million (ppm) in 1959 to 387ppm in 2009. Less direct records show that the rise began about 1750, and that the level was stable at around 280ppm for about 10,000 years before that. This fits with human history: in the middle of the 18th century people started to burn fossil fuels in order to power industrial machinery. Analysis of carbon isotopes, among other things, shows that the carbon dioxide from industry accounts for most of the build-up in the atmosphere.

The serious disagreements start when discussion turns to the level of warming associated with that rise in carbon dioxide. For various reasons, scientists would not expect temperatures simply to rise in step with the carbon dioxide (and other greenhouse gases). The climate is a noisy thing, with ups and downs of its own that can make trends hard to detect. What’s more, the oceans can absorb a great deal of heat—and there is evidence that they have done so—and in storing heat away, they add inertia to the system. This means that the atmosphere will warm more slowly than a given level of greenhouse gas would lead you to expect.

There are three records of land-surface temperature put together from thermometer readings in common use by climatologists, one of which is compiled at the Climatic Research Unit of e-mail infamy. They all show warming, and, within academia, their reliability is widely accepted. Various industrious bloggers are not so convinced. They think that adjustments made to the raw data introduce a warming bias. They also think the effects of urbanisation have confused the data because towns, which are sources of heat, have grown up near weather stations. Anthony Watts, a retired weather forecaster who blogs on climate, has set up a site, surfacestations.org, where volunteers can help record the actual sites of weather instruments used to provide climate data, showing whether they are situated close to asphalt or affected by sources of bias.

Those who compile the data are aware of this urban heat-island effect, and try in various ways to compensate for it. Their efforts may be insufficient, but various lines of evidence suggest that any errors it is inserting are not too bad. The heat-island effect is likely to be strongest on still nights, for example, yet trends from data recorded on still nights are not that different from those from windy ones. And the temperature of waters at the surface of the seas shows similar trends to that on land over the past century, as does the record of air temperature over the oceans as measured at night (see chart 1).

A recent analysis by Matthew Menne and his colleagues at America’s National Oceanic and Atmospheric Administration, published in the Journal of Geophysical Research, argued that trends calculated from climate stations that surfacestation.org found to be poorly sited and from those it found well sited were more or less indistinguishable. Mr Watts has problems with that analysis, and promises a thorough study of the project’s findings later.

There is undoubtedly room for improvement in the surface-temperature record—not least because, at the moment, it provides only monthly mean temperatures, and there are other things people would like to know about. (When worrying about future heatwaves, for example, hot days and nights, not hot months, are the figures of most interest.) In February Britain’s Met (ie, meteorological) Office called for the creation of a new set of temperature databases compiled in rigorously transparent ways and open to analysis and interpretation by all and sundry. Such an initiative would serve science well, help restore the credibility of land-surface records, and demonstrate an openness on the part of climate science which has not always been evident in the past.

Simplify and amplify

For many, the facts that an increase in carbon dioxide should produce warming, and that warming is observed in a number of different indicators and measurements, add up to a primafacie case for accepting that greenhouse gases are warming the Earth and that the higher levels of greenhouse gases that business as usual would bring over the course of this century would warm it a lot further.

The warming caused by a given increase in carbon dioxide can be calculated on the basis of laboratory measurements which show how much infra-red radiation at which specific wavelengths carbon dioxide molecules absorb. This sort of work shows that if you double the carbon dioxide level you get about 1ºC of warming. So the shift from the pre-industrial 280ppm to 560ppm, a level which on current trends might be reached around 2070, makes the world a degree warmer. If the level were to double again, to 1,100ppm, which seems unlikely, you would get another degree.

The amount of warming expected for a doubling of carbon dioxide has become known as the “climate sensitivity”—and a climate sensitivity of one degree would be small enough to end most climate-related worries. But carbon dioxide’s direct effect is not the only thing to worry about. Several types of feedback can amplify its effect. The most important involve water vapour, which is now quite well understood, and clouds, which are not. It is on these areas that academic doubters tend to focus.

As carbon dioxide warms the air it also moistens it, and because water vapour is a powerful greenhouse gas, that will provide further warming. Other things people do—such as clearing land for farms, and irrigating them—also change water vapour levels, and these can be significant on a regional level. But the effects are not as large.

Climate doubters raise various questions about water vapour, some trivial, some serious. A trivial one is to argue that because water vapour is such a powerful greenhouse gas, carbon dioxide is unimportant. But this ignores the fact that the level of water vapour depends on temperature. A higher level of carbon dioxide, by contrast, governs temperature, and can endure for centuries.

A more serious doubting point has to do with the manner of the moistening. In the 1990s Richard Lindzen, a professor of meteorology at the Massachusetts Institute of Technology, pointed out that there were ways in which moistening might not greatly enhance warming. The subsequent two decades have seen much observational and theoretical work aimed at this problem. New satellites can now track water vapour in the atmosphere far better than before (see chart 2). As a result preliminary estimates based on simplifications have been shown to be reasonably robust, with water-vapour feedbacks increasing the warming to be expected from a doubling of carbon dioxide from 1ºC without water vapour to about 1.7ºC. Dr Lindzen agrees that for parts of the atmosphere without clouds this is probably about right.

This moistening offers a helpful way to see what sort of climate change is going on. When water vapour condenses into cloud droplets it gives up energy and warms the surrounding air. This means that in a world where greenhouse warming is wetting the atmosphere, the lower parts of the atmosphere should warm at a greater rate than the surface, most notably in the tropics. At the same time, in an effect that does not depend on water vapour, an increase in carbon dioxide will cause the upper stratosphere to cool. This pattern of warming down below and cooling up on top is expected from greenhouse warming, but would not be expected if something other than the greenhouse effect was warming the world: a hotter sun would heat the stratosphere more, not less.

During the 1990s this was a point on which doubters laid considerable weight, because satellite measurements did not show the warming in the lower atmosphere that theory would predict. Over the past ten years, though, this picture has changed. To begin with, only one team was turning data from the relevant instruments that have flown on weather satellites since the 1970s into a temperature record resolved by altitude. Now others have joined them, and identified errors in the way that the calculations (which are complex and depend on a number of finicky details) were carried out. Though different teams still get different amounts and rates of warming in the lower atmosphere, there is no longer any denying that warming is seen. Stratospheric cooling is complicated by the effects of ozone depletion, but those do not seem large enough to account for the degree of cooling that has been seen there, further strengthening the case for warming by the greenhouse effect and not some other form of climate perturbation.

On top of the effect of water vapour, though, the clouds that form from it provide a further and greater source of uncertainty. On the one hand, the droplets of water of which these are made also have a strong greenhouse effect. On the other, water vapour is transparent, whereas clouds reflect light. In particular, they reflect sunlight back into space, stopping it from being absorbed by the Earth. Clouds can thus have a marked cooling effect and also a marked warming effect. Which will grow more in a greenhouse world?

Model maze

It is at this point that detailed computer models of the climate need to be called into play. These models slice the atmosphere and oceans into stacks of three-dimensional cells. The state of the air (temperature, pressure, etc) within each cell is continuously updated on the basis of what its state used to be, what is going on in adjacent cells and the greenhousing and other properties of its contents.

These models are phenomenally complex. They are also gross oversimplifications. The size of the cells stops them from explicitly capturing processes that take place at scales smaller than a hundred kilometres or so, which includes the processes that create clouds.

Despite their limitations, climate models do capture various aspects of the real world’s climate: seasons, trade winds, monsoons and the like. They also put clouds in the places where they are seen. When used to explore the effect of an increase in atmospheric greenhouse gases on the climate these models, which have been developed by different teams, all predict more warming than greenhouse gases and water-vapour feedback can supply unaided. The models assessed for the IPCC’s fourth report had sensitivities ranging from 2.1ºC to 4.4ºC. The IPCC estimated that if clouds were not included, the range would be more like 1.7ºC to 2.1ºC. So in all the models clouds amplify warming, and in some the amplification is large.

However, there are so far no compelling data on how clouds are affecting warming in fact, as opposed to in models. Ray Pierrehumbert, a climate scientist at the University of Chicago who generally has a strong way with sceptics, is happy to agree that there might be processes by which clouds rein in, rather than exaggerate, greenhouse-warming effects, but adds that, so far, few have been suggested in any way that makes sense.

Dr Lindzen and a colleague suggested a plausible mechanism in 2001. They proposed that tropical clouds in an atmosphere with more greenhouse gas might dry out neighbouring parts of the sky, making them more transparent to outgoing infra-red. The evidence Dr Lindzen brought to bear in support of this was criticised in ways convincing enough to discourage other scientists from taking the idea further. A subsequent paper by Dr Lindzen on observations that would be compatible with his ideas about low sensitivity has also suffered significant criticisms, and he accepts many of them. But having taken them on board has not, he thinks, invalidated his line of research.

Arguments based on past climates also suggest that sensitivity is unlikely to be low. Much of the cooling during the ice ages was maintained by the presence of a large northern hemisphere ice cap reflecting away a lot of sunlight, but carbon dioxide levels were lower, too. To account for all of the cooling, especially in the southern hemisphere, is most easily done with a sensitivity of temperature to carbon dioxide higher than Dr Lindzen would have it.

Before the ice age, the Earth had a little more carbon dioxide and was a good bit warmer than today—which suggests a fairly high sensitivity. More recently, the dip in global temperatures after the eruption of Mt Pinatubo in the Philippines in 1991, which inserted a layer of sunlight-diffusing sulphur particles into the stratosphere, also bolsters the case for a sensitivity near the centre of the model range—although sensitivity to a transient event and the warming that follows a slow doubling of carbon dioxide are not exactly the same sort of thing.

Logs and blogs

Moving into data from the past, though, brings the argument to one of the areas that blog-based doubters have chosen as a preferred battleground: the temperature record of the past millennium, as construed from natural records that are both sensitive to temperature and capable of precise dating. Tree rings are the obvious, and most controversial, example. Their best known use has been in a reconstruction of temperatures over the past millennium published in Nature in 1998 and widely known as the hockey stick, because it was mostly flat but had a blade sticking up at the 20th-century end. Stephen McIntyre, a retired Canadian mining consultant, was struck by the very clear message of this graph and delved into the science behind it, a process that left him and followers of his blog, Climate Audit, intensely sceptical about its value.

In 2006 a review by America’s National Research Council endorsed points Mr McIntyre and his colleagues made on some methods used to make the hockey stick, and on doubts over a specific set of tree rings. Despite this it sided with the hockey stick’s overall conclusion, which did little to stem the criticism. The fact that tree-ring records do not capture recent warming adds to the scepticism about the value of such records.

For many of Mr McIntyre’s fans (though it is not, he says, his central concern) the important thing about this work is that the hockey stick seemed to abolish the “medieval warm period”. This is a time when temperatures are held to have been as high as or higher than today’s—a warmth associated with the Norse settlement of Greenland and vineyards in England. Many climate scientists suspect this phenomenon was given undue prominence by climatologists of earlier generations with an unduly Eurocentric view of the world. There is evidence for cooling at the time in parts of the Pacific.

Doubters for the most part are big fans of the medieval warm period, and see in the climate scientists’ arguments an attempt to rewrite history so as to maximise the drama of today’s warming and minimise the possibility that natural variation might explain the 20th-century record. The possibility of more climatic variability, though, does not, in itself, mean that greenhouse warming is not happening too. And if the medieval warmth were due to some external factor, such as a slightly brighter sun, that would suggest that the climate was indeed quite sensitive.

Looking at the more recent record, logged as it has been by thermometers, you might hope it could shed light on which of the climate models is closest to being right, and thus what the sensitivity actually is. Unfortunately, other confounding factors make this difficult. Greenhouse gases are not the only climatically active ingredients that industry, farming and land clearance add to the atmosphere. There are also aerosols—particles of pollution floating in the wind. Some aerosols cool the atmosphere. Other, sootier, ones warm it. The aggregate effect, globally, is thought to be a cooling, possibly a quite strong one. But the overall history of aerosols, which are mostly short-lived, is nothing like as well known as that of greenhouse gases, and it is unlikely that any of the models are properly capturing their chemistry or their effects on clouds.

Taking aerosols into account, climate models do a pretty good job of emulating the climate trends of the 20th century. This seems odd, since the models have different sensitivities. In practice, it appears that the way the aerosols are dealt with in the models and the sensitivity of those models tend to go hand in hand; sensitive models also have strong cooling aerosol effects.

Reto Knutti of ETH Zurich, an expert on climate sensitivity, sees this as evidence that, consciously or unconsciously, aerosols are used as counterweights to sensitivity to ensure that the trends look right. This is not evidence of dishonesty, and it is not necessarily a bad thing. Since the models need to be able to capture the 20th century, putting them together in such a way that they end up doing so makes sense. But it does mean that looking at how well various models match the 20th century does not give a good indication of the climate’s actual sensitivity to greenhouse gas.

Adding the uncertainties about sensitivity to uncertainties about how much greenhouse gas will be emitted, the IPCC expects the temperature to have increased by 1.1ºC to 6.4ºC over the course of the 21st century. That low figure would sit fairly well with the sort of picture that doubters think science is ignoring or covering up. In this account, the climate has natural fluctuations larger in scale and longer in duration (such as that of the medieval warm period) than climate science normally allows, and the Earth’s recent warming is caused mostly by such a fluctuation, the effects of which have been exaggerated by a contaminated surface-temperature record. Greenhouse warming has been comparatively minor, this argument would continue, because the Earth’s sensitivity to increased levels of carbon dioxide is lower than that seen in models, which have an inbuilt bias towards high sensitivities. As a result subsequent warming, even if emissions continue full bore, will be muted too.

It seems unlikely that the errors, misprisions and sloppiness in a number of different types of climate science might all favour such a minimised effect. That said, the doubters tend to assume that climate scientists are not acting in good faith, and so are happy to believe exactly that. Climategate and the IPCC’s problems have reinforced this position.

Using the IPCC’s assessment of probabilities, the sensitivity to a doubling of carbon dioxide of less than 1.5ºC in such a scenario has perhaps one chance in ten of being correct. But if the IPCC were underestimating things by a factor of five or so, that would still leave only a 50:50 chance of such a desirable outcome. The fact that the uncertainties allow you to construct a relatively benign future does not allow you to ignore futures in which climate change is large, and in some of which it is very dangerous indeed. The doubters are right that uncertainties are rife in climate science. They are wrong when they present that as a reason for inaction.

Comments to this article here.

>What is the best way to provide people with information about climate change?

>
Nov 7th, 2009
Climate Central

There are many ways that people can benefit from having information about climate change, including being able to make informed policy and management decisions. This is one reason why people are talking about creating a national climate service. So, what functions would a national climate service provide?

A good place to start is with an organization that has a similar name and purpose—the National Weather Service, a government agency that was established in the late 1800s. The importance of the Weather Service is almost too obvious to mention. Without accurate reports about the current weather and predictions of future weather, planes would fly into thunderstorms unawares, ships would plow directly into hurricanes and typhoons, and people wouldn’t know about blizzards barreling down on them. Also, planning for pretty much any outdoor activity would become a lot more difficult. Without good weather forecasts, the losses in economic terms and in human lives would be huge.

Climate change unfolds on a slower scale—over decades rather than in hours. But now that we know it is happening, the need for forecasting how climate change will impact us has become clear as well. Knowing how much sea level is likely to rise, and how quickly, is crucial to knowing how to protect coastal areas from increased damage. Knowing how hurricane frequency and strength might change could affect building codes and evacuation strategies. Knowing how the intensity and frequency of droughts and heat waves might change would help city and regional planners manage water resources and mitigate threats to local economies.

The knowledge that these changes will come mostly from an increase in atmospheric levels of greenhouse gases could inform decisions about how to produce and use energy, and whether to develop alternative energy and other green technologies. If the world decides that limiting climate change is a priority, then this green technology could be an economic boon to the countries that perfect it.

Realizing that businesses, local governments, and individuals need the most reliable forecasts possible of how, when, and where the climate is likely to change, and what the impacts might be, universities, government agencies, and private companies have come together over the past year or so to figure out how such an entity might operate—how it would organize information and how it would deliver that information in the most useful way.

>O Globo nega-se a publicar anúncio de campanha pró cotas raciais

>
COTAS RACIAIS
O Globo nega-se a publicar anúncio

Por Mariana Martins em 17/3/2010
Observatório da Imprensa

Reproduzido do Observatório do Direito à Comunicação, 16/3/2010; título original “O Globo nega-se a publicar anúncio de campanha pró cotas”

A negativa do jornal O Globo, no início do mês, em publicar uma peça publicitária da campanha “Afirme-se” em defesa das ações afirmativas relacionadas à questão racial recoloca de forma explícita um importante debate acerca do direito à comunicação. O episódio estabelece uma situação de fato em que liberdade de expressão é confundida com liberdade comercial das empresas privadas de comunicação. A publicação, mais antigo veículo do maior grupo de comunicação do país, alega seguir uma política comercial específica para o que chama “peças de opinião” e, por esta razão, teria mais que decuplicado o valor a ser cobrado pela veiculação do anúncio ao tomar conhecimento de que se tratava de uma campanha pró cotas.

O pesquisador sênior da Universidade de Brasília Venício A. de Lima diz que este é um caso que merece ser observado a partir das diferenças entre liberdade de imprensa e liberdade de expressão. A primeira, na opinião do professor, está relacionada à proteção dos interesses daqueles responsáveis pelos veículos de comunicação e não deve ser confundida com a segunda, que é um direito humano e, no Brasil, constitucionalmente positivado. Lima pondera que a liberdade de expressão, no atual contexto das práticas de comunicação, depende da inserção de opiniões diversas nos grandes veículos de massa. Estes, portanto, precisariam refletir não só a opinião dos seus donos.

No caso da não publicação do anúncio da “Afirme-se”, o que está colocado é, justamente, a utilização de uma política comercial, justificada supostamente pelo princípio da liberdade de imprensa, para restringir o direito da campanha publicizar sua opinião a favor das ações afirmativas e o direito dos cidadãos de receberem informação sobre o tema desde uma perspectiva diversa da dos veículos das Organizações Globo. Segundo Lima, na página de O Globo na internet o jornal apresenta a tabela de preços comerciais e nela está escrito que a empresa cobra de 30% a 70% a mais em anúncios de conteúdo opinativo. Contudo, no caso em questão, o valor variou em aproximadamente 1300%.

Preços acordados

Curiosamente, a tentativa da campanha “Afirme-se” publicar o anúncio está intimamente relacionada ao fato de os grupos a favor das ações afirmativas perceberem que não conseguiam espaço editorial, ou seja, lugar na cobertura jornalística regular para apresentar seu ponto de vista. Assim, por ocasião da audiência pública no Supremo Tribunal Federal (STF) que discutiria – entre os dias 3, 4 e 5 de março – duas ações de inconstitucionalidade movidas contra a criação de cotas nas universidades públicas para descendentes de negros e indígenas, a campanha resolveu fazer intervenções publicitárias em jornais de grande circulação nacional em defesa da constitucionalidade das leis que estão em vigor.

A intervenção publicitária produzida pela agência Propeg, que também é parceira da campanha, contava basicamente com três produtos: um manifesto ilustrado que seria publicado em jornais considerados formadores de opinião pelos organizadores da “Afirme-se”, um spot de rádio e uma vinheta, que estão disponíveis no blog da campanha.

De acordo com Fernando Conceição, um dos coordenadores da “Afirme-se”, as doações das entidades que fazem parte da campanha e a captação de recursos com outras organizações foram suficientes para pagar a publicação do manifesto em quatro jornais de grande circulação – O Estado de S. Paulo, Folha de S. Paulo, A Tarde (BA) e O Globo (RJ). “Nós resolvemos comprar especificamente nesses veículos porque eles já vêm fazendo campanhas sistemáticas contra as cotas há tempos. Como nós temos outra visão e não encontramos lugar livremente para expor um outro ponto de vista, resolvemos comprar o espaço”, explica Conceição.

Como é de praxe nas campanhas publicitárias, a agência responsável passou a negociar o preço do anúncio de uma página inteira a ser publicado no dia 3 de março com os veículos selecionados. Por se tratarem de anúncios ligados a organizações não governamentais, os preços acordados ficaram em torno de R$ 50 mil. O valor exato negociado com O Globo foi orçado em R$ 54.163,20.

Valor impraticável

Fechados os valores, a agência enviou a arte aos jornais. Dois dias antes de a campanha ser publicada, a coordenação da “Afirme-se” foi comunicada pela agência Propeg que o anúncio havia sido submetido à direção editorial de O Globo e que os responsáveis julgaram que a peça era “expressão de opinião”. O jornal dizia que, sendo assim, o valor deixava de ser o negociado anteriormente e passava para R$ 712.608,00. “Um valor irreal, impraticável até para anuncio de multinacional”, queixa-se o coordenador da campanha.

Procurado pela equipe do Observatório do Direito à Comunicação, o jornal O Globo não respondeu aos pedidos de entrevista. No entanto, o diretor comercial da publicação, Mario Rigon, concedeu entrevista ao portal Comunique-se ao qual disse que considerou a peça da campanha como “expressão de opinião” e, diante disso, “seguiu a política da empresa, que determina um valor superior para esse tipo de anúncio”. “De fato vimos que se tratava de uma expressão de opinião, mas não nos cabe julgar o mérito da causa. É a nossa política comercial, tratamos assim qualquer anunciante que queira expressar sua opinião”, disse Rigon ao portal.

Este Observatório também buscou consultar o Conselho de Autorregulamentação Publicitária (Conar). Por intermédio da assessoria de imprensa, o conselho adiantou que não tem posição sobre o caso, visto que foge do escopo da entidade se posicionar sobre a política comercial dos veículos. “Nós não nos posicionamos sobre regulação de mídia exterior, atuamos exclusivamente sobre o conteúdo das mensagens publicitárias”, disse Eduardo Correia, assessor de imprensa do Conar. O assessor disse ainda que a entidade precisa ser provocada por processos para se posicionar sobre o conteúdo de uma peça e que nas questões de política comercial das empresas ela não devem opinar.

O pesquisador Venício Lima lembra que, diante da falta de regulamentação da mídia no Brasil, as empresas privadas, na maioria das vezes, podem agir como bem entendem e praticar os preços que lhes convêm. Lima acredita ainda que seja provável que O Globo esteja, a partir da lógica comercial, protegido legalmente para fazer esse tipo de cobrança, o que é apenas “um lado da moeda”.

É fato que a liberdade comercial baseia-se na lógica de que as normas podem ser estabelecidas pelas próprias empresas e que, portanto, podem causar distorções quando estas se cruzam com questões editoriais. No caso em questão, fica evidente a falta de transparência quanto aos critérios adotados por O Globo para considerar o anúncio como conteúdo opinativo e aplicar um valor diferenciado. Os outros três jornais que publicaram a peça publicitária não tiveram a mesma compreensão e a tabela aplicada foi a de anúncio publicitário comum.

A “Afirme-se” fez uma reclamação contra O Globo no Ministério Público do Rio de Janeiro por conta do episódio. A campanha pede que, com base no que diz a Constituição Federal com relação à liberdade de expressão, o jornal seja obrigado a publicar o anúncio por um valor simbólico.

Fernando Conceição defende que a atitude de O Globo foi claramente de abuso de poder econômico e que configura dumping, prática condenada pelo próprio mercado. “Foi uma maneira que a direção de O Globo encontrou para cercear o direito constitucional que é a liberdade de expressão por meio do abuso do poder econômico”, denuncia Conceição.

Anticotas

Pesa ainda contra as Organizações Globo como um todo uma constante militância contra as ações afirmativas relativas à questão racial, dentre elas as políticas de cotas para negras e negros nas universidades públicas. Esta militância é liderada inclusive pelo atual diretor da Central Globo de Jornalismo, Ali Kamel. Kamel é autor do livro Não somos racistas: uma reação aos que querem nos transformar numa nação bicolor, que nega a existência do racismo e, portanto, da necessidade de políticas reparadoras.

Pesquisa do Observatório Brasileiro de Mídia, citada por Venicio Lima, revela que grandes revistas e jornais brasileiros apresentam posicionamento contrário aos principais pontos da agenda de interesse da população afrodescendente – ações afirmativas, cotas, Estatuto da Igualdade Racial e demarcação de terras quilombolas. A pesquisa analisou 972 matérias publicadas nos jornais Folha de S.Paulo, O Estado de S.Paulo e O Globo, e 121 nas revistas semanais Veja, Época e Isto É – 1093 matérias, no total – ao longo de oito anos.

Lima chama a atenção para o fato de a cobertura de O Globo merecer um comentário à parte na pesquisa. Dentre os três jornais pesquisados, foi aquele que mais editoriais publicou sobre o tema, mantendo inalterados, ao longo dos anos, argumentos que se mostraram falaciosos, como o de que as cotas e ações afirmativas iriam promover racismo e de que os alunos cotistas iriam baixar o nível dos cursos.

Lembrando destes dados da pesquisa, Lima acredita que O Globo estabeleceu uma barreira comercial e que, do ponto de vista legal, eles podem estar cobertos pelos princípios da livre iniciativa. “Mas, esta conduta, tendo em vista o conteúdo que deixou de ser publicado, infringe o direito à informação. A questão que fica para o Ministério Público do Rio de Janeiro é legal. Cabe a eles encontrarem alguma forma jurídica de pensar o caso sob o ponto de vista do direito à informação. Para mim, essa postura deixa as Organizações Globo numa situação difícil para posteriormente falar de liberdade de expressão”, conclui o professor.

>Imagens da loucura (Agência FAPESP)

>
Por Fábio Reynol – 16/3/2010

Agência FAPESP – A professora de artes Tatiana Fecchio da Cunha Gonçalves reuniu cerca de 800 imagens de doentes mentais em hospitais psiquiátricos, entre elas algumas registradas por quatro fotógrafos ao longo da segunda metade do século 20 em instituições brasileiras.

Foto: Estudo reúne ensaios fotográficos que registraram doentes mentais em instituições de tratamento ao longo da segunda metade do século 20 (reprod.: Henri Fuseli)

O trabalho foi feito para o doutorado no Instituto de Artes da Universidade Estadual de Campinas (Unicamp), para o qual contou com Bolsa da FAPESP. Intitulada “A representação do louco e da loucura nas imagens de quatro fotógrafos brasileiros do século 20: Alice Brill, Leonid Streliaev, Cláudio Edinger, Cláudia Martins”, a tese foi defendida e aprovada no fim de janeiro.

“Há um conjunto de construções e elementos formais que tomam o ‘louco’ por diverso, de outra ordem, patológico, a distância”, disse à Agência FAPESP. A inspiração para o estudo surgiu durante o mestrado, quando Tatiana deparou com retratos de doentes mentais registrados por Alice Brill e pelo artista plástico Lasar Segall. “Achei intrigante o interesse deles pelo tema”, disse.

Por meio de um levantamento histórico detalhado, Tatiana recuperou imagens e conceitos produzidos a partir do século 17, quando surgiram os primeiros espaços de internação para doentes mentais.

Segundo ela, a loucura tem sido compreendida de diferentes maneiras ao longo do tempo. No entanto, as suas representações mantiveram alguns aspectos que chegaram até os dias atuais. “É o caso do louco visto como o diferente, o outro, o que deve ser isolado”, disse Tatiana.

Esse distanciamento entre o fotógrafo e o doente chega a ser delimitado em algumas fotos por meio da presença de grades nas cenas com o enfermo atrás delas.

Também são mantidos nas representações mais recentes, segundo a pesquisa, alguns elementos antigos de tipificação da loucura, como o louco melancólico das obras do pintor alemão Albrecht Dürer, no início do século 16, e o louco introspectivo segurando a cabeça, presente na Iconologia do escritor italiano Cesare Ripa no século 17.

Outras representações ainda ressaltam a bestialidade e a agressividade, passando, segundo Tatiana, a ideia de ameaça, como se o louco possuísse uma força imensurável.

Para a autora, muitas dessas imagens, realizadas há séculos, naturalizaram uma forma de compreender o louco como diverso, em sua “carga de alteridade”, segundo ela refere, constituindo ainda no século 20 “a ideia de que o louco deve ser afastado da sociedade”, afirmou.

Tatiana não se deteve na representação artística, tendo investigado também as ilustrações que a medicina produziu para registrar a loucura. Os estudos fisionômicos e as medições de índices corporais, segundo conta, eram utilizados como elementos para diagnósticos e para traçar teorias a respeito da insanidade mental.

“Por esse motivo, a fotografia assumiu uma grande importância para a psiquiatria e para teorias que associavam fisionomias a determinados comportamentos”, disse.

Um desses estudos mais famosos é o do italiano Cesare Lombroso, que associou características e defeitos faciais a comportamentos criminosos. Nesse aspecto, Tatiana ressalta que a fotografia assumiu, pela suposta objetividade do aparato técnico, um reconhecimento importante como instrumento científico.

Reforma psiquiátrica

Na segunda parte da tese, a autora analisa a produção dos quatro fotógrafos que compõem o cerne de seu trabalho: Alice Brill, fotógrafa e artista plástica alemã que retrata o Hospital do Juquery (SP), no ano de 1950; Leonid Streliaev, repórter fotográfico que fez imagens do Hospital São Pedro (RS) em 1971; Cláudio Edinger, que também fotografou o Juquery em 1989 e 1990; e Cláudia Martins, que produziu imagens da Colônia Juliano Moreira, no Rio de Janeiro, enquanto era estudante de jornalismo, de 1997 a 1999.

O período desses ensaios corresponde às mudanças provocadas pela reforma psiquiátrica iniciada na década de 1960. Tatiana contou que o fim da Segunda Guerra Mundial trouxe questionamentos à sociedade em relação aos padrões de “normatização”, os quais eram impostos especialmente em instituições como as escolas, as prisões e os manicômios.

“Com a reforma foram questionados os tratamentos da época e a doença mental passou a ser compreendida menos como uma doença dos corpos e mais como um reflexo de dinâmicas sociais”, revelou a pesquisadora.

Paradoxalmente, a autora ainda encontrou na segunda metade do século 20 resquícios da caracterização da loucura de tempos anteriores, o que mostra, segundo ela, que a ruptura com os antigos estigmas não foi tão grande. Outra hipótese é a de que a crítica proposta pela reforma psiquiátrica ainda está em processo, o que ainda deve provocar alterações na forma visual de representação da loucura.

“O fotógrafo [do século 20] ainda não partilha o espaço do fotografado, ele não está no mesmo lugar do outro”, disse. Dentre os fotógrafos estudados há uma tentativa mais explícita de rompimento com essa postura somente no trabalho de Cláudia Martins, segundo a pesquisadora.

“Ela procurou fazer com que os pacientes participassem da construção da imagem, eram eles que escolhiam o pano de fundo do cenário, a pose que fariam na foto e se estariam ou não acompanhados por outros internos”, apontou.

O estudo também traçou as mudanças nas relações da sociedade com os doentes mentais ao longo do tempo. Em 1950, por exemplo, Alice Brill foi aconselhada por amigos a não entrar no Juquery porque estava grávida, sob a justificativa de que os loucos poderiam “influenciar” o bebê. Já as imagens de Edinger, no fim dos anos 1980, trazem um tema inédito em trabalhos desse gênero: a homossexualidade.

Uma das conclusões da autora é a desconstrução do mito da objetividade da fotografia e do fotógrafo, afirmação recorrente no advento dessa técnica. Diante da pintura, a fotografia era tida como descrição exata da realidade a ponto de garantir registros objetivos à medicina, de acordo com a pesquisa.

“Essa objetividade é aparente, a fotografia é composta de escolhas do fotógrafo: onde os objetos serão colocados, quais lentes serão usadas, qual será o cenário, entre outros”, disse. Em todo o material fotográfico analisado está presente a tensão anormalidade/diverso e normalidade/identidade ligados à representação do “louco”.

Esse aspecto foi relembrado por ela e associado às ideias do filósofo francês Michel Foucault, para quem a loucura seria o campo de exclusão social do diverso. A exclusão estaria associada ao advento das cidades, segundo Tatiana. “As cidades exigiram indivíduos muito bem comportados e isolaram quem não se enquadrava em seus padrões, como leprosos, prostitutas e loucos”, disse.

No entanto, ao contrário de outros estigmas, a loucura poderia ser aplicada a qualquer um. Por isso, foi muito usada como instrumento de poder. “Com diagnósticos subjetivos, qualquer comportamento fora dos padrões vigentes poderia ser diagnosticado como loucura”, disse Tatiana. Como exemplo, cita uma mulher internada como louca no Hospital Pedro II, no início do século passado, porque resolveu dissolver o casamento logo após a noite de núpcias.

De acordo com a orientadora de Tatiana, a professora Cláudia Valladão de Mattos, do Departamento de Artes Plásticas da Unicamp, um sinal da qualidade do trabalho foi a sua grande receptividade em instituições internacionais.

“Em países como França e Alemanha, com forte tradição artística, a pesquisa de Tatiana teve uma ótima receptividade”, disse a professora, explicando que o trabalho foi aceito em todos os eventos europeus em que se inscreveu.

“Eles têm muito interesse em conhecer dados sobre o Brasil. O material reunido por Tatiana é considerado raro e importante para a comparação com estudos similares feitos em instituições de tratamento europeias”, disse.

O interesse estrangeiro pelo trabalho ficou evidente durante os dez meses da pesquisa que Tatiana passou na Inglaterra na Wellcome Trust for the History of Medicine da University College London, período no qual contou com bolsa de doutorado com estágio no exterior da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes).

Cláudia também destaca o aspecto interdisciplinar da tese que envolveu arte, história e a medicina psiquiátrica. “A tese também é importante para a história da arte, e abre um campo enorme a ser investigado”, disse.

Tatiana pretende continuar a pesquisa por meio de um pós-doutorado. Dessa vez, quer analisar imagens de vídeo de doentes mentais. “Durante a pesquisa entrei em contato com um material muito grande que pretendo aproveitar agora estudando as imagens em movimento”, disse.

>Rumo a uma pedagogia da incerteza: Keats e a "negative capability"

>
Negative capability

From Wikipedia (15 mar 2010)

Negative capability is a theory of the poet John Keats describing the capacity for accepting uncertainty and the unresolved.

Theory

Keats’ theory of “negative capability” was expressed in his letter to his brother dated Sunday, 21 December 1817. He says [1]

I had not a dispute but a disquisition with Dilke, on various subjects; several things dovetailed in my mind, & at once it struck me, what quality went to form a Man of Achievement especially in literature & which Shakespeare possessed so enormously – I mean Negative Capability, that is when man is capable of being in uncertainties, Mysteries, doubts without any irritable reaching after fact & reason.

Keats believed that great people (especially poets) have the ability to accept that not everything can be resolved. Keats, as a Romantic, believed that the truths found in the imagination access holy authority. Such authority cannot otherwise be understood, and thus he writes of “uncertainties.” This “being in uncertaint[y]” is a place between the mundane, ready reality and the multiple potentials of a more fully understood existence. It relates to his metaphor of the Mansion of Many Apartments.

It could be argued that Keats explored this idea in several of his poems:
La Belle Dame sans Merci: A Ballad (1819)
Ode to a Nightingale (1819)
The Fall of Hyperion: A Dream (1819)
Ode on a Grecian Urn (1819)

Negative capability is a state of intentional open-mindedness paralleled in the literary and philosophic stances of other writers. In the 1930s, the American philosopher John Dewey cited Keatsian negative capability as having influenced his own philosophical pragmatism, and said of Keats’ letter that it “contains more of the psychology of productive thought than many treatises.” [2] [3] Nathan Scott, in his book Negative capability; studies in the new literature and the religious situation [4], notes that negative capability has been compared to Heidegger’s concept of Gelassenheit, “the spirit of disponibilité before What-Is which permits us simply to let things be in whatever may be their uncertainty and their mystery.” Walter Jackson Bate, Keats’s biographer, explored the approach in detail in his 1968 work Negative Capability: The Intuitive Approach in Keats.

Author Philip Pullman excerpts from Keats’s letter and prominently incorporates the concept in his fantasy novel The Subtle Knife.

Notes
1. Romanticism: an anthology, By Duncan Wu, Duncan Wu Edition: 3, illustrated Published by Blackwell, 2005 p.1351
2. Dewey, John. Art as Experience. New York: Penguin Perigree (2005):33-4.
3. Kestenbaum, Victor. The Grace and the Severity of the Ideal: John Dewey and the Transcendent. Chicago: University of Chicago Press (2002): 225.
4. Scott. Negative capability; studies in the new literature and the religious situation. Yale University Press (New Haven), 1969

>U.S. Scientists Urge Action on Climate Change

>
On March 11, 2000 U.S. scientists and economists signed on to a statement imploring the Senate to move swiftly and comprehensively on the issue of climate change. The signatories are all experts in relevant fields of study on climate change. The statement is the first time leading U.S. scientists and economists have come together to issue a joint message of concern on climate change. The list of signatories included eight Nobel laureates, 32 members of the National Academy of Sciences, 10 members from the National Academy of Engineering, and more than 100 members of the Intergovernmental Panel on Climate Change, who shared a 2007 Nobel Peace Prize.

“If anything, the climate problem is actually worse than reported earlier,” wrote Leon Lederman, Director Emeritus of the Fermi National Accelerator Laboratory in Batavia, Illinois, and a Nobel Prize-winning physicist, in an individual statement in the letter to the Senate. “Physicists tend to be super critical of strong conclusions, but the data on global warming now indicate the conclusions are not nearly strong enough.”

Read the statement here.

>Iphan faz levantamento para localizar fotógrafos conhecidos como lambe-lambes (O Globo)

>
O Globo – 13 de março de 2010

Foto: Osvaldo de Andrade Neves fotografa uma cliente na Praça da Matriz, em São João de Meriti/Foto de Ana Branco (Agência O Globo)

RIO – Com a chegada das máquinas instantâneas de retrato e após a explosão da fotografia digital, os lambe-lambes foram, pouco a pouco, deixando seus pontos. Para preservar a memória dos últimos representantes da categoria, o Instituto do Patrimônio Histórico e Artístico Nacional (Iphan-RJ) iniciou um levantamento desses cronistas visuais que ainda existem no estado.Testemunhas privilegiadas das transformações pelas quais o Rio passou desde o início do século XIX, os lambe-lambes estão praticamente em extinção. Até agora, foram localizados cinco fotógrafos de jardim (como a profissão era chamada em seu auge). Entre eles, há desde os que já não trabalham mais no ofício aos que ainda sobrevivem da fotografia.

– O que estamos buscando é registrar este tipo de atividade e salvaguardar a memória – explica o superintendente do Iphan no estado, Carlos Fernando Andrade, à repórter Jacqueline Costa.

O levantamento – que está sendo realizado pelo antropólogo João Carlos de Oliveira, com a ajuda da estudante de história Anne Lima – inclui entrevistas e depoimentos gravados em vídeo. O material reunido tem a chance de ser transformado em um livro ou um DVD.

Dos oito lambe-lambes que trabalhavam no Jardim do Méier, só restou um. Aos 83 anos, o português Bernardo Soares Lobo ainda marca ponto por lá, às segundas, terças e quartas. Da velha câmera, não saem mais imagens. Seu Lobo se rendeu à fotografia digital e hoje usa o antigo equipamento de trabalho apenas como um chamariz. Com orgulho, lembra de já ter fotografado Tenório Cavalcanti, político que ficou conhecido como o Homem da Capa Preta, e Dercy Gonçalves. E diz que não consegue abandonar o jardim onde está há 54 anos.

Outro que ainda não abandonou o batente e que também usa máquina digital é Osvaldo de Andrade Neves, de 66 anos. Há quatro décadas, diariamente, ele monta sua máquina na Praça da Matriz, em São João de Meriti. Ele admite que o movimento caiu com o passar dos anos, mas diz que ainda tira da fotografia o sustento da família.

Já Inácio Teodósio da Silva armou o tripé de sua máquina na Praça General Osório, em Ipanema, durante quase 30 anos. Mas, hoje, guarda com zelo o equipamento que fotografou de ilustres anônimos a personalidades cariocas. Seis de seus irmãos trabalharam na mesma profissão, em diversos pontos do Rio. Jorge Teodósio da Silva, irmão de Inácio, e Francisco Victor Cavalcanti foram os outros lambe-lambes encontrados pelo pesquisador do Iphan.

Ver artigo original e vídeo.

>Sorteio de óvulo humano gera polêmica na Grã-Bretanha (BBC Brasil)

>
BBC Brasil – 15 de março de 2010

Foto: A venda de óvulos é proibida na Grã-Bretanha.

Uma clínica de fertilização londrina gerou polêmica no país ao anunciar que fará o sorteio de um óvulo humano para ser implantado e fertilizado em uma clínica nos Estados Unidos.

A ganhadora será escolhida entre as participantes de um seminário para mulheres que desejam se submeter à fertilização artificial, marcado para quarta-feira, cujo objetivo é divulgar a recente parceria da clínica Bridge Center, em Londres, com a clínica americana Genetics and IVF Institute (GIVF), na Virgínia.

A ganhadora do sorteio poderá escolher quem será sua doadora, a partir de um banco de dados com informações como origem racial, histórico médico, formação escolar e aspectos físicos.

O sorteio foi criticado por grupos de estudo da reprodução assistida, como a organização Comentário sobre Ética Reprodutiva (Core, na sigla em inglês), por comercializar material humano, o que é proibido pela lei britânica.

“A capacidade da indústria de fertilização in vitro de mercantilizar a vida humana atinge um novo patamar com essa iniciativa deplorável”, disse Josephine Quintavalle, diretora do instituto.

“Imagine se um dia uma criança descobrir que ele ou ela veio a existir graças a uma descarada iniciativa comercial”, completou.

Parceria internacional

Por meio dessa parceria com o centro americano, a Bridge Centre pretende contornar as rígidas regras britânicas para a reprodução assistida, enviando britânicas para receberem os óvulos nos Estados Unidos.

Na Grã-Bretanha, a remuneração por doação de óvulos é proibida. O máximo que a doadora consegue é uma ajuda de custos de 250 libras, ou R$ 670. Por isso, a oferta de óvulos no país é muito restrita.

A GIVF, porém, conta com doadoras de 19 a 32 anos que chegam a receber US$ 10 mil, ou R$ 17,6 mil, por doação. Dessa forma, há muito mais óvulos disponíveis para doação nos Estados Unidos do que na Grã-Bretanha.

Um dos problemas dessa doação de óvulos é que, para doá-los, as mulheres precisam passar por um tratamento pesado, com uso de medicamentos, para ampliar a produção de óvulos por ciclo menstrual.

Diante desse quadro, a Core demonstrou preocupação com essas mulheres que doam seus óvulos por dinheiro.

“Nós temos, no entanto, uma grande preocupação com o bem-estar dessas mulheres, pois a coleta de óvulos não é de maneira alguma um processo livre de riscos e muitas daquelas envolvidas no mercado mundial de óvulos sofreram significativamente como resultado. As consequências mais sérias incluem morte, perda parcial ou total da fertilidade, várias outras complicações médicas e problemas psicológicos também”, explicou Quintavalle.

“A clínica de fertilização in vitro envolvida nessa iniciativa está alimentando a vulnerabilidade colossal de mulheres ricas e inférteis ao custo do bem-estar de jovens mulheres pobres e igualmente vulneráveis”, acrescentou.

Segundo a Core, a venda de tecidos humanos, como óvulos, é proibido em toda a Europa. Portanto, nenhuma clínica britânica deveria colaborar com esse tipo de medida.

>Austrália reconhece pessoa sem sexo pela 1ª vez (BBC Brasil)

>
BBC Brasil – 15 de março de 2010

Foto: Norrie foi registrado homem ao nascer mas tentou trocar de sexo.

Uma pessoa que mora na Austrália pode ser a primeira no mundo reconhecida oficialmente como não pertencendo a nenhum dos sexos, segundo a imprensa australiana.

O governo do Estado de New South Wales emitiu uma certidão de “Gênero Não-Específico” a Norrie May-Welby. Isso significa que o governo não reconhece Norrie como homem ou mulher.

Norrie se considera andrógino e é ativista do grupo Sex and Gender Education (Sage, na sigla em inglês), que faz campanha por direitos de pessoas com diferentes identidades sexuais.

Norrie, de 48 anos, nasceu na Escócia e foi registrado como homem. Aos 23 anos, ele passou por um tratamento hormonal e cirurgias para mudar de sexo, e foi registrado na Austrália como mulher.

No entanto, Norrie ficou insatisfeito com a mudança e interrompeu seu tratamento, preferindo denominar-se “neutro”.

‘Gaiola’ dos gêneros

“Esses conceitos de homem e mulher simplesmente não se encaixam no meu caso, eles não são a realidade e, se aplicados a mim, são fictícios”, afirma Norrie em um artigo publicado no site The Scavenger na semana passada.

Norrie assina seu nome como “norrie mAy-Welby”, um trocadilho com “may well be”, que em inglês significa “pode ser”.

Em e-mail à BBC Brasil, Norrie comemorou a decisão do governo australiano. “Liberdade da gaiola do gênero!”, escreveu.

Segundo a notícia publicada no The Scavenger, os médicos declararam em janeiro deste ano que não conseguiram determinar o sexo de Norrie – nem fisicamente nem em função do seu comportamento.

A certidão de gênero não-específico foi dada de acordo com uma recomendação de 2009 de um relatório da Comissão de Direitos Humanos da Austrália, segundo o portal. A certidão foi publicada na capa do jornal australiano Sydney Morning Herald.

Uma porta-voz da Procuradoria do governo da Austrália disse ao jornal que esta foi a primeira certidão do tipo.

A porta-voz do Sage, Tracie O’Keefe, disse ao Scavenger que a decisão tem impacto importante na vida de pessoas que não se identificam nem como homens ou mulheres.

Em entrevista ao jornal britânico Daily Telegraph, o porta-voz do grupo britânico Gender Trust, que ajuda pessoas com problemas de identidade sexual, saudou a decisão do governo de New South Wales.

>Coronelismo eletrônico: políticos aceleram concessão de rádios comunitárias (OESP)

>
Políticos aceleram concessão de rádios comunitárias

15/03/2010 – 09:22
Agência Estado

Legalizadas há 12 anos, as rádios comunitárias são cada vez mais usadas como instrumentos de política eleitoral, num processo que vem sendo chamado de novo coronelismo eletrônico. Ligadas a entidades que quase sempre têm um político municipalista por trás – um prefeito ou um vereador -, as rádios comunitárias são concedidas depois que os políticos federais desempenham o papel de despachantes de luxo no Ministério das Comunicações.

Alegando que precisam agir para vencer a intrincada burocracia de Brasília, senadores e deputados pressionam para acelerar a tramitação do processo de autorização das rádios comunitárias e ganham status de seus padrinhos políticos.

É desse jeito que passam a integrar uma teia de captura de votos. A estimativa é de que cerca de 50% das 3.911 rádios comunitárias, que hoje funcionam legalmente no País, tenham contado com as bênçãos de padrinhos políticos.

“O parlamentar intercede aqui (em Brasília) para atender o cara (prefeito ou vereador) que vota nele lá no município. Aí, essa rádio fica falando bem dele para o resto da vida”, confirma o deputado e ex-ministro das Comunicações (2004- 2005) Eunício Oliveira (PMDB-CE). “Há centenas de pedidos de políticos, mas a pressão maior ainda é de vereadores e associações. A rádio comunitária é o local da fofoca municipal. Para prefeito e vereador, ela é o cão”, atesta ele, dono de três rádios comerciais no Ceará.

Os pedidos de concessão de rádios comunitárias não têm cor partidária – mobilizam de petistas a tucanos, passando pelo DEM, pelo PTB e por outros partidos. Depois da legalização, em 1998, o boom das comunitárias ocorreu no governo do ex-presidente Fernando Henrique Cardoso, quando foram autorizadas em apenas três anos 1.707 emissoras – 569 a cada ano. Em pouco mais de sete anos do governo Lula, foram legalizadas 2.204 comunitárias – mais de 300 ao ano.

Apesar da baixa presença no Congresso, ao longo da semana passada a reportagem localizou facilmente dez exemplos de deputados e senadores confirmando que atuaram para ajudar na liberação de rádios comunitárias.

Tática permanece

No fim da década de 90, a praxe, segundo parlamentares, era procurar o titular das Comunicações para acelerar o processo. Isso ocorreu nos casos dos deputados José Linhares (PP-CE) e Arnon Bezerra (PTB-CE). Em 1999 eles se apressaram a procurar o então ministro Pimenta da Veiga (PSDB) para interceder a favor de duas rádios comunitárias, Sal da Terra e Juazeiro, localizadas em seus redutos eleitorais – Sobral e Juazeiro do Norte. “Pedi a concessão não só dessa, mas de várias (rádios) em todo o Estado onde temos acesso à votação”, conta Linhares.

Passada a fase inicial da legalização das rádios comunitárias, os deputados e senadores começaram a atuar como despachantes, não necessariamente recorrendo ao ministro de Estado, mas ao departamento responsável pela tramitação dos papéis. A tática permaneceu igual: o lobby é sempre direcionado aos redutos eleitorais.

>Marcelo Gleiser: Criação imperfeita (Folha Mais!)

>
A noção de que a natureza pode ser decifrada pelo reducionismo precisa ser abolida.

14 março 2010

Desde tempos imemoriais, ao se deparar com a imensa complexidade da natureza, o homem buscou nela padrões repetitivos, algum tipo de ordem. Isso faz muito sentido. Afinal, ao olharmos para os céus, vemos que existem padrões organizados, movimentos periódicos que se repetem, definindo ciclos naturais aos quais estamos profundamente ligados: o nascer e o pôr do Sol, as fases da Lua, as estações do ano, as órbitas planetárias.

Com Pitágoras, 2.500 anos atrás, a busca por uma ordem natural das coisas foi transformada numa busca por uma ordem matemática: os padrões que vemos na natureza refletem a matemática da criação. Cabe ao filósofo desvendar esses padrões, revelando assim os segredos do mundo.

Ademais, como o mundo é obra de um arquiteto universal (não exatamente o Deus judaico-cristão, mas uma divindade criadora mesmo assim), desvendar os segredos do mundo equivale a desvendar a “mente de Deus”. Escrevi recentemente sobre como essa metáfora permanece viva ainda hoje e é usada por físicos como Stephen Hawking e muitos outros.

Essa busca por uma ordem matemática da natureza rendeu -e continua a render- muitos frutos. Nada mais justo do que buscar uma ordem oculta que explica a complexidade do mundo. Essa abordagem é o cerne do reducionismo, um método de estudo baseado na ideia de que a compreensão do todo pode ser alcançada através do estudo das suas várias partes.

Os resultados dessa ordem são expressos através de leis, que chamamos de leis da natureza. As leis são a expressão máxima da ordem natural. Na realidade, as coisas não são tão simples. Apesar da sua óbvia utilidade, o reducionismo tem suas limitações. Existem certas questões, ou melhor, certos sistemas, que não podem ser compreendidos a partir de suas partes. O clima é um deles; o funcionamento da mente humana é outro.

Os processos bioquímicos que definem os seres vivos não podem ser compreendidos a partir de leis simples, ou usando que moléculas são formadas de átomos. Essencialmente, em sistemas complexos, o todo não pode ser reduzido às suas partes.

Comportamentos imprevisíveis emergem das inúmeras interações entre os elementos do sistema. Por exemplo, a função de moléculas com muitos átomos, como as proteínas, depende de como elas se “dobram”, isto é, de sua configuração espacial. O funcionamento do cérebro não pode ser deduzido a partir do funcionamento de 100 bilhões de neurônios.

Sistemas complexos precisam de leis diferentes, que descrevem comportamentos resultantes da cooperação de muitas partes. A noção de que a natureza é perfeita e pode ser decifrada pela aplicação sistemática do método reducionista precisa ser abolida. Muito mais de acordo com as descobertas da ciência moderna é que devemos adotar uma abordagem múltipla, e que junto ao reducionismo precisamos utilizar outros métodos para lidar com sistemas mais complexos. Claro, tudo ainda dentro dos parâmetros das ciências naturais, mas aceitando que a natureza é imperfeita e que a ordem que tanto procuramos é, na verdade, uma expressão da ordem que buscamos em nós mesmos.

É bom lembrar que a ciência cria modelos que descrevem a realidade; esses modelos não são a realidade, só nossas representações dela. As “verdades” que tanto admiramos são aproximações do que de fato ocorre.

As simetrias jamais são exatas. O surpreendente na natureza não é a sua perfeição, mas o fato de a matéria, após bilhões de anos, ter evoluído a ponto de criar entidades capazes de se questionarem sobre a sua existência.

MARCELO GLEISER é professor de física teórica no Dartmouth College, em Hanover (EUA) e autor do livro “A Criação Imperfeita”

>Retorcidas: violência no futebol (Folha Mais!)

>
A comunidade moral

JOSÉ PAULO FLORENZANO
ESPECIAL PARA A FOLHA

28 fev 2010

Década de 60 marcou a ascensão das torcidas organizadas, que passaram de coadjuvantes a protagonistas do espetáculo ao adotarem a “metáfora da guerra”

Foto: Torcedores são-paulinos durante partida em Barueri (SP). Ricardo Nogueira – 28.jan.10/Folha Imagem.

As torcidas organizadas, no Brasil, assim como os agrupamentos ultras, na Itália, começaram a ocupar as arquibancadas e a modificar o clima e a paisagem dos estádios a partir dos últimos anos da década de 1960. Lá, como cá, abandonaram a condição de simples espectadores da partida de futebol para desempenhar o papel de protagonistas do espetáculo que elas próprias criavam e desenvolviam, inspiradas pela “metáfora da guerra”, como mostra a perspectiva antropológica de Alessandro Dal Lago.

A violência, no entanto, não se restringia aos limites de uma batalha simbólica, mas se deslocava no espaço, driblava as medidas de repressão e adquiria, ao longo do tempo, forma e intensidade, alcance e significados muito diversos. De fato, como mostram os estudos feitos na Itália, os jovens torcedores logo enveredaram pela estrada do antagonismo violento, militarizaram-se, adotaram a “lógica da guerra”.

Isso os levava a planificar com antecedência a escolha do lugar da luta, a calcular o momento certo da ação, a delinear previamente a tática a ser empregada no combate travado cada vez mais fora das praças esportivas.

Ao mesmo tempo, procuraram alcançar um consenso em torno das “regras do jogo” no qual se achavam imersos -isto é, definir as armas, os atores e as circunstâncias do confronto. Uma circular redigida por integrantes do movimento buscava estabelecer os ditames do comportamento ultra: “Não se toca nas mulheres e nos velhos e não se enfrenta quem não tem nada a ver e não tem a possibilidade de se defender”.
Visto por esse prisma, o estereótipo da “horda de bárbaros embriagados” transfigurava-se, segundo o sociólogo Antonio Roversi, em uma “comunidade moral”. Esta era edificada com base em um repertório próprio de regras, dotado de mecanismos simbólicos de integração dos jovens reunidos na cultura da curva, na qual a violência desfrutava de um lugar privilegiado, mas não se revestia de uma forma caótica nem se desenvolvia de modo aleatório.

Ao contrário, ela se desenrolava no quadro das rivalidades e das alianças tecidas entre os diversos agrupamentos e de acordo com o código de comportamento aceito e partilhado pelos torcedores. A via brasileira apresentava pontos em comum com o percurso italiano, mas também se distinguia pela elaboração de características próprias e traços originais.

Nesse sentido, enquanto o caminho dos ultras atravessava o campo minado do extremismo político (alguns grupos se autodenominavam “brigadas”, em alusão ao partido armado identificado pela estrela de cinco pontas), o das organizadas desembocava na República do Futebol, paisagem histórica definida por inúmeras experiências de autonomia -como, por exemplo, o Trem da Alegria, idealizado por Afonsinho, e a Democracia Corintiana, liderada por Sócrates.

Aspectos contraditórios

Essa paisagem histórica, delimitada pelos anos de 1978 a 1984, contemplava ainda a iniciativa do jogador Wladimir de estender às gerais e arquibancadas o processo de mudança deslanchado no Corinthians: “As discussões são abertas aos diretores, aos jogadores, aos sócios e até à torcida”. Mas a participação desta última nos anos revolucionários do futebol brasileiro comportava aspectos contraditórios.

De um lado, ela promovia o salto de qualidade no exercício da violência, refletido tanto no conflito entre as organizadas do Santos e da Portuguesa -em 1979, na Taça São Paulo, com um saldo de 15 pessoas feridas- quanto nas brigas ocorridas antes, durante e após o clássico entre Santos e Corinthians, em 1983, com tiros disparados ao redor do estádio e focos de incêndio dentro do Morumbi.

De outro lado, ela reivindicava o direito de participação e o concretizava por meio de várias iniciativas. Entre elas, pode-se destacar, em 1977, o debate sobre a criação de uma Associação das Torcidas Organizadas; em 1978, a greve promovida pela Torcida Uniformizada do Palmeiras contra o desgoverno implantado no clube; em 1981, a crítica da Torcida Jovem do Santos à fórmula esdrúxula do Paulista; e, em 1984, a presença da Gaviões da Fiel nos comícios das Diretas-Já.

Violência e participação se constituem, portanto, nos fatores decisivos do universo das organizadas. Isso significa que, além do combate imprescindível e sem tréguas à impunidade dos atos brutais, o enfrentamento do problema atual pode incluir a criação de novos canais de participação e espaços de debate. De fato, como diz o sociólogo Antonio Roversi, juízos acusatórios e categoriais morais impedem a compreensão do quadro dinâmico das torcidas.

Eles não permitem, assim, elucidar as linhas de continuidade, identificar os pontos de ruptura, apontar as reviravoltas que ora as colocam no exercício de uma violência desregrada, ora as aproximam da prática democrática elaborada em conjunto por aqueles que desejam reinventar a República do Futebol e manter, tanto quanto possível, a rivalidade dos jovens torcedores nos limites de um duelo simbólico.

JOSÉ PAULO FLORENZANO é professor de antropologia na Pontifícia Universidade Católica de São Paulo, bolsista da Fapesp e autor de “A Democracia Corinthiana” (Educ).

Os sem-política

Transformado em peça na máquina de consumo compulsivo, torcedor é vítima maior da despolitização que atinge a sociedade

LUIZ HENRIQUE DE TOLEDO
ESPECIAL PARA A FOLHA

Assistência” foi um termo muito comum propagado pela imprensa esportiva até os anos 1930, condenando à passividade os torcedores mais populares. Estes se diferenciavam dos sócios, indivíduos notabilizados por laços mais estreitos, inclusive de parentesco, com os integrantes dos clubes.

A inauguração do estádio do Pacaembu, em São Paulo, e a transformação do futebol em evento de massa nos anos 40 redimensionaria os espetáculos futebolísticos e a importância dos torcedores.

Eles passaram a ser motivo de preocupação mais detida de parte dos poderes públicos, da imprensa e daqueles que organizavam os eventos, em virtude da intolerância e das rinhas que, diga-se de passagem, já existiam desde a época do amadorismo anterior aos anos 30. Os jornais não se cansavam de censurar as “desinteligências” frequentes promovidas pelo mau comportamento generalizado.

Faixas e cartazes

Foi nesse momento, então, que surgiram as primeiras organizações uniformizadas, indivíduos que acompanhavam as partidas em bloco, cantando, exibindo faixas e cartazes homenageando jogadores, cronistas esportivos e o próprio poder público.

Reciprocamente, a imprensa esportiva e os dirigentes dos clubes prestigiavam esses uniformizados por acreditarem que formavam um corpo elitizado (entenda-se “civilizado”) no meio da massa.

Essa situação foi alterada com o aparecimento das torcidas organizadas, já no final dos anos 60.

Tratava-se de agrupamentos com nítida inspiração popular que se autonomizaram em relação aos interesses mais imediatos dos dirigentes e estabeleceram outros padrões para o ato de torcer.

Os ciclos de violência intensificados nos anos 90 e a ingerência cada vez maior da TV e dos canais pagos repercutiram na necessidade imposta por uma nova conduta torcedora.

Foi nessa conjuntura de políticas de repressão às organizadas que se inventaram os sócios-torcedores -analogia opaca que alude a uma espécie de acionista minoritário do clube- e o torcedor de poltrona, que paga para ver seu time pelo sistema pay-per-view, serviço oferecido pelos canais fechados (elitistas, não?).

Portanto, formas físicas ou simbólicas de violência não constituem um corpo necessariamente estranho dentro desse universo. Dirigentes que motivam os seus publicamente, ainda que de modo figurado, na lógica da contenda tendem cada vez mais a levar o espetáculo sacrificial para dentro da casa de cada torcedor plugado na web.

Há que saber administrar as formas da belicosidade que, de resto, é constitutiva do futebol. Assim como as organizadas não reproduzem toda a extensão do torcer, elas também não contêm todas as variáveis que explicam a violência tomada como linguagem de todos.

Ambientadas e nutridas nas dinâmicas de poder, as organizadas reproduzem os sucessos e fracassos das organizações sociais que conformam o que visualizamos por sociedade.

Nenhum destes aspectos lhes faltam: burocracia, hierarquias, lógicas de distinção, comprometimentos políticos com projetos coletivos próprios ou negociados com outros atores, discurso da parlamentarização das relações e, obviamente, violência instrumental nutrida por masculinidades hegemônicas, homofóbicas, e intolerâncias já esparramadas por toda a sociedade.

Vingança inconclusa

O problema não são as organizações em si. No geral, o comportamento belicoso e intolerante se manifesta de modo mais desgarrado, individualizante e descompromissado com qualquer projeto coletivo, descentralizando práticas e comportamentos que fogem em muito ao controle das elites torcedoras.

Como uma espécie de vingança inconclusa, as mortes se sucedem há décadas em nome de honras difusas em torno da adesão aos clubes. Elas certamente estão relacionadas ao desmonte da dimensão lúdica do jogo e ao esgarçamento da sociabilidade em uma sociedade armada.

Embora as imagens dos últimos acontecimentos mostrem hordas de torcedores se digladiando, não há guerra ali, não há cadeia mecânica de mando e obediência.

Essa é justamente a linguagem desgastada do poder que tem no fantasma da desordem unida a sua face oculta, mas companheira de todas as horas. Das instâncias policiais e judiciais espera-se apuração e indiciamento daqueles indivíduos que estiveram diretamente envolvidos nos confrontos generalizados.

Mas o que esperar daqueles que administram o futebol: os dirigentes de clubes, os políticos e as elites torcedoras? O cerne da questão parece residir na baixa qualidade das relações políticas travadas entre esses agentes. Não bastam reuniões administrativas para resolver a conduta torcedora neste ou naquele jogo em específico. A despolitização de longo prazo que se impinge aos torcedores só faz minar os investimentos coletivos em nome de outras violências instrumentais parciais, inclusive legais.

O desinvestimento orquestrado que se faz na cultura do torcer -transformada em mera coadjuvante da maquinaria do consumo compulsivo- também não colabora para o processo de cidadania esportiva, sobretudo às portas dos megaeventos que se avizinham por aí.

LUIZ HENRIQUE DE TOLEDO é antropólogo e professor na Universidade Federal de São Carlos (SP). É organizador de “Visão de Jogo – Antropologia das Práticas Esportivas” (Terceiro Nome).

Novo Estatuto irá responsabilizar organizadas

DA REDAÇÃO

Durante encontro com o ministro dos Esportes, Orlando Silva Jr., na quarta-feira, o senador Romero Jucá (PMDB-RR), líder do governo no Senado, concordou em agilizar a tramitação de um projeto de lei que altera o Estatuto do Torcedor.

O texto define penas de reclusão para torcedores que praticarem atos de violência e responsabiliza civilmente as torcidas organizadas pelos danos causados por seus membros. O projeto, de autoria do deputado Arlindo Chinaglia (PT-SP), está em fase de análise por comissões do Senado, que pode ser abreviada mediante acordo das lideranças.

A discussão foi reforçada após confrontos, no último domingo, entre torcedores de São Paulo e Palmeiras, que resultaram em um morto e pelo menos 20 feridos.

Torcidas-empresas

Organizadas se converteram em lugares de negócios, valendo-se do marketing e do merchandising para competir com o material dos clubes

BERNARDO BUARQUE DE HOLLANDA
ESPECIAL PARA A FOLHA

Em caravana de apoio ao clube que contagiou o país no final dos anos 1970, o Corinthians Paulista, no seu drama de perseguição por um título depois de quase duas décadas de jejum, os Gaviões da Fiel distribuíam um folheto aos viajantes. O lembrete aos corintianos prescrevia: “Não corra, não mate e não morra”.

O prospecto foi na época guardado pelo sociólogo Sérgio Miceli e consta da abertura de um dos primeiros artigos acadêmicos sobre o fenômeno das torcidas organizadas no Brasil. Em 1978, o texto foi publicado pela “Revista de Administração de Empresas”, da Fundação Getúlio Vargas (RJ). Passadas mais de três décadas de sua publicação, o lembrete ainda ecoa como advertência, mas muito pouco de sua prudente recomendação parece ser hoje aplicável a determinados setores de torcidas organizadas.

Correr, matar e morrer tornaram-se verbos até certo ponto corriqueiros, atrativas palavras de ordem entre alguns adeptos dessas associações, como se pode observar nos incidentes fatais do último fim de semana, envolvendo torcedores de Palmeiras e São Paulo. As rodovias, as ferrovias ou quaisquer outros meios de acesso aos estádios são agora os locais privilegiados para o enfrentamento desses grupos.

Houve, de fato, uma mudança na dinâmica espacial dos confrontos entre torcidas organizadas. Se, até o final dos anos 80, as torcidas se confrontavam com mais frequência dentro dos estádios, a partir do decênio seguinte, a crescente vigilância em seu interior levou à sistematização das brigas para fora das arenas.

Desde então, a cada ano, o raio de ação da polícia nas imediações do estádio tem se alargado, criando uma espécie de segundo território de conflito. Este se afigura muito mais amplo e menos controlável em relação ao primeiro, o que coloca as forças da ordem diante de uma nova série de desafios a enfrentar.

Agonia

Conforme muitos estudiosos já assinalaram, a violência -bem como a busca por sua sublimação- é um componente agonístico liminar, constitutivo da sociedade e da atividade esportiva. Como tal, essa tensão, quer latente quer manifesta, está presente em um esporte popular como o futebol. No que diz respeito às torcidas organizadas, a especificidade de seus embates físicos é que ela assiste a ciclos violentos, verdadeiras “espirais” que fazem e desfazem vendetas ao sabor das gerações e das lideranças à frente dos grupos, com o efeito alarmante de difundir aquilo que na Europa se chamou de “pânico moral”.

A cada nova tragédia, a sociedade é instada a se mobilizar e a expiar os seus “bodes”. Quase sempre, a pedra de toque para a solução do problema recai na interdição das torcidas, por meio da simples extinção jurídica ou da proscrição dos “baderneiros”.

Como se isso fosse apenas uma questão de norma -e não, principalmente, de costume-, os decretos vêm redundando em sucessivos fracassos.

Por que a situação é tão difícil de ser solucionada? Em parte, porque a aparente barbárie que evoca o comportamento violento das torcidas constitui apenas sua franja superficial.

Quando se discute o problema, pouco se atenta para o fato de que as torcidas organizadas não estão apenas na contramão dos princípios desportivos ou nos antípodas do futebol mercantilizado moderno. De forma homóloga à lógica dos clubes-empresas, as agremiações de torcedores se tornaram elas próprias torcidas-empresas. Orbitam em torno dos clubes -razão de existirem-, mas são também autônomas, com sedes, símbolos, legendas, cânticos e logotipos que traduzem uma identidade à parte.

Seguindo o etos comercial, as torcidas organizadas converteram-se em lugares de negócios, passando a se valer do marketing, do merchandising e da oferta de uma série de produtos ligados a suas grifes. Elas competem, assim, com o material dos clubes e atendem à demanda de seu público consumidor, adolescentes e jovens seduzidos pelo pertencimento a uma coletividade.

A expansão em âmbito nacional das torcidas acarreta ainda o recrutamento de mais simpatizantes, o que leva ao seu alargamento simbólico-territorial, à semiprofissionalização de seus quadros e à formação de uma complexa rede de relações sociais.

Nos primórdios do futebol, dizia-se que a prática esportiva era uma atividade intrinsecamente amadora, razão pela qual o jogador não podia ganhar dinheiro com o jogo.

No Brasil, foi preciso esperar até os anos 1930 para que tal formulação fosse refeita, com a adoção do profissionalismo no futebol e com a transformação do jogador em atleta profissional, capaz de auferir astronômicos salários. Talvez hoje nós estejamos, em meio à globalização do futebol, onde tudo se comercializa e se rentabiliza, assistindo a um debate moral não muito distinto.

Se o torcedor representa a quintessência da paixão futebolística, último bastião de um idealizado “amadorismo”, até que ponto estaríamos dispostos a aceitar o fato de que o torcedor organizado pode fazer de sua atividade uma profissão legítima e legalizada?

BERNARDO BUARQUE DE HOLLANDA é pesquisador do Centro de Pesquisa e Documentação de História Contemporânea do Brasil da Fundação Getúlio Vargas (RJ).

>Exorcista-chefe da Igreja diz que há bispos ligados ao Diabo (BBC Brasil)

>
BBC Brasil – 12 de março, 2010

O exorcista-chefe da Igreja Católica disse a um jornal italiano que “o Diabo reside no Vaticano” e que bispos estariam “ligados” a ele.

Em entrevista ao diário La Repubblica, o padre Gabriele Amorth, que comanda o departamento de exorcismo em Roma há 25 anos, disse que o ataque ao papa Bento 16 na noite de Natal e os escândalos de pedofilia e abuso sexual envolvendo sacerdotes seriam provas da influência maléfica do Demônio na Santa Sé e que “é possível ver as consequências disso”.

O sacerdote, de 85 anos, disse ainda que há, na Igreja, “cardeais que não acreditam em Jesus e bispos ligados ao Demônio”.

Amorth, que já teria realizado o exorcismo de 70 mil possuídos, publicou um livro no mês passado, chamado Memórias de um Exorcista, em que narra suas batalhas contra o mal.

A série de entrevistas que compõe o livro foi realizada pelo jornalista Marco Tosatti, que conversou com o programa de rádio Newshour da BBC.

Tosatti disse que o Diabo atua de duas formas. Na primeira, a mais comum, “ele te aconselha a se comportar mal, a fazer coisas ruins e até a cometer crimes”.

Na segunda, “que ocorre muito raramente”, ele pode possuir uma pessoa. Tosatti disse que, de acordo com Amorth, Adolf Hitler e os nazistas foram possuídos pelo capeta.

O exorcista católico conta em suas memórias que, durante as sessões de exorcismo, os possuídos precisavam ser controlados por seis ou sete de seus assistentes. Eles também eram capazes de cuspir cacos de vidro, “pedaços de metal do tamanho de um dedo, mas também pétalas de rosas”, segundo o sacerdote.

Guerra contra a Igreja

Amorth defende que a tentativa de assassinato do papa João Paulo 2º em 1981, assim como o ataque ao atual papa no Natal passado e os casos de abuso sexual cometidos por padres são exemplos de que o Diabo está em guerra com a igreja.

Em entrevista ao La Repubblica, o exorcista contou que o Demônio “pode permanecer escondido, ou falar diferentes línguas, ou mesmo se fazer parecer simpático”.

Para Tosatti, não há nada que se possa fazer quando o Diabo está apenas influenciando as pessoas, em vez de estar possuindo-as.

Segundo o exorcista-chefe do Vaticano, o papa Bento 16 apoia o seu trabalho.

“Sua Santidade acredita de todo coração na prática do exorcismo. Ele tem encorajado e louvado o nosso trabalho”.

No jornal italiano, Amorth também comentou sobre como o cinema retrata o exorcismo e a magia.

Segundo ele, o filme O Exorcista, de 1973, em que dois padres lutam para exorcizar uma garota possuída é “substancialmente preciso”, apesar de “um pouco exagerado”.

Já a série do jovem bruxo britânico Harry Potter é descrita como “perigosa” pelo sacerdote, pois traça “uma falsa distinção entre magia negra e magia do bem”.

>Living on Earth: Climate Confusion and the "Climategate"

>
Air Date: March 5, 2010
http://www.loe.org

Link to the audio file.

“Climategate” has damaged the credentials of the Intergovernmental Panel on Climate Change, and decades of science on global warming. But as scientists push back against efforts to dismiss the threat of global warming, some media watchers say journalists aren’t balancing their coverage of climate change with the scientifically-sound other side of the story – that the impacts of a warming world could be worse than the IPCC predicts. Host Jeff Young talks with media experts and scientists about the fallout of the hacked email scandal, and how to repair damage. (12:00)

>Climate scientists to fight back at skeptics (The Washington Times)

>
By Stephen Dinan
The Washington Times – Friday, March 5, 2010

Undaunted by a rash of scandals over the science underpinning climate change, top climate researchers are plotting to respond with what one scientist involved said needs to be “an outlandishly aggressively partisan approach” to gut the credibility of skeptics.

In private e-mails obtained by The Washington Times, climate scientists at the National Academy of Sciences say they are tired of “being treated like political pawns” and need to fight back in kind. Their strategy includes forming a nonprofit group to organize researchers and use their donations to challenge critics by running a back-page ad in the New York Times.

“Most of our colleagues don’t seem to grasp that we’re not in a gentlepersons’ debate, we’re in a street fight against well-funded, merciless enemies who play by entirely different rules,” Paul R. Ehrlich, a Stanford University researcher, said in one of the e-mails.

Some scientists question the tactic and say they should focus instead on perfecting their science, but the researchers who are organizing the effort say the political battle is eroding confidence in their work.

“This was an outpouring of angry frustration on the part of normally very staid scientists who said, ‘God, can’t we have a civil dialogue here and discuss the truth without spinning everything,'” said Stephen H. Schneider, a Stanford professor and senior fellow at the Woods Institute for the Environment who was part of the e-mail discussion but wants the scientists to take a slightly different approach.

The scientists have been under siege since late last year when e-mails leaked from a British climate research institute seemed to show top researchers talking about skewing data to push predetermined outcomes. Meanwhile, the Intergovernmental Panel on Climate Change, the authoritative body on the matter, has suffered defections of members after it had to retract claims that Himalayan glaciers will melt over the next 25 years.

Last month, President Obama announced that he would create a U.S. agency to arbitrate research on climate change.

Sen. James M. Inhofe, Oklahoma Republican and a chief skeptic of global-warming claims, is considering asking the Justice Department to investigate whether climate scientists who receive taxpayer-funded grants falsified data. He lists 17 people he said have been key players in the controversy.

That news has enraged scientists. Mr. Schneider said Mr. Inhofe is showing “McCarthyesque” behavior in the mold of the Cold War-era senator who was accused of stifling political debate through accusations of communism.

In a phone interview, Mr. Schneider, who is one of the key players Mr. Inhofe cites, said he disagrees with trying to engage in an ad battle. He said the scientists will never be able to compete with energy companies.

“They’re not going to win short-term battles playing the game against big-monied interests because they can’t beat them,” he said.

He said the “social contract” between scientists and policymakers is broken and must be reforged, and he urged colleagues to try to recruit members of Congress to take up their case. He also said the press and nongovernmental organizations must be prodded.

“What I am trying to do is head off something that will be truly ugly,” he said. “I don’t want to see a repeat of McCarthyesque behavior and I’m already personally very dismayed by the horrible state of this topic, in which the political debate has almost no resemblance to the scientific debate.”

Not all climate scientists agree with forcing a political fight.

“Sounds like this group wants to step up the warfare, continue to circle the wagons, continue to appeal to their own authority, etc.,” said Judith A. Curry, a climate scientist at the Georgia Institute of Technology. “Surprising, since these strategies haven’t worked well for them at all so far.”

She said scientists should downplay their catastrophic predictions, which she said are premature, and instead shore up and defend their research. She said scientists and institutions that have been pushing for policy changes “need to push the disconnect button for now,” because it will be difficult to take action until public confidence in the science is restored.

“Hinging all of these policies on global climate change with its substantial element of uncertainty is unnecessary and is bad politics, not to mention having created a toxic environment for climate research,” she said.

Ms. Curry also said that more engagement between scientists and the public would help – something that the NAS researchers also proposed.

Paul G. Falkowski, a professor at Rutgers University who started the effort, said in the e-mails that he is seeking a $1,000 donation from as many as 50 scientists to pay for an ad to run in the New York Times. He said in one e-mail that commitments were already arriving.

The e-mail discussion began late last week and continued into this week.

Mr. Falkowski didn’t respond to an e-mail seeking comment, and an effort to reach Mr. Ehrlich was unsuccessful.

But one of those scientists forwarded The Times’ request to the National Academy of Sciences, whose e-mail system the scientists used as their forum to plan their effort.

An NAS spokesman sought to make clear that the organization itself is not involved in the effort.

“These scientists are elected members of the National Academy of Sciences, but the discussants themselves realized their efforts would require private support since the National Academy of Sciences never considered placing such an ad or creating a nonprofit group concerning these issues,” said William Kearney, chief spokesman for NAS.

The e-mails emerged months after another set of e-mails from a leading British climate research group seemed to show scientists shading data to try to bolster their claims, and are likely to feed the impression among skeptics that researchers are pursuing political goals as much as they are disseminating science.

George Woodwell, founder of the Woods Hole Research Center, said in one e-mail that researchers have been ceding too much ground. He blasted Pennsylvania State University for pursuing an academic investigation against professor Michael E. Mann, who wrote many of the e-mails leaked from the British climate research facility.

An initial investigation cleared Mr. Mann of falsifying data but referred one charge, that he “deviated from accepted practices within the academic community,” to a committee for a more complete review.

In his e-mail, Mr. Woodwell acknowledged that he is advocating taking “an outlandishly aggressively partisan approach” but said scientists have had their “classical reasonableness” turned against them.

“We are dealing with an opposition that is not going to yield to facts or appeals from people who hold themselves in high regard and think their assertions and data are obvious truths,” he wrote.

>Oficina de divulgação científica na UFRJ

>
A oficina tem como objetivo incentivar a prática da divulgação científica a partir de discussão sobre o impacto da atividade com experientes divulgadores de ciência.

Sextas-feiras das 12h às 13h no auditório do Programa de Pós-Graduação em Ciências Morfológicas da UFRJ (Ilha do Fundão, ICB, CCS, bloco F). Entrada franca. Organização: Stevens Rehen.

PROGRAMAÇÃO

12/03 – Roberto Lent (ICB-UFRJ): A divulgação científica no Brasil (1980-2010): do Paleolítico ao Neolítico.

26/03 – Claudia Jurberg (Programa de Oncobiologia IBqM-UFRJ): Nos bastidores da notícia, a divulgação científica sob ótica da assessoria de imprensa.

16/04 – Milton Moraes (Fiocruz): Ciência, história em quadrinhos e o jogo do genoma.

30/04 – Suzana Herculano Houzel (ICB-UFRJ): A Neurocientista de plantão.

07/05 – Franklin David Rumjanek (IBqM-UFRJ): Por que divulgar Ciência?

14/05 – Reinaldo Lopes (Folha de São Paulo): Como a ciência vira notícia.

28/05 – Mauro Rebelo (IBCCF-UFRJ): Bioletim e Blogs de ciência.

25/06 – Alysson Muotri (UCSD e colunista do G1): Histórias e estórias da divulgação científica.

>Scientists Taking Steps to Defend Work on Climate (N. Y. Times)

>
By JOHN M. BRODER
New York Times, March 2, 2010

WASHINGTON — For months, climate scientists have taken a vicious beating in the media and on the Internet, accused of hiding data, covering up errors and suppressing alternate views. Their response until now has been largely to assert the legitimacy of the vast body of climate science and to mock their critics as cranks and know-nothings.

Photo: Brendan Smialowski for The New York Times.
Ralph J. Cicerone of the National Academy of Sciences says scientists must try to be heard.

But the volume of criticism and the depth of doubt have only grown, and many scientists now realize they are facing a crisis of public confidence and have to fight back. Tentatively and grudgingly, they are beginning to engage their critics, admit mistakes, open up their data and reshape the way they conduct their work.

The unauthorized release last fall of hundreds of e-mail messages from a major climate research center in England, and more recent revelations of a handful of errors in a supposedly authoritative United Nations report on climate change, have created what a number of top scientists say is a major breach of faith in their research. They say the uproar threatens to undermine decades of work and has badly damaged public trust in the scientific enterprise.

The e-mail episode, dubbed “climategate” by critics, revealed arrogance and what one top climate researcher called “tribalism” among some scientists. The correspondence appears to show efforts to limit publication of contrary opinion and to evade Freedom of Information Act requests. The content of the messages opened some well-known scientists to charges of concealing temperature data from rival researchers and manipulating results to conform to precooked conclusions.

“I have obviously written some very awful e-mails,” Phil Jones, the British climate scientist at the center of the controversy, confessed to a special committee of Parliament on Monday. But he sharply disputed charges that he had hidden data or faked results.

Some of the most serious allegations against Dr. Jones, director of the climate research unit at the University of East Anglia, and other researchers have been debunked, while several investigations are still under way to determine whether others hold up.

But serious damage has already been done. A survey conducted in late December by Yale University and George Mason University found that the number of Americans who believed that climate change was a hoax or scientific conspiracy had more than doubled since 2008, to 16 percent of the population from 7 percent. An additional 13 percent of Americans said they thought that even if the planet was warming, it was a result solely of natural factors and was not a significant concern.

Climate scientists have been shaken by the criticism and are beginning to look for ways to recover their reputation. They are learning a little humility and trying to make sure they avoid crossing a line into policy advocacy.

“It’s clear that the climate science community was just not prepared for the scale and ferocity of the attacks and they simply have not responded swiftly and appropriately,” said Peter C. Frumhoff, an ecologist and chief scientist at the Union of Concerned Scientists. “We need to acknowledge the errors and help turn attention from what’s happening in the blogosphere to what’s happening in the atmosphere.”

A number of institutions are beginning efforts to improve the quality of their science and to make their work more transparent. The official British climate agency is undertaking a complete review of its temperature data and will make its records and analysis fully public for the first time, allowing outside scrutiny of methods and conclusions. The United Nations panel on climate change will accept external oversight of its research practices, also for the first time.

Two universities are investigating the work of top climate scientists to determine whether they have violated academic standards and undermined faith in science. The National Academy of Sciences is preparing to publish a nontechnical paper outlining what is known — and not known — about changes to the global climate. And a vigorous debate is under way among climate scientists on how to make their work more transparent and regain public confidence.

Some critics think these are merely cosmetic efforts that do not address the real problem, however.

“I’ll let you in on a very dark, ugly secret — I don’t want trust in climate science to be restored,” Willis Eschenbach, an engineer and climate contrarian who posts frequently on climate skeptic blogs, wrote in response to one climate scientist’s proposal to share more research. “I don’t want you learning better ways to propagandize for shoddy science. I don’t want you to figure out how to inspire trust by camouflaging your unethical practices in new and innovative ways.”

“The solution,” he concluded, “is for you to stop trying to pass off garbage as science.”

Ralph J. Cicerone, president of the National Academy of Sciences, the most prestigious scientific body in the United States, said that there was a danger that the distrust of climate science could mushroom into doubts about scientific inquiry more broadly. He said that scientists must do a better job of policing themselves and trying to be heard over the loudest voices on cable news, talk radio and the Internet.

“This is a pursuit that scientists have not had much experience in,” said Dr. Cicerone, a specialist in atmospheric chemistry.

The battle is asymmetric, in the sense that scientists feel compelled to support their findings with careful observation and replicable analysis, while their critics are free to make sweeping statements condemning their work as fraudulent.

“We have to do a better job of explaining that there is always more to learn, always uncertainties to be addressed,” said John P. Holdren, an environmental scientist and the White House science adviser. “But we also need to remind people that the occasions where a large consensus is overturned by a scientific heretic are very, very rare.”

No scientific body is under more hostile scrutiny than the United Nations Intergovernmental Panel on Climate Change, which compiles the climate research of hundreds of scientists around the globe into periodic reports intended to be the definitive statement of the science and a guide for policy makers. Critics, citing several relatively minor errors in its most recent report and charges of conflict of interest against its leader, Rajendra K. Pachauri, are calling for the I.P.C.C. to be disbanded or radically reformed.

On Saturday, after weeks of refusing to engage critics, the I.P.C.C. announced that it was asking for the creation of an independent panel to review its research procedures to try to eliminate bias and errors from future reports. But even while allowing for some external oversight, Dr. Pachauri insisted that panel stood behind its previous work.

“Scientists must continually earn the public’s trust or we risk descending into a new Dark Age where ideology trumps reason,” Dr. Pachauri said in an e-mail message.

But some scientists said that responding to climate change skeptics was a fool’s errand.

“Climate scientists are paid to do climate science,” said Gavin A. Schmidt, a senior climatologist with the National Aeronautics and Space Administration’s Goddard Institute of Space Studies. “Their job is not persuading the public.”

He said that the recent flurry of hostility to climate science had been driven as much by the cold winter as by any real or perceived scientific sins.

“There have always been people accusing us of being fraudulent criminals, of the I.P.C.C. being corrupt,” Dr. Schmidt said. “What is new is this paranoia combined with a spell of cold weather in the United States and the ‘climategate’ release. It’s a perfect storm that has allowed the nutters to control the agenda.”

The answer is simple, he said.

“Good science,” he said, “is the best revenge.”