Todos os posts de renzotaddei

Avatar de Desconhecido

Sobre renzotaddei

Anthropologist, professor at the Federal University of São Paulo

>The delicate wine grape has become our best early-warning system for the effects of global warming (Slate)

>
climate desk – In Vino Veritas

The delicate wine grape has become our best early-warning system for the effects of global warming.

By Mark Hertsgaard
Posted Monday, April 26, 2010, at 11:01 AM ET

John Williams has been making wine in California’s Napa Valley for nearly 30 years, and he farms so ecologically that his peers call him Mr. Green. But if you ask him how climate change will affect Napa’s world-famous wines, he gets irritated, almost insulted. “You know, I’ve been getting that question a lot recently, and I feel we need to keep this issue in perspective,” he told me. “When I hear about global warming in the news, I hear that it’s going to melt the Arctic, inundate coastal cities, displace millions and millions of people, spread tropical diseases and bring lots of other horrible effects. Then I get calls from wine writers and all they want to know is, ‘How is the character of cabernet sauvignon going to change under global warming?’ I worry about global warming, but I worry about it at the humanity scale, not the vineyard scale.”

Williams is the founder of Frog’s Leap, one of the most ecologically minded wineries in Napa and, for that matter, the world. Electricity for the operation comes from 1,000 solar panels erected along the merlot vines; the heating and cooling are supplied by a geothermal system that taps into the Earth’s heat. The vineyards are 100 percent organic and—most radical of all, considering Napa’s dry summers—there is no irrigation.

Yet despite his environmental fervor, Williams dismisses questions about preparing Frog’s Leap for the impacts of climate change. “We have no idea what effects global warming will have on the conditions that affect Napa Valley wines, so to prepare for those changes seems to me to be whistling past the cemetery,” he says, a note of irritation in his voice. “All I know is, there are things I can do to stop, or at least slow down, global warming, and those are things I should do.”

Williams has a point about keeping things in perspective. At a time when climate change is already making it harder for people in Bangladesh to find enough drinking water, it seems callous to fret about what might happen to premium wines. But there is much more to the question of wine and climate change than the character of pinot noir. Because wine grapes are extraordinarily sensitive to temperature, the industry amounts to an early-warning system for problems that all food crops—and all industries—will confront as global warming intensifies. In vino veritas, the Romans said: In wine there is truth. The truth now is that the Earth’s climate is changing much faster than the wine business, and virtually every other business on Earth, is preparing for.

All crops need favorable climates, but few are as vulnerable to temperature and other extremes as wine grapes. “There is a fifteenfold difference in the price of cabernet sauvignon grapes that are grown in Napa Valley and cabernet sauvignon grapes grown in Fresno,” in California’s hot Central Valley, says Kim Cahill, a consultant to the Napa Valley Vintners’ Association. “Cab grapes grown in Napa sold [in 2006] for $4,100 a ton. In Fresno the price was $260 a ton. The difference in average temperature between Napa and Fresno was 5 degrees Fahrenheit.”

Numbers like that help explain why climate change is poised to clobber the global wine industry, a multibillion-dollar business whose decline would also damage the much larger industries of food, restaurants, and tourism. Every business on Earth will feel the effects of global warming, but only the ski industry—which appears doomed in its current form—is more visibly targeted by the hot, erratic weather that lies in store over the next 50 years. In France, the rise in temperatures may render the Champagne region too hot to produce fine champagne. The same is true for the legendary reds of Châteauneuf du Pape, where the stony white soil’s ability to retain heat, once considered a virtue, may now become a curse. The world’s other major wine-producing regions—California, Italy, Spain, Australia—are also at risk.

If current trends continue, the “premium wine grape production area [in the United States] … could decline by up to 81 percent by the late 21st century,” a team of scientists wrote in a study published in the Proceedings of the National Academy of Sciences in 2006. The culprit was not so much the rise in average temperatures but an increased frequency of extremely hot days, defined as above 35 degrees Celsius (95 degrees Fahrenheit). If no adaptation measures were taken, these increased heat spikes would “eliminate wine grape production in many areas of the United States,” the scientists wrote.

In theory, winemakers can defuse the threat by simply shifting production to more congenial locations. Indeed, Champagne grapes have already been planted in England and some respectable vintages harvested. But there are limits to this strategy. After all, temperature is not the sole determinant of a wine’s taste. What the French call terroir—a term that refers to the soil of a given region but also includes the cultural knowledge of the people who grow and process grapes—is crucial. “Wine is tied to place more than any other form of agriculture, in the sense that the names of the place are on the bottle,” says David Graves, the co-founder of the Saintsbury wine company in the Napa Valley. “If traditional sugar-beet growing regions in eastern Colorado had to move north, nobody would care. But if wine grapes can’t grow in the Napa Valley anymore—which is an extreme statement, but let’s say so for the sake of argument—suddenly you have a global warming poster child right up there with the polar bears.”

A handful of climate-savvy winemakers such as Graves are trying to rouse their colleagues to action before it is too late, but to little avail. Indeed, some winemakers are actually rejoicing in the higher temperatures of recent years. “Some of the most expensive wines in Spain come from the Rioja Alta and Rioja Alavesa regions,” Pancho Campo, the founder and president of the Wine Academy of Spain, says. “They are getting almost perfect ripeness every year now for Tempranillo. This makes the winemakers say, ‘Who cares about climate change? We are getting perfect vintages.’ The same thing has happened in Bordeaux. It is very difficult to tell someone, ‘This is only going to be the case for another few years.’ “

The irony is, the wine business is better situated than most to adapt to global warming. Many of the people in the industry followed in their parents’ footsteps and hope to pass the business on to their kids and grandkids someday. This should lead them to think further ahead than the average corporation, with its obsessive focus on this quarter’s financial results. But I found little evidence this is happening.

The exception: Alois Lageder’s family has made wine in Alto Adige, the northernmost province in Italy, since 1855. The setting, at the foot of the Alps, is majestic. Looming over the vines are massive outcroppings of black and gray granite interspersed with flower-strewn meadows and wooded hills that inevitably call to mind The Sound of Music. Locals admire Lageder for having led Alto Adige’s evolution from producing jug wine to boasting some of the best whites in Italy. In October 2005, Lageder hosted the world’s first conference on the future of wine under climate change. “We must recognize that climate change is not a problem of the future,” Lageder told his colleagues. “It is here today and we must adapt now.”

As it happens, Alto Adige is the location of one of the most dramatic expressions of modern global warming: the discovery of the so-called Iceman—the frozen remains of a herder who lived in the region 5,300 years ago. The corpse was found in 1991 in a mountain gully, almost perfectly preserved—even the skin was intact—because it had lain beneath mounds of snow and ice since shortly after his death (a murder, forensic investigators later concluded from studying the trajectory of an arrowhead lodged in his left shoulder). He would not have been found were it not for global warming, says Hans Glauber, the director of the Alto Adige Ecological Institute: “Temperatures have been rising in the Alps about twice as fast as in the rest of the world,” he notes.

Lageder heard about global warming in the early 1990s and felt compelled to take action. It wasn’t easy—”I had incredible fights with my architect about wanting good insulation,” he says—but by 1996 he had installed the first completely privately financed solar-energy system in Italy. He added a geothermal energy system as well. Care was taken to integrate these cutting-edge technologies into the existing site; during a tour, I emerged from a dark fermentation cellar with its own wind turbine into the bright sunlight of a gorgeous courtyard dating to the 15th century. Going green did make the renovation cost 30 percent more, Lageder says, “but that just means there is a slightly longer amortization period. In fact, we made up the cost difference through increased revenue, because when people heard about what we were doing, they came to see it and they ended up buying our wines.”

The record summer heat that struck Italy and the rest of Europe in 2003, killing tens of thousands, made Lageder even more alarmed. “When I was a kid, the harvest was always after Nov. 1, which was a cardinal date,” he told me. “Nowadays, we start between the 5th and 10th of September and finish in October.” Excess heat raises the sugar level of grapes to potentially ruinous levels. Too much sugar can result in wine that is unbalanced and too alcoholic—wine known as “cooked” or “jammy.” Higher temperatures may also increase the risk of pests and parasites, because fewer will die off during the winter. White wines, whose skins are less tolerant of heat, face particular difficulties as global warming intensifies. “In 2003, we ended up with wines that had between 14 and 16 percent alcohol,” Lageder recalled, “whereas normally they are between 12 and 14 percent. The character of our wine was changing.”

A 2 percent increase in alcohol may sound like a tiny difference, but the effect on a wine’s character and potency is considerable. “In California, your style of wine is bigger, with alcohol levels of 14 and 15, even 16 percent,” Lageder continued. “I like some of those wines a lot. But the alcohol level is so high that you have one glass and then”—he slashed his hand across his throat—”you’re done; any more and you will be drunk. In Europe, we prefer to drink wine throughout the evening, so we favor wines with less alcohol. Very hot weather makes that harder to achieve.”

There are tricks grape growers and winemakers can use to lower alcohol levels. The leaves surrounding the grapes can be allowed to grow bushier, providing more shade. Vines can be replaced with different clones or rootstocks. Growing grapes at higher altitudes, where the air is cooler, is another option. So is changing the type of grapes being grown.

But laws and cultural traditions currently stand in the way of such adaptations. So-called AOC laws (Appellation d’Origine Côntrollée) govern wine-grape production throughout France, and in parts of Italy and Spain, as well. As temperatures rise further, these AOC laws and kindred regulations are certain to face increased challenge. “I was just in Burgundy,” Pancho Campo told me in March 2008, “and producers there are very concerned, because they know that chardonnay and pinot noir are cool-weather wines, and climate change is bringing totally the contrary. Some of the producers were even considering starting to study Syrah and other varieties. At the moment, they are not allowed to plant other grapes, but these are questions people are asking.”

The greatest resistance, however, may come from the industry itself. “Some of my colleagues may admire my views on this subject, but few have done much,” says Lageder. “People are trying to push the problem away, saying, ‘Let’s do our job today and wait and see in the future if climate change becomes a real problem.’ But by then it will be too late to save ourselves.”

If the wine industry does not adapt to climate change, life will go on—with less conviviality and pleasure, perhaps, but it will go on. Fine wine will still be produced, most likely by early adapters such as Lageder, but there will be less of it. By the law of supply and demand, that suggests the best wines of tomorrow will cost even more than the ridiculous amounts they fetch today. White wine may well disappear from some regions. Climate-sensitive reds such as pinot noir are also in trouble. It’s not too late for winemakers to save themselves through adaptation. But it’s disconcerting to see so much dawdling in an industry with so much incentive to act. If winemakers aren’t motivated to adapt to climate change, what businesses will be?

The answer seems to be very few. Even in Britain, where the government is vigorously championing adaptation, the private sector lags in understanding the adaptation imperative, much less implementing it. “I bet if I rang up 100 small businesses in the U.K. and mentioned adaptation, 90 of them wouldn’t know what I was talking about,” says Gareth Williams, who works with the organization Business in the Community, helping firms in northeast England prepare for the storms and other extreme weather events that scientists project for the region. “When I started this job, I gave a presentation to heads of businesses,” said Williams, who spent most of his career in the private sector. “I presented the case for adaptation, and in the question-and-answer period, one executive said, ‘We’re doing quite a lot on adaptation already.’ I said, ‘Oh, what’s that?’ He said, ‘We’re recycling, and we’re looking at improving our energy efficiency.’ I thought to myself, ‘Oh, my, he really didn’t get it at all. This is going to be a struggle.’ “

“Most of us are not very good at recognizing our risks until we are hit by them,” explains Chris West, the director of the U.K. government’s Climate Impact Program. “People who run companies are no different.” Before joining UKCIP in 1999, West had spent most of his career working to protect endangered species. Now, the species he is trying to save is his own, and the insights of a zoologist turn out to be quite useful. Adapting to changing circumstances is, after all, the essence of evolution—and of success in the modern economic marketplace. West is fond of quoting Darwin: “It is not the strongest of the species that survives … nor the most intelligent that survives. It is the one that is the most adaptable to change.”

This story comes from the Climate Desk collaboration.

Article URL: http://www.slate.com/id/2251870/

>Quando é melhor ter sotaque estrangeiro

>
Accented teachers may be better for English language learners: study

By Valerie Strauss – The Answer Sheet
The Washington Post, May 5, 2010

A new study on how well students learn second languages from teachers with accents suggests that Arizona may be making a mistake by trying to remove heavily accented Hispanic teachers from classrooms filled with Hispanics trying to learn English.

School districts in Arizona are under orders from the state Department of Education to remove teachers who speak English with a very heavy accent (and/or whose speech is ungrammatical) from classrooms with students who are learning to speak English. Officials say they want students who don’t know much English to have teachers who can best model how to speak the language.

I wrote the other day about the difficulties in determining just how deep an accent has to be to be considered a problem, but here’s another side of the issue.

According to a new research study conducted in Israel, students learn a second language better from a teacher who speaks in the same accent as they do.

The study, published in the Journal of Psycholinguistic Research, said that students learning from a teacher with the same accent have an easier time understanding the material. They don’t have to spend time trying to understand the English in a different accent.

According to one of the report’s co-authors, Psychology Professor Zohar Eviatar, the concentration a student would have to summon to understand English in a different accent is considerably greater than if the student were a native English speaker.

In Arizona, that would mean that Hispanic kids studying English would learn better from teachers with Spanish accents.

The research, conducted at the University of Haifa, has implications not just for second language acquisition, but for how well students learn new subjects, Eviatar said.

The study was performed by researchers from different backgrounds. Dr. Raphiq Ibrahim is an Israeli Arab with an Arabic accent; Dr. Mark Leikin hails from the former Soviet Union and speaks with a Russian accent; Eviatar is a fluently bilingual Hebrew-English speaker. The team was both personally and professionally curious to know more about the accent effect.

Here’s how the study was done:

Sixty participants from ages 18 to 26 were chosen: Twenty were native Hebrew speakers, 20 were from the former Soviet Union, and 20 were Israeli Arabs who had started learning Hebrew at about seven years of age.

Researchers made recordings of Hebrew phrases where the last word was recorded with one of four different accents: Hebrew, Arabic, Russian or English. The students were then tested to see how long it took for them to recognize the Hebrew word in one of the four accents.

They found, according to the Innovation News Service, that the Hebrew speakers could decipher Hebrew words adequately regardless of the accent in which they were spoken, while the Russian and Arabic speakers needed more time to understand the Hebrew words presented in an accent foreign to their own.

The researchers feel that additional research is needed to determine just how much extra effort is involved in the attempt to process both an unfamiliar accent as well as new material.

The study suggests that English taught to Mexican students as a second language, for example, can be taught just as well by a Mexican teacher speaking English, as by a native American who’s been speaking English since birth.

“If you are an Arab, you would understand English better if taught by a native Arab English teacher,” Eviatar believes, adding, “This research isn’t even just about learning language but can be expanded to any topic like math or geography.

“If you have a Spanish accent and your teacher has a Chinese accent it will be much harder for you to concentrate on your studies,” Eviatar continues. “It’s best to learn from a teacher who teaches with a majority accent – the accent of the language being spoken, or an accent like your own. If not, it’s an added burden for the student.”

Someone should give this study to Arizona education officials.

>História e arqueologia do mundo digital

>
Site arqueológico

25 de abril de 2010 – 17h40
Por Heloisa Lupinacci
Estadão.com.br

Em 2001, o cientista Joseph Miller pediu à Nasa dados coletados pela sonda Viking em Marte nos anos 70. A Nasa achou as fitas, mas os dados gravados ali não puderam ser abertos. O software que os lia não existia mais, e, como disse Miller à época à agência de notícias Reuters, os técnicos que conheciam o formato estavam todos mortos.

Essa é uma história. Há muitas outras. Parte do conhecimento produzido de maneira digital já era. De dados científicos a modinhas da internet. “Temos poucos serviços de preservação da história da cultura digital e muito conteúdo já se perdeu ao longo dos últimos anos”, diz Roberto Taddei, coordenador do Simpósio Internacional de Políticas Públicas para Acervos Digitais, que discutirá o tema em São Paulo de hoje até quinta.

Decifra-me ou… Se um pergaminho pode ser desenrolado por qualquer pessoa, um cartão perfurado, bisavô do disquete, não se deixa abrir facilmente. Carlos Augusto Ditadi, da Câmara Técnica de Documentos Eletrônicos do Conselho Nacional de Arquivo (CONARQ, que já cuida de parte patrimônio digital do País), dá a medida da encrenca: “o disco depende do driver, que depende do computador, que depende do software, que depende do sistema operacional: isso se chama interdependência”. Some a essa equação o fato de computadores ficarem obsoletos, programas saírem de linha e linguagens caírem em desuso: o cartão perfurável fica tão indecifrável quanto hieróglifos egípcios.

A preocupação com o patrimônio digital é recente. Em 2002, foi apresentada pela Unesco a Carta pela Preservação do Patrimônio Digital. Diz o documento: “Muitas dessas fontes têm valor e relevância duradouros e, assim, constituem um patrimônio a ser preservado”. A organização criou o órgão E-Heritage, dedicado, sobretudo, à conscientização de governos e à capacitação de arquivistas. É um bom começo, mas o patrimônio digital tem lá seus obstáculos específicos.

A interdependência é um deles. E, nesse caso, uma das melhores soluções veio de um jeito que é a cara da web: dos usuários. “A primeira geração de gamers percebeu, nos anos 90, que não tinha mais acesso a jogos da infância. Eles foram os primeiros a usar emuladores, que sempre existiram, como ferramentas de preservação. Graças a eles há emuladores para quase qualquer plataforma computacional”, diz Andreas Lange, diretor do Museu de Jogos de Computador, em Berlim, que tenta evitar o desaparecimento de games. O emulador é um programa que recria qualquer ambiente de computador: softwares extintos, consoles não mais fabricados, etc.

…devoro-te. Outro desafio evidente é o volume. Em 2009, de acordo com o Instituto de Pesquisas IDC, a humanidade produziu 750 bilhões de GB de informação. Como escolher o que preservar? “Não fazemos nenhuma seleção. Tentamos fazer o registro mais exaustivo. Arquivamos tudo o que encontramos sob o domínio .pt”, diz Daniel Gomes, coordenador do projeto Arquivo da Web Portuguesa. A declaração da Unesco sugere: “Os principais critérios devem ser significância e durabilidade (cultural, científica). Materiais ‘nativos digitais’ devem ter prioridade”.

Decidido o que guardar, falta definir como guardar e arrumar dinheiro para isso. Duas questões nada simples. Segundo Ditadi, o site é das coisas mais difíceis de preservar. “Ele deve permanecer navegável, mas como garantir os links? E eles levam a coisas protegidas por direitos autorais. É um registro muito dinâmico.” E o armazenamento custa caro. É preciso fazer uma cópia no formato nativo, chamada cópia de testemunho, que é a garantia de que aquele documento é real. Então, é feita a versão de preservação, em uma extensão mais duradoura – quase sempre um formato aberto, baseado em software livre. Daí, grava-se a cópia de acesso, aquela que fica disponível para consulta. Multiplique, portanto, tudo por três.

Por essas e outras, muitas vezes a memória da web é preservada justo por quem a alimenta. De novo, o usuário. Mas daí não há novidade. “Muitas bibliotecas foram montadas por usuários e depois doadas a instituições ou bibliotecas”, lembra Taddei.

* Visite os marcos: Parceria firmada entre Google e Unesco colocará todos os 890 sítios tombados pelo órgão no Google Earth e no Maps. O Street View permite a ‘visita’ em 19 patrimônios da humanidade.

* Histórico e natural: A Unesco divide o patrimônio da humanidade em duas categorias, o patrimônio histórico e o patrimônio natural. Há sítios mistos, tombados em ambas, como Ibiza, na Espanha.

* Patrimônio no Brasil: Há três esferas de tombamento histórico no Brasil, a municipal (na cidade de São Paulo é o Conpresp), a estadual (no Estado de São Paulo é o Condephaat) e a federal, o Iphan.

* Biblioteca de tweets: A coordenadora de mídias digitais da Biblioteca do Congresso dos EUA, que arquivará tweets, fala sobre a preservação de informações digitais na insituição.

* Biblioteca de tudo: A Wayback Machine, parte do Internet Archive que guarda sites, foi incorporada à Biblioteca de Alexandria após parceria com o E-Heritage. Para navegar pelo acervo, vá a Archive.org.

* Todos juntos: Comparando o fim do Geocities à destruição, pelo Taleban, dos budas de Bamyan, no Afeganistão, o holandês Jacques Matthei conclama todos a resgatá-lo em seu Reocities.com

>Navios roubam água dos rios da Amazônia – mito ou verdade?

>
Erik von Farfan

Eco 21 – http://www.eco21.com.br
Ano XIV – nº 93 – Agosto – 2004

Depois de sofrer com a biopirataria, com o roubo de minérios e madeiras nobres, agora a Amazônia está enfrentando o tráfico de água doce. Uma nova modalidade de saque aos recursos naturais denominada hidropirataria. Cientistas e autoridades brasileiras foram informadas que navios petroleiros estão reabastecendo seus reservatórios no Rio Amazonas antes de sair das águas nacionais. Porém a falta de uma denúncia formal tem impedido a Agência Nacional de Águas (ANA), responsável por esse tipo de fiscalização, de atuar no caso.

Enquanto as grandes embarcações estrangeiras recriam a pirataria do Século 16, a burocracia impede o bloqueio desta nova forma de saque das riquezas nacionais.

Ivo Brasil, Diretor de Outorga, Cobrança e Fiscalização da Agência Nacional de Águas, sabe desta ação ilegal; contudo, aguarda uma denúncia oficial chegar à entidade para poder tomar as providências necessárias. “Só assim teremos condições legais para agir contra essa apropriação indevida”, afirmou.

O dirigente está preocupado com a situação. Precisa, porém, dos amparos legais para mobilizar tanto a Marinha como a Polícia Federal, que necessitam de comprovação do ato criminoso para promover uma operação na foz dos rios de toda a região amazônica próxima ao Oceano Atlântico. “Tenho ouvido comentários neste sentido, mas ainda nada foi formalizado”, observa.

A defesa das águas brasileiras está na Constituição Federal, no Artigo 20, que trata dos Bens da União. Em seu inciso III, a legislação determina que rios e quaisquer correntes de água no território nacional, inclusive o espaço do mar territorial, é pertencente à União.

Isto é complementado pela Lei 9.433/97, sobre Política Nacional de Recursos Hídricos, em seu Art. 1, inciso II, que estabelece ser a água um recurso limitado, dotado de valor econômico. E ainda determina que o poder público seja o responsável pela licença para uso dos recursos hídricos, “como derivação ou captação de parcela de água”. O gerente do Projeto Panamazônia, do INPE, o geólogo Paulo Roberto Martini, também tomou conhecimento do caso em conversa com técnicos de outros órgãos estatais. “Têm nos chegado diversas informações neste sentido, infelizmente sempre estão tirando irregularmente algo da Amazônia”, comentou o cientista, preocupado com o contrabando.

Os cálculos preliminares mostram que cada navio tem se abastecido com 250 milhões de litros. A ingerência estrangeira nos recursos naturais da região amazônica tem aumentado significativamente nos últimos anos.

Águas amazônicas

Seja por ação de empresas multinacionais, pesquisadores estrangeiros autônomos ou pelas missões religiosas internacionais. Mesmo com o Sistema de Vigilância da Amazônia (SIVAM) ainda não foi possível conter os contrabandos e a interferência externa dentro da região.

A hidropirataria também é conhecida dos pesquisadores da Petrobras e de órgãos públicos estaduais do Amazonas. A informação deste novo crime chegou, de maneira não oficial, ao Instituto de Proteção Ambiental do Amazonas (IPAAM), órgão do governo local. “Uma mobilização até o local seria extremamente dispendiosa e necessitaríamos do auxílio tanto de outros órgãos como da comunidade para coibir essa prática”, reafirmou Ivo Brasil. A captação é feita pelos petroleiros na foz do rio ou já dentro do curso de água doce. Somente o local do deságüe do Amazonas no Atlântico tem 320 km de extensão e fica dentro do território do Amapá. Neste lugar, a profundidade média é em torno de 50 m, o que suportaria o trânsito de um grande navio cargueiro. O contrabando é facilitado pela ausência de fiscalização na área.

Essa água, apesar de conter uma gama residual imensa e a maior parte de origem mineral, pode ser facilmente tratada. Para empresas engarrafadoras, tanto da Europa como do Oriente Médio, trabalhar com essa água mesmo no estado bruto representaria uma grande economia. O custo por litro tratado seria muito inferior aos processos de dessalinizar águas subterrâneas ou oceânicas. Além de livrar-se do pagamento das altas taxas de utilização das águas de superfície existentes, principalmente, dos rios europeus.

As águas salinizadas estão presentes no subsolo de vários países do Oriente Médio, como a Arábia Saudita, Kuwait e Israel. Eles praticamente só dispõem desta fonte para seus abastecimentos. O Brasil importa desta região cerca de 5% de todo o petróleo que será convertido para gasolina e outros derivados considerados de densidade leve. Esse procedimento de retirada do sal é feito por osmose reversa, algo extremamente caro.

Na dessalinização é gasto US$ 1,50 por metro cúbico e US$ 0,80 com o mesmo volume de água doce tratada.

Hidro ou biopirataria?

O diretor de operações da empresa Águas do Amazonas, o engenheiro Paulo Edgard Fiamenghi, trata as águas do Rio Negro, que abastece Manaus, por processos convencionais. E reconhece que esse procedimento seria de baixo custo para países com grandes dificuldades em obter água potável. “Levar água para se tratar no processo convencional é muito mais barato que o tratamento por osmose reversa”, comenta.

O avanço sobre as reservas hídricas do maior complexo ambiental do mundo, segundo os especialistas, pode ser o começo de um processo desastroso para a Amazônia. E isto surge num momento crítico, cujos esforços estão concentrados em reduzir a destruição da flora e da fauna, abrandando também a pressão internacional pela conservação dos ecossistemas locais.

Entretanto, no meio científico ninguém poderia supor que o manancial hídrico seria a próxima vítima da pirataria ambiental. Porém os pesquisadores brasileiros questionam o real interesse em se levar as águas amazônicas para outros continentes. O que suscita novamente o maior drama amazônico, o roubo de seus organismos vivos. “Podem estar levando água, peixes ou outras espécies e isto envolve diretamente a soberania dos países na região”, argumentou Martini.

A mesma linha de raciocínio é utilizada pelo professor do Departamento de Hidráulica e Saneamento da Universidade Federal do Paraná, Ary Haro. Para ele, o simples roubo de água doce está longe de ser vantajoso no aspecto econômico. “Como ainda é desconhecido, só podemos formular teorias e uma delas pode estar ligada ao contrabando de peixes ou mesmo de microorganismos”, observou.

Essa suposição também é tida como algo possível para Fiamenghi, pois o volume levado na nova modalidade, denominada “hidropirataria” seria relativamente pequeno. Um navio petroleiro armazenaria o equivalente a meio dia de água utilizada pela cidade de Manaus, de 1,5 milhão de habitantes. “Desconheço esse caso, mas podemos estar diante de outros interesses além de se levar apenas água doce”, comentou.

Segundo o pesquisador do INPE, a saturação dos recursos hídricos utilizáveis vem numa progressão mundial e a Amazônia é considerada a grande reserva do Planeta para os próximos mil anos. Pelos seus cálculos, 12% da água doce de superfície se encontram no território amazônico. “Essa é uma estimativa extremamente conservadora, há os que defendem 26% como o número mais preciso”, explicou.

Em todo o Planeta, dois terços são ocupado por oceanos, mares e rios. Porém, somente 3% desse volume são de água doce. Um índice baixo, que se torna ainda menor se for excluído o percentual encontrado no estado sólido, como nas geleiras polares e nos cumes das grandes cordilheiras. Contando ainda com as águas subterrâneas. Atualmente, na superfície do Planeta, a água em estado líquido, representa menos de 1% deste total disponível.

A previsão é que num período entre 100 e 150 anos, as guerras sejam motivadas pela detenção dos recursos hídricos utilizáveis no consumo humano e em suas diversas atividades, com a agricultura. Muito disto se daria pela quebra dos regimes de chuvas, causada pelo aquecimento global. Isto alteraria profundamente o cenário hidrológico mundial, trazendo estiagem mais longas, menores índices pluviométricos, além do degelo das reservas polares e das neves permanentes.

Sob esse aspecto, a Amazônia se transforma num local estratégico. Muito devido às suas características particulares, como o fato de ser a maior bacia existente na Terra e deter a mais complexa rede hidrográfica do planeta, com mais de mil afluentes. Diante deste quadro, a conclusão é óbvia: a sobrevivência da biodiversidade mundial passa pela preservação desta reserva.

Mas a importância deste reduto natural poderá ser, num futuro próximo, sinônimo de riscos à soberania dos territórios panamazônicos. O que significa dizer que o Brasil seria um alvo prioritário numa eventual tentativa de se internacionalizar esses recursos, como já ocorre no caso das patentes de produtos derivados de espécies amazônicas. Pois 63,88% das águas que formam o rio se encontram dentro dos limites nacionais.

Esse potencial conflito é algo que projetos como o Sistema de Vigilância da Amazônia procuram minimizar. Outro aspecto a ser contornado é a falta de monitoramento da foz do rio. A cobertura de nuvens em toda Amazônia é intensa e os satélites de sensoriamento remoto não conseguem obter imagens do local. Já os satélites de captação de imagens via radar, que conseguiriam furar o bloqueio das nuvens e detectar os navios, estão operando mais ao norte.

As águas amazônicas representam 68% de todo volume hídrico existente no Brasil. E sua importância para o futuro da humanidade é fundamental. Entre 1970 e 1995 a quantidade de água disponível para cada habitante do mundo caiu 37% em todo mundo, e atualmente cerca de 1,4 bilhão de pessoas não têm acesso a água limpa. Segundo a Water World Vision, somente o Rio Amazonas e o Congo podem ser qualificados como limpos.

* * *

O professor José Nilson Campos, da UFC, me mandou o seguinte comentário, baseado em questionamentos meus sobre o tema:

“Vou fazer um pequeno relato. Deveria ter sido feito há algum tempo, porém agora vou aproveitar o requentamento do assunto.

Quando presidente da ABRH (1993-1995) fui convidado a proferir uma palestra em Santarém, onde há um grupo bem atuante e interessado nas questões da água e do meio ambiente da Amazônia. Havia na grande platéia com pessoas de diversas visões da questão ambiental e hídrica.

Nos debates um participante comentou que havia registros de que navios estrangeiros estavam “pirateando” água da Amazônia e perguntou minha opinião sobre o assunto. Respondi que não poderia informar sobre a veracidade ou não da informação mas que, no atual momento (1994) os custos de transportar água em navios da Amazônia para a Europa ou Estados Unidos seriam bem maiores do que conseguir água por outros meios alternativos (…).

Na Platéia havia um comandante da Marinha Mercante Brasileira que comentou que não podia precisar a veracidade, porém havia situações nas quais os navios precisavam fazer lastro (colocar peso) e que a água doce era uma alternativa. Para mim, aquela afirmação vindo de um Comandante da Marinha era bastante convincente e a aceitei como verdadeira.

Esse é um relato. Não significa que eu não acredite que haja entre as grandes potências econômicas mundiais grupos que pratiquem algum tipo de pirataria. Na bio pirataria da Amazônia eu acredito, na hidro pirataria ainda não.

Saudações a todos.”

>Militares pedem ao STF a punição dos torturadores

>
15/04/2010 – 10h04

Por Redação Agência Carta Maior

Grupo de militares que não apoiaram o golpe de 1964, e por isso foram punidos, consideram que “os crimes comuns e de tortura praticados pelos agentes do Estado e da Repressão durante o regime militar brasileiro são atos absolutamente nulos e impassíveis também de anistia”. Os postulantes usam argumentos com base na legislação nacional e internacional para afirmar que a Lei da Anistia não a não pode provocar um esquecimento artificial dos fatos ocorridos. STF adia julgamento sobre o caso que estava marcado para esta quarta-feira.

O Major Brigadeiro Rui Moreira Lima – um dos três heróis de guerra remanescentes da Força Expedicionária Brasileira combatente do nazi-fascismo, durante a II Guerra Mundial – protocolou segunda-feira (12), no Supremo Tribunal Federal (STF) um pedido para que a lei de Anistia não abarque os crimes de tortura. O documento, assinado pelo Brigadeiro como presidente da Associação Democrática e Nacionalista de Militares (ADNAM), afirma:

“Pede-se a este Pretório Excelso uma interpretação da Lei 6.683/79 conforme a Constituição de tal modo que a anistia concedida pela referida lei aos crimes políticos e conexos não abarque os crimes comuns praticados pelos agentes repressores da oposição ao regime militar à época vigente (1964/1985), devendo, assim, a presente ADPF ser julgada integralmente procedente.”

A petição, protocolada pelos militares, requer ingresso, como amicus curiae na ação de Argüição de Descumprimento de Preceito Fundamental proposta pela Ordem dos Advogados do Brasil. A ação da OAB questiona quais tipos de violação podem ser classificadas como crimes comuns e quais continuam a ser entendidos como ações políticas, – o que as enquadra dentro da Lei de Anistia. A lei concede perdão a todos os envolvidos com crimes políticos entre 1961 e 1979. Com quase dois anos de atraso, foi marcado, de forma repentina, para quarta-feira (14), o julgamento da referida ação pelo STF. Esse julgamento foi adiado nesta terça-feira (ver abaixo).

Segundo a petição assinada por Moreira Lima, “anistia não pode significar que atos de terror cometidos pelo Estado através de seus agentes e que ensejaram verdadeiros crimes contra a humanidade não possam ser revistos”. A Associação Democrática e Nacionalista de Militares congrega militares das três forças armadas, policiais militares e corpos de bombeiros que se comprometem com a manutenção da democracia no país e lutam pela preservação do patrimônio nacional. A ADNAM visa também a promoção e a defesa dos direitos dos seus associados nas esferas executiva, legislativa e judiciária e dos militares punidos com fundamento nos Atos Institucionais e complementares ou outros diplomas legais emitidos durante o período de 1964-1985, sob o qual o país foi governado por sucessivos governos militares.

Na peça jurídica de 26 páginas os militares que não apoiaram o golpe de 1964, e por isso foram punidos, consideram que “os crimes comuns e de tortura praticados pelos agentes do Estado e da Repressão durante o regime militar brasileiro são atos absolutamente nulos e impassíveis também de anistia”. Os postulantes usam argumentos com base na legislação nacional e internacional para afirmar que:

“Anistia não é esquecimento. (…) A Lei de Anistia não pode provocar um esquecimento artificial dos fatos ocorridos. (…) Anistia não é perdão. (…) A questão que se coloca, é se a Lei da Anistia significa o auto-perdão, ou seja, o Estado na condição de perpetrador da violência deve ser por ele mesmo perdoado? Se anistia não se confunde com perdão, muito menos pode significar auto-perdão”.

Sobre a alegação de que a anistia foi um pacto político, escrevem os militares:

“Não se pode justificar o Estado Democrático de Direito atual sob o esquecimento e negação da violação de direitos perpetrada pelo regime militar. Não há acordo, pacificação, reconciliação, perdão e/ou reconstrução se a uma das partes é vedada o conhecimento do que efetivamente se passou e quem foram os responsáveis”.

Julgamento adiado
A Arguição de Descumprimento de Preceito Fundamental (ADPF) 153, que contesta a Lei da Anistia (Lei nº 6.683/79), não entrará na pauta da sessão ordinária desta quarta-feira (14) como estava previsto. Embora haja o quórum mínimo exigido para análise de matéria constitucional (oito ministros), a Presidência do STF decidiu adiar o julgamento alegando que “a importância e complexidade da questão recomendam a análise do processo com quórum completo”. Ainda não há previsão acerca da nova data para julgamento do processo.

A norma, que completou 30 anos em agosto de 2009, é questionada na Suprema Corte pela Ordem dos Advogados do Brasil (OAB). O relator da ADPF é o ministro Eros Grau. A OAB contesta o artigo 1º da Lei da Anistia, defendendo uma interpretação mais clara quanto ao que foi considerado como perdão aos crimes conexos “de qualquer natureza” quando relacionados aos crimes políticos ou praticados por motivação política.

Segundo a OAB, a lei “estende a anistia a classes absolutamente indefinidas de crime” e, nesse contexto, a anistia não deveria alcançar os autores de crimes comuns praticados por agentes públicos acusados de homicídio, abuso de autoridade, lesões corporais, desaparecimento forçado, estupro e atentado violento ao pudor, contra opositores ao regime político da época.

Com informações do STF e da Comissão de Anistia.

>Weathermen, and other climate change skeptics (The New Yorker)

>
Comment
Up in the Air

by Elizabeth Kolbert – April 12, 2010

Joe Bastardi, who goes by the title “expert senior forecaster” at AccuWeather, has a modest proposal. Virtually every major scientific body in the world has concluded that the planet is warming, and that greenhouse-gas emissions are the main cause. Bastardi, who holds a bachelor’s degree in meteorology, disagrees. His theory, which mixes volcanism, sunspots, and a sea-temperature trend known as the Pacific Decadal Oscillation, is that the earth is actually cooling. Why don’t we just wait twenty or thirty years, he proposes, and see who’s right? This is “the greatest lab experiment ever,” he said recently on Bill O’Reilly’s Fox News show.

Bastardi’s position is ridiculous (which is no doubt why he’s often asked to air it on Fox News). Yet there it was on the front page of the Times last week. Among weathermen, it turns out, views like Bastardi’s are typical. A survey released by researchers at George Mason University found that more than a quarter of television weathercasters agree with the statement “Global warming is a scam,” and nearly two-thirds believe that, if warming is occurring, it is caused “mostly by natural changes.” (The survey also found that more than eighty per cent of weathercasters don’t trust “mainstream news media sources,” though they are presumably included in this category.)

Why, with global warming, is it always one step forward, two, maybe three steps back? A year ago, it looked as if the so-called climate debate might finally be over, and the business of actually addressing the problem about to begin. In April, the Obama Administration designated CO2 a dangerous pollutant, thus taking the first critical step toward regulating carbon emissions. The following month, the Administration announced new fuel-efficiency standards for cars. (These rules were finalized last week.) In June, the House of Representatives passed a bill, named for its co-sponsors, Edward Markey and Henry Waxman, that called for reducing emissions seventeen per cent by 2020. Speaking in September at the United Nations, the President said that a “new era” had dawned. “We understand the gravity of the climate threat,” he declared. “We are determined to act.”

Then, much like the Arctic ice cap, that “new era” started to fall to pieces. The U.N. climate summit in Copenhagen in December broke up without agreement even on a possible outline for a future treaty. A Senate version of the Markey-Waxman bill failed to materialize and, it’s now clear, won’t be materializing anytime this year. (Indeed, the one thing that seems certain not to be in a Senate energy bill is the economy-wide emissions reduction required by the House bill.) Last week, despite the Senate’s inaction, President Obama announced that he was opening huge swaths of the Atlantic and Alaskan coasts to oil drilling. The White House billed the move as part of a “comprehensive energy strategy,” a characterization that, as many commentators pointed out, made no sense, since comprehensiveness is precisely what the President’s strategy lacks. As Josh Nelson put it on the blog EnviroKnow, “Obama is either an exceptionally bad negotiator, or he actually believes in some truly awful policy ideas. Neither of these possibilities bodes well.”

As lawmakers dither, public support for action melts away. In a Gallup poll taken last month, forty-eight per cent of respondents said that they believe the threat of global warming to be “generally exaggerated.” This figure was up from thirty-five per cent just two years ago. According to the same poll, only fifty-two per cent of Americans believe that “most scientists believe that global warming is occurring,” down from sixty-five per cent in 2008.

The most immediate explanation for this disturbing trend is the mess that’s come to be known as Climategate. Here the situation is the reverse of what’s going on in the troposphere: Climategate really is a hyped-up media phenomenon. Late last year, hackers broke into the computer system at the Climatic Research Unit of Britain’s University of East Anglia and posted online hundreds of private e-mails from scientists. In the e-mails, C.R.U. researchers often express irritation with their critics—the death of one detractor is described as “cheering news”—and discuss ways to dodge a slew of what they consider to be nuisance Freedom of Information requests. The e-mails were widely portrayed in the press and in the blogosphere as evidence of a conspiracy to misrepresent the data. But, as a parliamentary committee appointed to investigate the matter concluded last week, this charge is so off base that it is difficult even to respond to: “Insofar as the committee was able to consider accusations of dishonesty against CRU, the committee considers that there is no case to answer.”

The e-mail brouhaha was followed by—and immediately confused with—another overblown controversy, about a mistake in the second volume of the U.N. Intergovernmental Panel on Climate Change’s Fourth Assessment Report, from 2007. On page 493 of the nine-hundred-and-seventy-six-page document, it is asserted, incorrectly, that the Himalayan glaciers could disappear by 2035. (The report cites as a source for this erroneous information a report by the World Wildlife Fund.) The screw-up, which was soon acknowledged by the I.P.C.C. and the W.W.F., was somehow transformed by commentators into a reason to doubt everything in the three-volume assessment, including, by implication, the basic laws of thermodynamics. The “new scandal (already awarded the unimaginative name of ‘Glaciergate’) raises further challenges for a scientific theory that is steadily losing credibility,” James Heiser wrote on the Web site of the right-wing magazine New American.

No one has ever offered a plausible account of why thousands of scientists at hundreds of universities in dozens of countries would bother to engineer a climate hoax. Nor has anyone been able to explain why Mother Nature would keep playing along; despite what it might have felt like in the Northeast these past few months, globally it was one of the warmest winters on record.

The message from scientists at this point couldn’t be clearer: the world’s emissions trajectory is extremely dangerous. Goofball weathermen, Climategate, conspiracy theories—these are all a distraction from what’s really happening. Which, apparently, is what we’re looking for. ♦

Read more: http://www.newyorker.com/talk/comment/2010/04/12/100412taco_talk_kolbert#ixzz0lBqmFCnu

>A tragédia no Rio e o jornalismo participativo

>
Leitores dão show de jornalismo

Por Larissa Morais, do Observatório da Imprensa
Envolverde/Observatório da Imprensa – 08/04/2010 – 11h04

O dia em que o Rio de Janeiro parou, submerso por chuvas de abril, entra para a história do jornalismo brasileiro como marco da participação dos leitores no noticiário. No fim da manhã, enquanto muitos jornalistas ainda tentavam chegar às redações, ilhados como tantos cariocas, sites de notícias já veiculavam fotos, vídeos amadores e depoimentos de cidadãos registrando o caos instalado em toda a cidade.

A força desse conteúdo levou ao noticiário áreas da cidade normalmente esquecidas pela grande imprensa: Pavuna, Olaria, Rocha Miranda, Niterói e São Gonçalo, entre outras. Sim, no dia em que a Lagoa Rodrigo de Freitas transbordou, Rocha Miranda teve um lugar na cobertura.

O site do Globo, que desde 2006 vem apostando no jornalismo participativo, inovou ao produzir, com a ajuda dos leitores, um mapa da devastação na cidade. A equipe de arte apontou no Google Maps pontos de alagamento, locais de acúmulo de lixo e lama, pontos de deslizamento e postos de doação. Navegando pelo mapa, era possível ter acesso a fotos e indicações de leitores e/ou jornalistas “da casa”. Dicas como “nessa rua a queda de uma árvore bloqueia a passagem de automóveis”, com a indicação do horário de envio ou atualização da informação.

Outro padrão

O Twitter do blog de Ricardo Noblat ganhou na terça-feira (7/4) 390 novos seguidores graças à rede informativa que criou para a troca de informações sobre as conseqüências das chuvas. Das centenas informações que chegaram, nenhuma estava errada – o que, nas palavras de Noblat, “derruba a idéia cultivada por muitos jornalistas de que leitores não jornalistas carecem de compromisso com a veracidade do que relatam”.

O G1 se destacou em relação ao outros sites pelo excelente aproveitamento dos vídeos produzidos pelos leitores (esclareço que nesse termo incluo também internautas, espectadores, ouvintes e quem mais vier). Ao fim do dia, o portal da TV Globo havia colocado no ar mais de 70 vídeos e 60 fotos de leitores – material claramente selecionado mais por seu valor informativo do que por sua qualidade técnica.

Foi curioso ver tantos vídeos tremidos, escuros e com som ruim no site da emissora conhecida internacionalmente pela alta qualidade técnica de seus produtos jornalísticos e de entretenimento. A produção dos leitores ficou ali, lado a lado com as imagens produzidas pela equipe da Globo. O “ibope” dos leitores foi tamanho que parte do material foi aproveitada em uma longa matéria levada ao ar no mais tradicional dos telejornais brasileiros, o Jornal Nacional.

O JN aproveitou flagrantes como o do motociclista que perdeu a moto em uma cratera sob a águas. De seus celulares e câmeras amadoras, os leitores deram conta de mostrar o que não era possível para uma única emissora ou site, simplesmente porque não havia como distribuir equipe em tantos lugares num espaço tão curto de tempo. A capilaridade que os cidadãos deram ao noticiário pesou mais do que o fato de seus registros fugirem a um padrão estético vigente.

Quem arrisca?

Acredito que a maior participação do público no noticiário já está alterando, e vai alterar ainda mais, a estética e as práticas produtivas do jornalismo mainstream, e o episódio de terça-feira reforça essa impressão. Vejo, por exemplo, a tendência a uma maior valorização do flagrante em relação ao pautado, e das narrações espontâneas – nas quais caibam as tensões do momento – em relação às roteirizadas. Ganham força ainda os relatos participativos dos leitores que fazem registros jornalísticos e dos jornalistas que se colocam como testemunhas dos acontecimentos, como os leitores.

Como fez na terça-feira o jornalista e apresentador Márcio Gomes, que deixou sua casa, na Fonte da Saudade, rumo à TV Globo, no bairro vizinho do Jardim Botânico, com uma câmera amadora na mão e uma pauta na cabeça. No trajeto foi gravando imagens, colhendo depoimentos e narrando impressões do alagamento da cidade, num registro que misturou o estilo que vem ganhando força com os leitores com o modelo jornalístico da emissora na qual fez carreira. A matéria foi ao ar no RJ TV, telejornal que ancora, e, mais tarde, veiculada em rede no Jornal Nacional.

Quem ainda se arrisca a estabelecer fronteiras rígidas para o jornalismo de hoje?

© Copyleft – É livre a reprodução exclusivamente para fins não comerciais, desde que o autor e a fonte sejam citados e esta nota seja incluída.

>Limites incertos no desenvolvimento sexual

>
Grupo de pesquisa paulista caracteriza 23 disfunções orgânicas do desenvolvimento sexual

Pesquisa FAPESP
Edição 170 – Abril 2010

Carlos Fioravanti

— Maria, você quer ser mulher ou homem?

A médica Berenice Bilharinho Mendonça, ao fazer essa pergunta, buscava uma informação importante para planejar o tratamento de Maria, então com 16 anos, naquele dia usando um vestido florido. Berenice já tinha reparado que Maria olhava constantemente para o chão para que o cabelo comprido encobrisse os pelos de barba do rosto. Os níveis do principal hormônio masculino, a testosterona, eram normais para um homem. Os genitais eram ao mesmo tempo masculinos e femininos, com predomínio do aspecto masculino. Diante da médica, em uma sala do Hospital das Clínicas (HC) de São Paulo, Maria respondeu de modo evasivo, com voz grave e forte sotaque do interior de Minas Gerais:

— Ah. A senhora é que sabe.

Berenice conta que não soube o que fazer de imediato. Não poderia escolher por Maria. Como lhe parecia claro que Maria não se sentia bem como mulher, ela chamou a equipe com que trabalhava – Walter Bloise, Dorina Epps e Ivo Arnhold. Em conjunto, decidiram fazer o que não estava nos manuais de atendimento a pessoas com distúrbios do desenvolvimento sexual. Sugeriram que Maria morasse em São Paulo por um ano e vivesse como homem para ver com qual sexo se adaptava melhor à vida em sociedade.

Maria vestiu roupas masculinas pela primeira vez, ganhou outro nome – digamos, João –, saiu do hospital com o cabelo cortado e trabalhou em um emprego que a assistente social lhe arrumou. Maria gostou de ser João. No HC, desde aquela época uma referência nacional nessa área, Maria passou por uma cirurgia que corrigiu a ambiguidade dos genitais, tornando-os masculinos. Quando Maria nasceu, a parteira havia comentado que bebês como aquele morriam logo, mas João tem hoje 50 anos e, de acordo com as notícias mais recentes, vive bem no interior de Minas Gerais.

João sempre foi homem, do ponto de vista genético. Suas células contêm um cromossomo X e um Y, como todo homem – as mulheres têm dois cromossomos X –, além de 23 pares de cromossomos não ligados ao sexo. Por causa de uma falha em um gene em cromossomo não sexual, porém, seu organismo produz uma quantidade muito baixa da enzima 5-alfa-redutase tipo 2. Em consequência, seus genitais masculinos não tinham se formado por completo e se apresentavam com um aspecto feminino, o que fez com que fosse registrado como mulher.

Seu problema – hoje controlado, embora as células continuem com essa deficiência – expressa um dos 23 tipos de distúrbios de desenvolvimento sexual (DDS) cujas possíveis origens, evolução, sinais e tratamentos Berenice, Arnhold, Elaine Maria Frade Costa e Sorahia Domenice apresentaram no final de 2009 em um artigo publicado na revista Clinical Endocrinology. Reunindo os 30 anos de experiência do próprio grupo ao de outros do Brasil e de outros países, esse trabalho mostra como os defeitos genéticos podem gerar desvios metabólicos que ampliam ou reduzem a produção dos hormônios masculinos e induzem à formação de órgãos sexuais masculinos e femininos, parciais ou completos, em um mesmo indivíduo.

Os relatos que acompanham os diagnósticos normalmente chegam carregados de angústia de pais que nunca souberam dizer com certeza se o bebê que viram nascer era menino ou menina. Berenice lembra que saber o sexo de um recém-nascido é importante não só para responder a uma das primeiras perguntas que os pais ouvem depois que nasce o filho ou filha. É uma informação essencial para decidir que nome dar ao bebê e como tratar a criança, já que muitos adjetivos e substantivos da língua portuguesa têm gênero (masculino ou feminino), tudo isso contribuindo para definir a identidade psicológica das crianças.

Segundo ela, histórias de rejeição normalmente acompanham as crianças com ambiguidade sexual, antes pejorativamente chamadas de hermafroditas ou de pseudo-hermafroditas. O fato de apresentar genitais masculinos e femininos faz muitas meninas serem registradas e viver como meninos – e muitos meninos viverem como meninas. Confundir o sexo de recém-nascidos com ambiguidade sexual é fácil, porque “os genitais geralmente não são bem examinados ao nascimento e as meninas, principalmente as prematuras, muitas vezes apresentam um clitóris aparentemente hipertrofiado”, diz ela.

Genes situados nos cromossomos sexuais (X e Y) ou em qualquer outro dos 23 pares de cromossomos de uma célula humana normal podem apresentar defeitos – ou mutações – e causar um dos 23 tipos de DDS. Tais distúrbios representam um grupo heterogêneo de problemas, alertam Martine Cools, da Universidade de Gent, Bélgica, e três pesquisadores da Holanda em um estudo de maio de 2009 na revista World Journal of Pediatrics. Os mesmos defeitos genéticos podem levar a sinais e sintomas diferentes e, por outro lado, um quadro clínico similar pode resultar de genes diferentes. Em apenas um gene, o SRY, que atua apenas nos primeiros dias de vida intrauterina, podem ocorrer 53 alterações que prejudicam o desenvolvimento sexual. Outras mutações podem reduzir ou ampliar a produção dos hormônios esteroides sexuais, dos quais o mais importante é a testosterona, ou de compostos como o colesterol, um precursor desses hormônios.

Em um estudo de 2004, o grupo da USP apresentou 14 mutações em oito genes que impedem a produção de hormônios ligados ao desenvolvimento sexual. A médica Ana Claudia Latronico, â frente desse trabalho, associou cada mutação às respectivas manifestações externas, com base na avaliação de quase 400 crianças, adolescentes e adultos de todo o país e de países vizinhos atendidos na USP.

Sob a coordenação de Tânia Bachega e Guiomar Madureira, a equipe identificou 18 mutações – pelo menos quatro específicas da população brasileira – que podem levar à forma mais comum de distúrbio de desenvolvimento sexual, a hiperplasia adrenal congênita virilizante, caracterizada pelo desenvolvimento excessivo do clitóris, a ponto de assemelhar-se a um pênis.

Esse distúrbio do desenvolvimento sexual resulta de mutações no gene CYP21A2, localizado no cromossomo 21 (não sexual), que reduzem a produção da enzima 21-hidroxilase. Em consequência, as glândulas suprarrenais produzirão menos do que deveriam de um hormônio, o cortisol, e mais de outro, a testosterona. As meninas sofrem uma virilização dos genitais ao longo da vida uterina – nascem com o clitóris hipertrofiado e uma bolsa escrotal sem testículos recobrindo a vagina – e podem ser registradas como meninos quando a alteração não é identificada logo ao nascimento. Por causa de alterações nesse mesmo gene, os meninos podem apresentar uma forma de hiperplasia que não traz ambiguidade sexual, mas pode implicar uma perda intensa de sal, a ponto de causar lesões cerebrais ou morte por desidratação, caso não sejam tratados a tempo.

Uma em cada 15 mil pessoas tem ou deveria ter essa forma de hiperplasia, de acordo com estudos feitos na Europa ou na América do Norte. Os levantamentos no Brasil são raros. “A geneticista Elizabeth Silveira, co-orientada pela Tânia Bachega, examinou amostras de sangue de recém-nascidos coletadas no estado de Goiás, que faz rotineiramente o teste do pezinho para detectar a deficiência da 21-hidroxilase, e concluiu que a incidência de hiperplasia no Brasil por ano é de um caso para cada 10 mil nascidos vivos”, diz Berenice. Pelo menos 840 casos, portanto, deveriam ter sido diagnosticados nas universidades paulistas e de outros estados. O HC da USP, que deve ter acolhido o maior número de casos, só registrou 380.

“Os pais tendem a esconder ou a negar os distúrbios do desenvolvimento sexual dos filhos, porque reconhecer pode ser emocionalmente doloroso, e a maioria dos portadores de distúrbios de desenvolvimento sexuais só chega aqui quando já são adolescentes ou adultos”, diz Berenice. Em uma situação extrema, há menos de um ano ela atendeu uma mulher de 70 anos que apresentava ambiguidade sexual e só resolveu expor seu problema depois de a mãe, que não a deixava falar, ter morrido.

“Quanto mais cedo possível se fizer o diagnóstico e desfizer a ambiguidade sexual, melhor, de preferência antes dos 2 anos de idade, quando as crianças ainda não estabeleceram as noções de sexo e gênero”, diz a psicóloga Marlene Inácio, que acompanha as pessoas com ambiguidade sexual no HC há 28 anos. No início, ela conta, o diagnóstico que embasava o tratamento podia demorar de seis meses a um ano. “Hoje os resultados dos testes laboratoriais saem em uma semana”, diz.

Em sua tese de doutorado, Marlene reuniu os relatos de 151 pessoas com ambiguidade sexual atendidas no HC, das quais 96 são geneticamente homens (XY) e 55 geneticamente mulheres (XX), com idade entre 18 e 53 anos. Seu propósito, por meio de um questionário com 121 perguntas, era verificar como essas pessoas viveram durante a infância, adolescência e vida adulta, antes e depois de terem sido diagnosticadas e tratadas, e se conseguiram se adaptar do ponto de vista psíquico, social e sexual com o sexo que adotaram.

Marlene conclui que, de modo geral, estão bem. Muitas se casaram ou pretendem se casar. Os homens com ambiguidade sexual são estéreis, por causa da baixa fertilidade do líquido seminal ou por consequências da cirurgia corretiva, mas dois tiveram filhos, por meio de fertilização in vitro com seu próprio sêmen. De um grupo de 20 mulheres com uma das formas do distúrbio do desenvolvimento sexual 46,XY, 18 mudaram de sexo e hoje são homens.

É o caso de outra Maria, que veio do interior da Bahia há cerca de três anos. Tinha voz grossa de homem, ombros largos e braços fortes de tanto trabalhar na lavoura. Vivera até os 16 anos isolada em um quarto nos fundos da casa, com pouco contato com a família, e não sabia ler nem escrever. “Psicologicamente, era um homem, e preferiu ser homem porque precisava da força para se opor aos pais que a tinham feito viver como mulher”, conta Marlene. “Ela tinha clitóris grande, que, segundo ela, lhe dava prazer sexual, e queria ser mecânico.”

Em outro levantamento, Maria Helena Palma Sircili, uma das médicas do grupo, verificou que 90% das 65 pessoas com cariótipo 46,XY (geneticamente homens, mas socialmente mulheres) operadas de 1964 a 2008 no serviço de urologia do HC da USP estavam satisfeitas com o sexo que haviam adotado e haviam se ajustado à mudança; 69% das que optaram pelo sexo masculino e 29% das que preferiram o feminino estavam casadas. Esse estudo, a ser publicado no Journal of Urology, trouxe uma constatação que surpreendeu a própria equipe: a qualidade da atividade sexual não depende do tamanho do pênis.

Os homens que apresentavam ambiguidade sexual podem não ter os genitais tão desenvolvidos quanto os de outros homens – e não reclamaram. “Foi uma surpresa, porque os urologistas dizem que frequentemente os homens, mesmo sem distúrbios sexuais biológicos, reclamam do tamanho peniano”, diz Berenice. Marlene atribuiu esse resultado a uma satisfação maior com a identidade masculina do que simplesmente com as dimensões do pênis: “Nosso trabalho de aconselhamento psicológico propõe a exploração de outras possibilidades de satisfação sexual, erotizando o corpo todo, e não apenas os genitais”.

Esses resultados animam Berenice e sua equipe a entrar em novas situações. Uma delas foi planejada e está em andamento, sob a coordenação de Elaine: as pesquisas com um pequeno peixe de água doce, o paulistinha, também conhecido como zebrafish ou Danio rerio, com o qual pretendem examinar o surgimento de distúrbios sexuais do desenvolvimento. Outra situação foi inesperada: em um congresso realizado no ano passado nos Estados Unidos, Berenice recebeu o convite para participar de uma equipe de cinco assessores do Comitê Olímpico Internacional. Tinham de ajudar a resolver um problema difícil: uma corredora com ambiguidade sexual pode correr entre mulheres? A conclusão a que chegaram é que sim, “se essa corredora estiver sob tratamento, com níveis de testosterona normal para as mulheres”, diz Berenice. Outra proposta dos médicos para o Comitê Olímpico: “Não podemos impedir quem tem genitália ambígua de participar de qualquer modalidade esportiva”.

Esses estudos expressam um estilo de trabalho que valoriza a escolha dos pais de crianças com ambiguidade sexual ou dos próprios adultos com esses distúrbios. Dar voz aos pais implica o reconhecimento de expectativas frustradas com filhos que morreram ao nascer ou com meninas que chegaram no lugar imaginado para meninos. “Antes de o filho nascer, a mãe imagina o que o bebê vai ser; ele existe primeiro em sua mente”, diz a psicanalista Norma Lottenberg Semer, professora da Universidade Federal de São Paulo e membro associado da Sociedade Brasileira de Psicanálise de São Paulo. “O que os filhos serão, em termos sexuais e psíquicos, em parte reflete as fantasias, os sentimentos e os pensamentos dos pais.”

“As condutas de tratamento são estabelecidas em consenso entre os pais e a equipe multidisciplinar”, diz Berenice. Do diagnóstico, segundo ela, participam endocrinologistas, cirurgiões, clínicos, biólogos, psicólogos, psiquiatras e assistentes sociais. “Quando não há consenso entre a orientação médica e o desejo dos pais, o desejo dos pais deve ser respeitado.”

Uma vez sua equipe tratou de uma menina recém-nascida, hoje com 11 anos, que apresentava hiperplasia adrenal congênita, com um clitóris semelhante a um pênis, e tinha sido registrada como menino. Segundo Marlene, os pais escolheram que ela seria homem e não aceitaram a orientação de mudança para o sexo social feminino porque já tinham duas filhas e desejavam um filho. A escolha resultou também de outra razão. “A mãe achava que ser mulher era sinônimo de sofrimento e convivia com a culpa, como o marido dizia, de ter tido uma criança anormal”, conta Marlene. Na cirurgia, os médicos removeram ovários e útero dessa Maria, que terá de tomar hormônio masculino por toda a vida adulta, já que seu organismo não o produz.

Quando são adultos, eles próprios escolhem que sexo querem manter. Foi assim que outra Maria com deficiência da enzima 5-alfa-redutase-2 apareceu lá com um lenço colorido cobrindo o cabelo curto, camisa masculina abotoada até o pescoço e sutiã com enchimento. Maria tinha se apaixonado por outra funcionária da casa em que trabalhava como empregada doméstica. No hospital, Maria vestiu-se como homem e gostou. Também adotou outro nome, Moacir. “Vimos essa transformação imediata, foi linda”, conta Marlene. “O sexo social de Moacir era feminino, mas o psíquico era masculino.” Segundo Marlene, Moacir está casado e feliz.

O diagnóstico para definição do sexo ou da ambiguidade sexual inclui sete itens. Alguns são biológicos, como os níveis de hormônios e as estruturas genitais externas e internas. Outros são subjetivos, como o sexo social – pelo qual um indivíduo é reconhecido por outras pessoas – e a identidade de gênero – se essa mesma pessoa se assume psiquicamente como homem ou como mulher. “A identidade de gênero é ser e ao mesmo tempo sentir-se homem ou mulher”, diz Marlene. Uma pessoa que apenas se sente homem ou mulher, sem nenhum distúrbio biológico nem a identidade sexual correspondente, pode apresentar transtorno psíquico de identidade de gênero.

Em uma dessas vertentes, o transexualismo, uma pessoa biologicamente normal tem a convicção de pertencer a outro sexo, sem aceitar seu próprio sexo. “O transexualismo não está associado a questões genéticas”, diz Norma. “É mais um problema de identidade do que de sexualidade.” São os homens que dizem que são mulheres em corpo de homem. O mais famoso transexual brasileiro, Roberta Close, depois de muitas cirurgias para tornar-se mulher, obteve em 2005 o direito de fazer outra certidão de nascimento, mudando o nome de Luís Roberto Gambine Moreira para Roberta Gambine Moreira e o gênero, de masculino para feminino.

O homossexualismo constitui outro universo distante dos distúrbios biológicos. Nesse caso, a identidade de gênero se mantém: são homens ou mulheres que se aceitam como homens ou mulheres e escolhem outros homens ou mulheres como objetos amorosos. Já nos travestis a identidade de sexo é estável, mas a de gênero é flutuante: os travestis sabem que são homens, mas podem às vezes se comportar como mulheres.

No hospital da USP, só depois do diagnóstico e da escolha do sexo a ser adotado é que a ambiguidade sexual pode ser desfeita, por meio de uma cirurgia de correção da genitália externa masculina ou feminina, seguida de reposição hormonal. “Não queremos apenas tratar e resolver, mas entender as causas de um problema, examinando os dados e a história pessoal de cada paciente, elaborando uma hipótese e, a partir daí, pedindo os exames”, diz Berenice. “Não adianta pedir exames e mais exames sem uma hipótese a ser investigada. Só investigamos os possíveis genes envolvidos em um problema depois de termos em mãos o diagnóstico hormonal. Se não, é caro e inútil.” Ela diz que não quer formar apenas médicos, mas investigadores médicos.

Foi o que se passou com ela. Berenice chegou ao Hospital do Servidor Público Estadual em 1972 para cursar o sexto ano do curso de medicina que havia feito até então na Universidade Federal do Triângulo Mineiro, em Uberaba, Minas Gerais. Voltou um ano depois para fazer residência médica no Hospital das Clínicas da USP e conheceu Walter Bloise, que na época cuidava dos então chamados casos de intersexo.

“Aprendi muito mais do que medicina com o doutor Bloise”, lembra ela. “Aprendi que temos de tratar esses problemas com simplicidade e com tranquilidade, como se fosse uma doença cardíaca ou um lábio leporino.”

Nessa época os testes de dosagem de hormônios eram feitos por meio das clínicas dos próprios médicos, quando possível, já que não havia um laboratório de endocrinologia no hospital. Um dia Antonio Barros de Ulhoa Cintra, o chefe anterior da endocrinologia que havia sido reitor da USP e presidente da FAPESP, cobrou-lhe a dosagem hormonal de um paciente. Ela respondeu:

— Como o senhor sabe, não dosamos hormônios aqui no hospital.

— Na minha época, eu andava com um tubo com sangue de paciente no bolso para dosar cálcio.

— Hoje só de hormônios são 30. Precisamos de um laboratório, doutor Cintra.

Emílio Matar, outro professor, soube da conversa e decidiu pela compra dos equipamentos de dosagem de hormônios. Bloise a incentivou: “Por que você não faz um laboratório?”. Ela fez, em colaboração com o professor Wilian Nicolau. Hoje os 80 funcionários e pesquisadores de sua equipe cuidam da dosagem de 60 hormônios para todo o hospital. Agora ela pretende ampliar a discussão on-line de casos suspeitos de DDS com outros médicos, especialmente pediatras, de todo o país, por internet, para que as pessoas com distúrbios de desenvolvimento sejam logo identificadas e tratadas.

Outra batalha à frente – dela e de toda a equipe – é a implementação do diagnóstico em recém-nascidos das alterações 21-hidroxilase, a enzima que causa a hiperplasia adrenal congênita virilizante no estado de São Paulo. “É um teste que custa apenas R$ 5 e pode evitar erros de diagnóstico do sexo ao nascimento e a mortalidade, que afeta principalmente os meninos, que nascem com os genitais masculinos normais e não são identificados.”

Artigo científico

Mendonça, B.B.; Domenice, S.; Arnhold, I.J.; Costa, E.M. 46,XY disorders of sex development (DSD). Clinical Endocrinology. 2009, 70(2):173-87.

>Metáfora religiosa ajuda a entender a ciência? Bóson de Higgs

>
Em busca da “Partícula de Deus”

Redação do Site Inovação Tecnológica – 02/04/2007

Atlas era um dos titãs da mitologia grega, condenado para sempre a sustentar os céus sobre os ombros. Aqui, Atlas é um dos quatro gigantescos detectores que farão parte do maior acelerador de partículas do mundo, o LHC, que está em fase adiantada de testes e deverá entrar em operação nos próximos meses.

LHC é uma sigla para “Large Hadron Collider”, ou gigantesco colisor de prótons. Parece difícil exagerar as grandezas desse laboratório que está sendo construído a 100 metros de profundidade, na fronteira entre a França e a Suíça. A estrutura completa tem a forma de um anel, construída ao longo de um túnel com 27 quilômetros de circunferência.

As partículas são aceleradas por campos magnéticos ao longo dessa órbita de 27 Km, até atingir altíssimos níveis de energia. Mais especificamente, 7 trilhões de volts. Em quatro pontos do anel, sob temperaturas apenas levemente superiores ao zero absoluto, as partículas se chocam, produzindo uma chuva de outras partículas, recriando um ambiente muito parecido com as condições existentes instantes depois do Big Bang.

Nesses quatro pontos estão localizados quatro detectores. O Atlas, mostrado na foto nas suas etapas finais de montagem, é um deles. O Atlas, assim como o segundo detector, o CMS (“Compact Muon Detector”), é um detector genérico, capaz de detectar qualquer tipo de partícula, inclusive partículas ainda desconhecidas ou não previstas pela teoria. Já o LHCb e o ALICE são detectores “dedicados”, construídos para o estudo de fenômenos físicos específicos.

Bóson de Higgs

Quando os prótons se chocam no centro dos detectores as partículas geradas espalham-se em todas as direções. Para capturá-las, o Atlas e o CMS possuem inúmeras camadas de sensores superpostas, que deverão verificar as propriedades dessas partículas, medir suas energias e descobrir a rota que elas seguem.

O maior interesse dos cientistas é descobrir o Bóson de Higgs, a única peça que falta para montar o quebra-cabeças que explicaria a “materialidade” do nosso universo. Por muito tempo se acreditou que os átomos fossem a unidade indivisível da matéria. Depois, os cientistas descobriram que o próprio átomo era resultado da interação de partículas ainda mais fundamentais. E eles foram descobrindo essas partículas uma a uma. Entre quarks e léptons, férmions e bósons, são 16 partículas fundamentais: 12 partículas de matéria e 4 partículas portadoras de força.

A Partícula de Deus

O problema é que, quando consideradas individualmente, nenhuma dessas partículas tem massa. Ou seja, depois de todos os avanços científicos, ainda não sabemos o que dá “materialidade” ao nosso mundo. O Modelo Padrão, a teoria básica da Física que explica a interação de todas as partículas subatômicas, coloca todas as fichas no Bóson de Higgs, a partícula fundamental que explicaria como a massa se expressa nesse mar de energias. É por isso que os cientistas a chamam de “Partícula de Deus”.

O Modelo Padrão tem um enorme poder explicativo. Toda a nossa ciência e a nossa tecnologia foram criadas a partir dele. Mas os cientistas sabem de suas deficiências. Essa teoria cobre apenas o que chamamos de “matéria ordinária”, essa matéria da qual somos feitos e que pode ser detectada por nossos sentidos.

Mas, se essa teoria não explica porque temos massa, fica claro que o Modelo Padrão consegue dar boas respostas sobre como “a coisa funciona”, mas ainda se cala quando a pergunta é “o que é a coisa”. O Modelo Padrão também não explica a gravidade. E não pretende dar conta dos restantes 95% do nosso universo, presumivelmente preenchidos por outras duas “coisas” que não sabemos o que são: a energia escura e a matéria escura.

É por isso que se coloca tanta fé na Partícula de Deus. Ela poderia explicar a massa de todas as demais partículas. O próprio Bóson de Higgs seria algo como um campo de energia uniforme. Ao contrário da gravidade, que é mais forte onde há mais massa, esse campo energético de Higgs seria constante. Desta forma, ele poderia ser a fonte não apenas da massa da matéria ordinária, mas a fonte da própria energia escura.

Em dois ou três anos saberemos se a teoria está correta ou não. Ou, talvez, nos depararemos com um mundo todo novo, que exigirá novas teorias, novos equipamentos e novas descobertas.

>O maior túmulo do samba (isto é, as ciências cognitivas), levado ao absurdo

>
Next Big Thing in English: Knowing They Know That You Know

By PATRICIA COHEN
The New York Times, March 31, 2010

To illustrate what a growing number of literary scholars consider the most exciting area of new research, Lisa Zunshine, a professor of English at the University of Kentucky, refers to an episode from the TV series “Friends.”

(Follow closely now; this is about the science of English.) Phoebe and Rachel plot to play a joke on Monica and Chandler after they learn the two are secretly dating. The couple discover the prank and try to turn the tables, but Phoebe realizes this turnabout and once again tries to outwit them.

As Phoebe tells Rachel, “They don’t know that we know they know we know.”

This layered process of figuring out what someone else is thinking — of mind reading — is both a common literary device and an essential survival skill. Why human beings are equipped with this capacity and what particular brain functions enable them to do it are questions that have occupied primarily cognitive psychologists.

Now English professors and graduate students are asking them too. They say they’re convinced science not only offers unexpected insights into individual texts, but that it may help to answer fundamental questions about literature’s very existence: Why do we read fiction? Why do we care so passionately about nonexistent characters? What underlying mental processes are activated when we read?

Ms. Zunshine, whose specialty is 18th-century British literature, became familiar with the work of evolutionary psychologists while she was a graduate student at the University of California, Santa Barbara in the 1990s. “I thought this could be the most exciting thing I could ever learn,” she said.

At a time when university literature departments are confronting painful budget cuts, a moribund job market and pointed scrutiny about the purpose and value of an education in the humanities, the cross-pollination of English and psychology is a providing a revitalizing lift.

Jonathan Gottschall, who has written extensively about using evolutionary theory to explain fiction, said “it’s a new moment of hope” in an era when everyone is talking about “the death of the humanities.” To Mr. Gottschall a scientific approach can rescue literature departments from the malaise that has embraced them over the last decade and a half. Zealous enthusiasm for the politically charged and frequently arcane theories that energized departments in the 1970s, ’80s and early ’90s — Marxism, structuralism, psychoanalysis — has faded. Since then a new generation of scholars have been casting about for The Next Big Thing.

The brain may be it. Getting to the root of people’s fascination with fiction and fantasy, Mr. Gottschall said, is like “mapping wonderland.”

Literature, like other fields including history and political science, has looked to the technology of brain imaging and the principles of evolution to provide empirical evidence for unprovable theories.

Interest has bloomed during the last decade. Elaine Scarry, a professor of English at Harvard, has since 2000 hosted a seminar on cognitive theory and the arts. Over the years participants have explored, for example, how the visual cortex works in order to explain why Impressionist paintings give the appearance of shimmering. In a few weeks Stephen Kosslyn, a psychologist at Harvard, will give a talk about mental imagery and memory, both of which are invoked while reading.

Ms. Zunshine said that in 1999 she and about 10 others won approval from the Modern Language Association to form a discussion group on cognitive approaches to literature. Last year their members numbered more than 1,200. Unlike Mr. Gottschall, however, Ms. Zunshine sees cognitive approaches as building on other literary theories rather than replacing them.

Ms. Zunshine is particularly interested in what cognitive scientists call the theory of mind, which involves one person’s ability to interpret another person’s mental state and to pinpoint the source of a particular piece of information in order to assess its validity.

Jane Austen’s novels are frequently constructed around mistaken interpretations. In “Emma” the eponymous heroine assumes Mr. Elton’s attentions signal a romantic interest in her friend Harriet, though he is actually intent on marrying Emma. She similarly misinterprets the behavior of Frank Churchill and Mr. Knightly, and misses the true objects of their affections.

Humans can comfortably keep track of three different mental states at a time, Ms. Zunshine said. For example, the proposition “Peter said that Paul believed that Mary liked chocolate” is not too hard to follow. Add a fourth level, though, and it’s suddenly more difficult. And experiments have shown that at the fifth level understanding drops off by 60 percent, Ms. Zunshine said. Modernist authors like Virginia Woolf are especially challenging because she asks readers to keep up with six different mental states, or what the scholars call levels of intentionality.

Perhaps the human facility with three levels is related to the intrigues of sexual mating, Ms. Zunshine suggested. Do I think he is attracted to her or me? Whatever the root cause, Ms. Zunshine argues, people find the interaction of three minds compelling. “If I have some ideological agenda,” she said, “I would try to construct a narrative that involved a triangularization of minds, because that is something we find particularly satisfying.”

Ms. Zunshine is part of a research team composed of literary scholars and cognitive psychologists who are using snapshots of the brain at work to explore the mechanics of reading. The project, funded by the Teagle Foundation and hosted by the Haskins Laboratory in New Haven, is aimed at improving college-level reading skills.

“We begin by assuming that there is a difference between the kind of reading that people do when they read Marcel Proust or Henry James and a newspaper, that there is a value added cognitively when we read complex literary texts,” said Michael Holquist, professor emeritus of comparative literature at Yale, who is leading the project.

The team spent nearly a year figuring how one might test for complexity. What they came up with was mind reading — or how well an individual is able to track multiple sources. The pilot study, which he hopes will start later this spring, will involve 12 subjects. “Each will be put into the magnet” — an M.R.I. machine — “and given a set of texts of graduated complexity depending on the difficulty of source monitoring and we’ll watch what happens in the brain,” Mr. Holquist explained.

At the other end of the country Blakey Vermeule, an associate professor of English at Stanford, is examining theory of mind from a different perspective. She starts from the assumption that evolution had a hand in our love of fiction, and then goes on to examine the narrative technique known as “free indirect style,” which mingles the character’s voice with the narrator’s. Indirect style enables readers to inhabit two or even three mind-sets at a time.

This style, which became the hallmark of the novel beginning in the 19th century with Jane Austen, evolved because it satisfies our “intense interest in other people’s secret thoughts and motivations,” Ms. Vermeule said.

The road between the two cultures — science and literature — can go both ways. “Fiction provides a new perspective on what happens in evolution,” said William Flesch, a professor of English at Brandeis University.

To Mr. Flesch fictional accounts help explain how altruism evolved despite our selfish genes. Fictional heroes are what he calls “altruistic punishers,” people who right wrongs even if they personally have nothing to gain. “To give us an incentive to monitor and ensure cooperation, nature endows us with a pleasing sense of outrage” at cheaters, and delight when they are punished, Mr. Flesch argues. We enjoy fiction because it is teeming with altruistic punishers: Odysseus, Don Quixote, Hamlet, Hercule Poirot.

“It’s not that evolution gives us insight into fiction,” Mr. Flesch said, “but that fiction gives us insight into evolution.”

>Geoengenharia

>
Especiais
Caminhos para o clima

31/3/2010

Por Fábio de Castro

Agência FAPESP – Cientistas brasileiros e britânicos discutiram nesta terça-feira (30/3), por meio de videoconferência, possibilidades de cooperação entre instituições dos dois países para desenvolvimento de estudos e programas de pesquisa conjuntos na área de geoengenharia, que inclui diversos métodos de intervenção de larga escala no sistema climático do planeta, com a finalidade de moderar o aquecimento global.

O “Café Scientifique: Encontro Brasileiro-Britânico sobre Geoengenharia”, promovido pelo British Council, Royal Society e FAPESP, foi realizado nas sedes do British Council em São Paulo e em Londres, na Inglaterra.

O ponto de partida para a discussão foi o relatório Geoengenharia para o clima: Ciência, governança e incerteza, apresentado pelo professor John Shepherd, da Royal Society. Em seguida, Luiz Gylvan Meira Filho, pesquisador do Instituto de Estudos Avançados da Universidade de São Paulo (USP), apresentou um breve panorama da geoengenharia no Brasil.

A FAPESP foi representada pelo coordenador executivo do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, Carlos Afonso Nobre, pesquisador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Instituto Nacional de Pesquisas Espaciais (Inpe).

De acordo com Nobre, a reunião serviu para um contato inicial entre os cientistas dos dois países. “A reunião teve um caráter exploratório, já que o próprio conceito de geoengenharia ainda não foi definido com precisão. O objetivo principal era avaliar o interesse das duas partes em iniciar alguma pesquisa conjunta nessa área e expor potenciais contribuições que cada um pode dar nesse sentido”, disse Nobre à Agência FAPESP.

Segundo Nobre, a geoengenharia é um conjunto de possibilidades de intervenção dividido em dois métodos bastante distintos: o manejo de radiação solar e a remoção de dióxido de carbono. Durante a reunião, os brasileiros deixaram claro que têm interesse apenas na segunda vertente.

O manejo de radiação solar, de acordo com o relatório britânico, inclui técnicas capazes de refletir a luz do Sol a fim de diminuir o aquecimento global, como a instalação de espelhos no espaço, o uso de aerossóis estratosféricos – com aplicação de sulfatos, por exemplo –, reforço do albedo das nuvens e incremento do albedo da superfície terrestre, com instalação de telhados brancos nas edificações.

A remoção de dióxido de carbono, por outro lado, inclui metodologias de captura do carbono da atmosfera – ou “árvores artificiais” –, geração de carbono por pirólise de biomassa, sequestro de carbono por meio de bioenergia, fertilização do oceano e armazenamento de carbono no solo ou nos oceanos.

A principal diferença entre as duas vertentes é que os métodos de manejo de radiação solar funcionam com mais rapidez, em prazos de um ou dois anos, enquanto os métodos de remoção de gás carbônico levam várias décadas para surtirem efeito.

Sem plano B

O relatório avaliou todas as técnicas segundo eficácia, prazo de funcionamento, segurança e custo. Seria preciso ainda estudar os impactos sociais, politicos e éticos, de acordo com os cientistas britânicos.

Nobre aponta que o Brasil teria interesse em contribuir com estudos relacionados à vertente da remoção de dióxido de carbono, que seria coerente com o estágio avançado das pesquisas já realizadas no país em áreas como bioenergia e métodos de captura de carbono.

“Sou muito cético em relação ao manejo de energia de radiação solar. A implementação dessas técnicas é rápida, mas, quando esses dispositivos forem desativados – o que ocorrerá inevitavelmente, já que não é sustentável mantê-los por vários milênios –, a situação do clima voltará rapidamente ao cenário anterior. Seria preciso, necessariamente, reduzir rapidamente a causa das mudanças climáticas, que são as emissões de gases de efeito estufa”, disse Nobre.

De acordo com ele, as técnicas de manejo de energia solar são vistas, em geral, como um “plano B”, em caso de iminência de um desastre climático de grandes consequências. Ou seja, seriam acionadas emergencialmente quando os sistemas climáticos estivessem atingindo pontos de saturação que provocariam mudanças irreversíveis – os chamados tipping points.

“Mas o problema é que vários tipping points foram atingidos e já não há mais plano B. O derretimento do gelo do Ártico, por exemplo, de acordo com 80% dos glaciologistas, atingiu o ponto de saturação. Em algumas décadas, no verão, ali não haverá mais gelo. Não podemos criar a ilusão de que é possível acionar um plano B. Não há sistemas de governança capazes de definir o momento de lançar essas alternativas”, disse.

A vertente da remoção do dióxido de carbono, por outro lado, deverá ser amplamente estudada, de acordo com Nobre. “Essa vertente segue a linha lógica do restabelecimento da qualidade atmosférica. O princípio é fazer a concentração dos gases voltar a um estado de equilíbrio no qual o planeta se manteve por pelo menos 1 ou 2 milhões de anos.”

Ainda assim, essas soluções de engenharia climáticas devem ser encaradas com cuidado. “A natureza é muito complexa e as soluções de engenharia não são fáceis, especialmente em escala global. Acho que vale a pena estudar as várias técnicas de remoção de gás carbônico e definir quais delas têm potencial – mas sempre lembrando que são processos lentos que vão levar décadas ou séculos. Nada elimina a necessidade de reduzir emissões”, disse Nobre.

>Google, China and hacktivism (N.Y.Times)

>
Google Links Web Attacks to Vietnam Mine Dispute

By BETTINA WASSENER
The New York Times, March 31, 2010

HONG KONG — Google, fresh off a dispute with China over censorship and intrusion from hackers, says it has identified cyber-attacks aimed at silencing critics of a controversial, Chinese-backed bauxite mining project in Vietnam.

In attacks it described as similar to but less sophisticated than those at the core of its spat with China, Google said malicious software was used to infect “potentially tens of thousands of computers,” broadly targeting Vietnamese speaking computer users around the world.

Infected machines had been used to spy on their owners and to attack blogs containing messages of political dissent, wrote Neel Mehta of the company’s security team in a post late Tuesday on Google’s online security blog.

McAfee, the computer security firm, said in a separate blog posting that it believed “the perpetrators may have political motivations and may have some allegiance to the government of the Socialist Republic of Vietnam.”

It added: “This incident underscores that not every attack is motivated by data theft or money. This is likely the latest example of hacktivism and politically motivated cyberattacks, which are on the rise.”

Google said that while the malware itself was not especially sophisticated, “it has nonetheless been used for damaging purposes.”

“Specifically, these attacks have tried to squelch opposition to bauxite mining efforts in Vietnam, an important and emotionally charged issue in the country.”

Bauxite is a key mineral in making aluminum and one of Vietnam’s most valuable natural resources. Plans by the Vietnamese government to exploit bauxite in the Central Highlands region, in partnership with a Chinese state-run company, have generated much local criticism, including from a well-known war hero, Gen. Vo Nguyen Giap.

General Giap and other opponents say the project will be ruinous to the environment, displace ethnic minority populations and threaten the south-east Asian country’s national security with an influx of Chinese workers and economic leverage.

The role of China in the bauxite project also has stirred up anger in a nation that still fears its bigger neighbor: Vietnam was a tributary state of China for 1,000 years and was invaded by China in 1979, and the two countries continue to joust for sovereignty in the South China Sea.

>Referência em previsões climáticas

>
Agência FAPESP – 26/3/2010

O Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Instituto Nacional de Pesquisas Espaciais (Inpe), passará a integrar um seleto grupo de centros mundiais de previsão climática sazonal.

O centro foi recomendado pela Comissão para Sistemas Básicos da Organização Meteorológica Mundial (OMM) como um Global Producing Center (GPC) ou Centro Produtor Global de previsões de longo prazo.

Após confirmação da OMM – prevista para junho deste ano – o CPTEC receberá um selo de qualidade para suas previsões climáticas sazonais. Segundo avaliação dos especialistas da OMM, o CPTEC atende a vários critérios, com destaque para a metodologia empregada, disseminação de produtos de previsão na internet e existência de um ciclo operacional fixo de previsão climática sazonal.

Em contrapartida, o centro passará a participar de atividades internacionais da OMM, contribuindo com o Centro de Verificação de Previsão de Longo Prazo. Desde 2006, a OMM, por meio do Programa Global de Processamento de Dados e Sistemas de Previsão, passou a atestar a qualidade dos centros de pesquisa e de previsão climática que atendam a determinados quesitos, intitulando-os GPCs de previsões de longo prazo.

Com a recomendação, o CPTEC passará também a integrar um grupo de centros mundiais de previsão climática sazonal, como os National Centers for Environmental Prediction (Estados Unidos), o European Centre for Medium-Range Weather Forecasts (União Europeia), o UK Met Office (Reino Unido), o Meteo-France, o Metorological Service of Canada, o Bureau of Meteorology da Austrália e o Japan Meteorological Agency, entre outros.

>UnB forma primeira aluna indígena

>
UNB Agência de Notícias, 24/03/2010

Maria Amazonir, da etnia Fulni-ô, é a primeira aluna indígena a graduar-se na UnB. Ela recebeu o diploma de bacharel em Comunicação Social na última quarta feira, dia 17 de março. Amazonir está entre os 60 estudantes indígenas que entraram na UnB desde que o convênio com a Funai foi firmado, em 2004. Como jornalista, Amazonir pretende mudar a forma como os indígenas são tratados pela mídia.

Maria Amazonir entrou na UnB no primeiro semestre de 2004, por meio de transferência facultativa. Segundo ela, já trabalhava com Comunicação em sua aldeia, de forma amadora, organizando eventos e palestras para as crianças sobre conscientização dos seus direitos, mas não pensava em ser jornalista. “Era o que eu gostava de fazer e queria me profissionalizar nesta área. Mas a palavra ’jornalista’ parecia grande demais para a minha realidade. Quando mencionava, era ridicularizada pelos outros”, conta Amazonir.

Mas Amazonir não desistiu do que queria. Conseguiu ajuda de uma colega, que pagou cursinho para ela. Passou em uma faculdade particular, conseguiu fazer a matrícula com dinheiro emprestado, mas logo saiu o convênio da Funai com a UnB e a estudante conseguiu a transferência facultativa.

A estudante escolheu Jornalismo porque percebeu que havia pouco espaço para os povos indígenas na mídia e acreditava que isso se devia à falta de profissionais na área. Agora que se formou, quer dar continuidade ao trabalho que começou com seu projeto de conclusão de curso, um programa para debater questões indígenas sob o ponto de vista do índio. “Não é justa a forma de como os meios de comunicação e principalmente a televisão tratam a imagem do índio. Não somos mais dependentes, somos capazes de desenvolver qualquer função social e/ou cultural que o não-índio desenvolve”, defende.

O coordenador acadêmico dos Alunos Indígenas, Paulo Câmara, comemora a formatura de Amazonir. “É chato quando ouvimos que os índios não devem estar aqui, que universidade é só para a elite intelectual. Por isso é muito bom ver a Amazonir se formar com bom rendimento”, enfatiza.

A decana de Ensino de Graduação, Márcia Abrahão, que estava na colação de grau da aluna, acredita que a formatura de Amazonir representa a vitória da diversidade. Segundo ela, a ambientação dos alunos indígenas e o choque de cultura são desafios que ainda precisam ser contornados. “Mesmo assim, sentimos que estamos contribuindo para o desenvolvimento do país e, por outro lado, estamos ganhando, aprendendo com a cultura desses estudantes”, explica.

A UnB tem hoje 60 alunos indígenas, que entram por meio de convênio firmado entre a Funai e a UnB. A universidade disponibiliza as vagas, e a Funai oferece bolsas de permanência, que variam entre R$ 150 e R$ 900. Em 2004, quando a parceria começou, os estudantes ingressavam por transferência facultativa. Desde 2005, a seleção é feita anualmente por vestibular específico, que ano passado teve 162 inscritos para preencher dez vagas nos cursos de Agronomia, Enfermagem e Obstetrícia, Engenharia Florestal, Medicina e Nutrição.

Dificuldade de entrosamento

Camila de Magalhães
Correio Braziliense, 24/06/2009

“Caí de paraquedas na universidade”, relata Amazonir. “Quando fui jogada aqui, era que nem cego em tiroteio, acho injusto fazerem isso”, reclama. A indígena diz que sofreu muito para acompanhar os textos dados em aula. E afirma que tinha vergonha de perguntar o que era resenha ou fichamento, para não parecer ignorante.

O que mais valeu a pena, na avaliação da jornalista, foi a base acadêmica adquirida no período. No entanto, a adaptação com os colegas foi o mais difícil. “A gente tem um sentimento de inferioridade, me sinto diferente”, comenta.

Quando andava sozinha, as pessoas não percebiam sua origem pela aparência, mas ao passear pelas ruas com o ex-marido e as filhas, ela diz que as pessoas tinham um olhar desconfiado, por conta dos fortes traços indígenas. Junto com a necessidade de dedicação ao curso, o preconceito foi um dos motivos para que o companheiro quisesse deixar Brasília e voltar para a aldeia.

Para Amazonir, seu sotaque também foi um empecilho na universidade. “Fazia de tudo para não falar porque eu abria a boca e as pessoas perguntavam de onde eu era”, observa. Durante os cinco anos de experiência acadêmica, a indigena conta que não fez amizades porque a diferença de idade atrapalhava (os alunos eram mais novos) e ela não se enquadrava no tipo de grupo que faz trabalho e vai para o barzinho. “Prefiro ficar de for a, é uma auto-defesa”.

>The beginning of modern tornado forecasting

>
Fawbush and Miller

By Bill Murray
Whatever-weather.com, March 20, 2010

The Californian had little experience with forecasting Midwestern weather. He had been at Tinker Air Force Base in Oklahoma less than three weeks. When World War II broke out, he left his classes at Occidental College where he was enrolled, and enlisted in the Army Air Corps. He ended up in the weather forecaster school in Grand Rapids, Michigan. The demand was so great that new forecasters were put to work after a hurried nine month course in meteorology. His tours of duty were mainly in the South Pacific, forecasting weather for the forces that were battling the Axis. He was eventually promoted to the rank of Captain.

At the end of the war, he was assigned to Fort Benning in Georgia, where he honed his ability to map out the details of weather at different altitudes and visualize those details. This ability to understand a three dimensional picture of the atmosphere is critical to weather forecasting. On the afternoon of March 20, 1948, he plotted the weather at the surface and aloft across the vast and flat terrain of the American Plains. There was nothing on the charts out of the ordinary It looked like a dry and boring forecast with just some gusty winds through the evening hours.

He settled in to get acquainted with the backup forecaster, who was also from California. About 9 p.m., much to the forecasters’ surprise, they began to see surface reports of lightning from stations just to the southwest and west of Oklahoma City. Echoes appeared on their weather radar, less than twenty minutes away. The backup forecaster, a Staff Sergeant, sat down to type up a warning that thunderstorms were approaching. To their horror, at 9:52 p.m., a report streamed across the teletype from Will Rogers Airport, just seven miles to their southwest that a tornado was on the ground, visible from the airport. Sure enough, illuminated by lightning, a huge funnel was visible almost immediately. It roared across the base, doing $10 million worth of damage and injuring several personnel.

There were recriminations immediately. A panel of investigators from Washington flew in the next morning. The nervous weather officer and his superior answered questions. The board of inquiry listened to the facts and quickly rendered a decision. The event was not forecastable given the state of the art in meteorology. But later that day, Colonel Robert Miller and Major Ernest Fawbush were summoned to the Commanding General’s office. He directed Fawbush and Miller to investigate the possibility of forecasting tornadoes.

They reviewed the weather charts from the day before, as well as those from other tornadic events. They identified that tornadoes seemed to occur in warm, moist airmasses, with strong winds aloft. But the difficulty lay in delineating the areas which were most likely to experience the destructive storms. Issuing a tornado forecast for a single point seemed improbable.

But less than a week later on the 25th, Fawbush and Miller looked at their weather charts and then at each other. The weather pattern looked nearly identical to that of the 20th. What were the odds that another tornado would strike the base? Infinitesimal. They went to the General and told him what they saw. The General ordered the base secured. They reconvened with the General at early afternoon. It was then that they issued the first tornado forecast. Sure enough, a tornado moved across the well-prepared base that evening.

It was the beginning of modern tornado forecasting.

[This is one more historical example of the fact that unpredictability raises the specter of blame and accountability to forecasters. RT]

>Understanding Scientific Terms About Climate Change

>
Certainty vs. Uncertainty

Union of Concerned Scientists – http://www.ucsusa.org
Last Revised: 03/17/10

Uncertainty is ubiquitous in our daily lives. We are uncertain about where to go to college, when and if to get married, who will play in the World Series, and so on.

To most of us, uncertainty means not knowing. To scientists, however, uncertainty is how well something is known. And, therein lies an important difference, especially when trying to understand what is known about climate change.

In science, there’s no such thing as absolute certainty. But, research reduces uncertainty. In many cases, theories have been tested and analyzed and examined so thoroughly that their chance of being wrong is infinitesimal. Other times, uncertainties linger despite lengthy research. In those cases, scientists make it their job to explain how well something is known. When gaps in knowledge exist, scientists qualify the evidence to ensure others don’t form conclusions that go beyond what is known.

Even though it may seem counterintuitive, scientists like to point out the level of uncertainty. Why? Because they want to be as transparent as possible and it shows how well certain phenomena are understood. Scientists have even developed their own phrasing regarding uncertainty, such as “very high confidence” (9 out of 10 chances of being correct) about a certain fact and “very likely” (90 chances out of 100) to describe the chance of an outcome.

Decision makers in our society use scientific input all the time. But they could make a critically wrong choice if the unknowns aren’t taken into account. For instance, city planners could build a levee too low or not evacuate enough coastal communities along an expected landfall zone of a hurricane if uncertainty is understated. For these reasons, uncertainty plays a key role in informing public policy.

However, this culture of transparency has caused problems for climate change science. Climate change deniers link certainty projections with not knowing anything. The truth is, science knows much about climate change. We have learned, for example, that the burning of fossil fuels and the clearing or burning of land creates carbon dioxide (CO2), which is released into the atmosphere. There is no uncertainty about this. We have learned that carbon dioxide and other greenhouse gases build up in the atmosphere and trap heat through the greenhouse effect.

Again, there is no uncertainty about this. Earth is warming, and scientists are very certain that humans are the main reason for the world’s temperature increase in the past 50 years.

Scientists know with very high confidence, or even greater certainty, that:

  • Human-induced warming influences physical and biological systems throughout the world
  • Sea levels are rising
  • Glaciers and permafrost are shrinking
  • Oceans are becoming more acidic
  • Ranges of plants and animals are shifting

Scientists are uncertain, however, about how much global warming will occur in the future (between 2.1 degrees and 11 degrees Fahrenheit by 2100). They are also uncertain how soon the sea ice habitat where the ringed seal lives will disappear. Curiously, much of this uncertainty has to do with—are you ready?—humans. The choices we make in the next decade, or so, to reduce emissions of heat-trapping gasses could prevent catastrophic climate change.

So, what’s the bottom line? Science has learned much about climate change. Science tells us what is more or less likely to be true. The latest climate science underscores that there’s an urgent need to reduce heat-trapping emissions. And that is certain.

Table: Language to describe confidence about facts and the likelihood of an outcome.  SOURCE: IPCC WGI (2007).

Terminology for describing confidence about facts
Very High confidence At least 9 out of 10 chance of being correct
High confidence About 8 out of 10 chance
Medium confidence About 5 out of 10 chance
Low confidence About 2 out of 10 chance
Very low confidence Less than 1 out of 10 chance

Terminology for describing likelihood of an outcome
Virtually certain More than 99 chances out of 100
Extremely likely More than 95 chances out of 100
Very likely More than 90 chances out of 100
Likely More than 65 chances out of 100
More likely than not More than 50 chances out of 100


>The clouds of unknowing (The Economist)

>
The science of climate change

There are lots of uncertainties in climate science. But that does not mean it is fundamentally wrong

Mar 18th 2010 | From The Economist print edition

FOR anyone who thinks that climate science must be unimpeachable to be useful, the past few months have been a depressing time. A large stash of e-mails from and to investigators at the Climatic Research Unit of the University of East Anglia provided more than enough evidence for concern about the way some climate science is done. That the picture they painted, when seen in the round—or as much of the round as the incomplete selection available allows—was not as alarming as the most damning quotes taken out of context is little comfort. They offered plenty of grounds for both shame and blame.

At about the same time, glaciologists pointed out that a statement concerning Himalayan glaciers in the most recent report of the Intergovernmental Panel on Climate Change (IPCC) was wrong. This led to the discovery of other poorly worded or poorly sourced claims made by the IPCC, which seeks to create a scientific consensus for the world’s politicians, and to more general worries about the panel’s partiality, transparency and leadership. Taken together, and buttressed by previous criticisms, these two revelations have raised levels of scepticism about the consensus on climate change to new heights.

Increased antsiness about action on climate change can also be traced to the recession, the unedifying spectacle of last December’s climate-change summit in Copenhagen, the political realities of the American Senate and an abnormally cold winter in much of the northern hemisphere. The new doubts about the science, though, are clearly also a part of that story. Should they be?

In any complex scientific picture of the world there will be gaps, misperceptions and mistakes. Whether your impression is dominated by the whole or the holes will depend on your attitude to the project at hand. You might say that some see a jigsaw where others see a house of cards. Jigsaw types have in mind an overall picture and are open to bits being taken out, moved around or abandoned should they not fit. Those who see houses of cards think that if any piece is removed, the whole lot falls down. When it comes to climate, academic scientists are jigsaw types, dissenters from their view house-of-cards-ists.

The defenders of the consensus tend to stress the general consilience of their efforts—the way that data, theory and modelling back each other up. Doubters see this as a thoroughgoing version of “confirmation bias”, the tendency people have to select the evidence that agrees with their original outlook. But although there is undoubtedly some degree of that (the errors in the IPCC, such as they are, all make the problem look worse, not better) there is still genuine power to the way different arguments and datasets in climate science tend to reinforce each other.

The doubters tend to focus on specific bits of empirical evidence, not on the whole picture. This is worthwhile—facts do need to be well grounded—but it can make the doubts seem more fundamental than they are. People often assume that data are simple, graspable and trustworthy, whereas theory is complex, recondite and slippery, and so give the former priority. In the case of climate change, as in much of science, the reverse is at least as fair a picture. Data are vexatious; theory is quite straightforward. Constructing a set of data that tells you about the temperature of the Earth over time is much harder than putting together the basic theoretical story of how the temperature should be changing, given what else is known about the universe in general.

Absorb and reflect

The most relevant part of that universal what-else is the requirement laid down by thermodynamics that, for a planet at a constant temperature, the amount of energy absorbed as sunlight and the amount emitted back to space in the longer wavelengths of the infra-red must be the same. In the case of the Earth, the amount of sunlight absorbed is 239 watts per square metre. According to the laws of thermodynamics, a simple body emitting energy at that rate should have a temperature of about –18ºC. You do not need a comprehensive set of surface-temperature data to notice that this is not the average temperature at which humanity goes about its business. The discrepancy is due to greenhouse gases in the atmosphere, which absorb and re-emit infra-red radiation, and thus keep the lower atmosphere, and the surface, warm (see the diagram below). The radiation that gets out to the cosmos comes mostly from above the bulk of the greenhouse gases, where the air temperature is indeed around –18ºC.

Adding to those greenhouse gases in the atmosphere makes it harder still for the energy to get out. As a result, the surface and the lower atmosphere warm up. This changes the average temperature, the way energy moves from the planet’s surface to the atmosphere above it and the way that energy flows from equator to poles, thus changing the patterns of the weather.

No one doubts that carbon dioxide is a greenhouse gas, good at absorbing infra-red radiation. It is also well established that human activity is putting more of it into the atmosphere than natural processes can currently remove. Measurements made since the 1950s show the level of carbon dioxide rising year on year, from 316 parts per million (ppm) in 1959 to 387ppm in 2009. Less direct records show that the rise began about 1750, and that the level was stable at around 280ppm for about 10,000 years before that. This fits with human history: in the middle of the 18th century people started to burn fossil fuels in order to power industrial machinery. Analysis of carbon isotopes, among other things, shows that the carbon dioxide from industry accounts for most of the build-up in the atmosphere.

The serious disagreements start when discussion turns to the level of warming associated with that rise in carbon dioxide. For various reasons, scientists would not expect temperatures simply to rise in step with the carbon dioxide (and other greenhouse gases). The climate is a noisy thing, with ups and downs of its own that can make trends hard to detect. What’s more, the oceans can absorb a great deal of heat—and there is evidence that they have done so—and in storing heat away, they add inertia to the system. This means that the atmosphere will warm more slowly than a given level of greenhouse gas would lead you to expect.

There are three records of land-surface temperature put together from thermometer readings in common use by climatologists, one of which is compiled at the Climatic Research Unit of e-mail infamy. They all show warming, and, within academia, their reliability is widely accepted. Various industrious bloggers are not so convinced. They think that adjustments made to the raw data introduce a warming bias. They also think the effects of urbanisation have confused the data because towns, which are sources of heat, have grown up near weather stations. Anthony Watts, a retired weather forecaster who blogs on climate, has set up a site, surfacestations.org, where volunteers can help record the actual sites of weather instruments used to provide climate data, showing whether they are situated close to asphalt or affected by sources of bias.

Those who compile the data are aware of this urban heat-island effect, and try in various ways to compensate for it. Their efforts may be insufficient, but various lines of evidence suggest that any errors it is inserting are not too bad. The heat-island effect is likely to be strongest on still nights, for example, yet trends from data recorded on still nights are not that different from those from windy ones. And the temperature of waters at the surface of the seas shows similar trends to that on land over the past century, as does the record of air temperature over the oceans as measured at night (see chart 1).

A recent analysis by Matthew Menne and his colleagues at America’s National Oceanic and Atmospheric Administration, published in the Journal of Geophysical Research, argued that trends calculated from climate stations that surfacestation.org found to be poorly sited and from those it found well sited were more or less indistinguishable. Mr Watts has problems with that analysis, and promises a thorough study of the project’s findings later.

There is undoubtedly room for improvement in the surface-temperature record—not least because, at the moment, it provides only monthly mean temperatures, and there are other things people would like to know about. (When worrying about future heatwaves, for example, hot days and nights, not hot months, are the figures of most interest.) In February Britain’s Met (ie, meteorological) Office called for the creation of a new set of temperature databases compiled in rigorously transparent ways and open to analysis and interpretation by all and sundry. Such an initiative would serve science well, help restore the credibility of land-surface records, and demonstrate an openness on the part of climate science which has not always been evident in the past.

Simplify and amplify

For many, the facts that an increase in carbon dioxide should produce warming, and that warming is observed in a number of different indicators and measurements, add up to a primafacie case for accepting that greenhouse gases are warming the Earth and that the higher levels of greenhouse gases that business as usual would bring over the course of this century would warm it a lot further.

The warming caused by a given increase in carbon dioxide can be calculated on the basis of laboratory measurements which show how much infra-red radiation at which specific wavelengths carbon dioxide molecules absorb. This sort of work shows that if you double the carbon dioxide level you get about 1ºC of warming. So the shift from the pre-industrial 280ppm to 560ppm, a level which on current trends might be reached around 2070, makes the world a degree warmer. If the level were to double again, to 1,100ppm, which seems unlikely, you would get another degree.

The amount of warming expected for a doubling of carbon dioxide has become known as the “climate sensitivity”—and a climate sensitivity of one degree would be small enough to end most climate-related worries. But carbon dioxide’s direct effect is not the only thing to worry about. Several types of feedback can amplify its effect. The most important involve water vapour, which is now quite well understood, and clouds, which are not. It is on these areas that academic doubters tend to focus.

As carbon dioxide warms the air it also moistens it, and because water vapour is a powerful greenhouse gas, that will provide further warming. Other things people do—such as clearing land for farms, and irrigating them—also change water vapour levels, and these can be significant on a regional level. But the effects are not as large.

Climate doubters raise various questions about water vapour, some trivial, some serious. A trivial one is to argue that because water vapour is such a powerful greenhouse gas, carbon dioxide is unimportant. But this ignores the fact that the level of water vapour depends on temperature. A higher level of carbon dioxide, by contrast, governs temperature, and can endure for centuries.

A more serious doubting point has to do with the manner of the moistening. In the 1990s Richard Lindzen, a professor of meteorology at the Massachusetts Institute of Technology, pointed out that there were ways in which moistening might not greatly enhance warming. The subsequent two decades have seen much observational and theoretical work aimed at this problem. New satellites can now track water vapour in the atmosphere far better than before (see chart 2). As a result preliminary estimates based on simplifications have been shown to be reasonably robust, with water-vapour feedbacks increasing the warming to be expected from a doubling of carbon dioxide from 1ºC without water vapour to about 1.7ºC. Dr Lindzen agrees that for parts of the atmosphere without clouds this is probably about right.

This moistening offers a helpful way to see what sort of climate change is going on. When water vapour condenses into cloud droplets it gives up energy and warms the surrounding air. This means that in a world where greenhouse warming is wetting the atmosphere, the lower parts of the atmosphere should warm at a greater rate than the surface, most notably in the tropics. At the same time, in an effect that does not depend on water vapour, an increase in carbon dioxide will cause the upper stratosphere to cool. This pattern of warming down below and cooling up on top is expected from greenhouse warming, but would not be expected if something other than the greenhouse effect was warming the world: a hotter sun would heat the stratosphere more, not less.

During the 1990s this was a point on which doubters laid considerable weight, because satellite measurements did not show the warming in the lower atmosphere that theory would predict. Over the past ten years, though, this picture has changed. To begin with, only one team was turning data from the relevant instruments that have flown on weather satellites since the 1970s into a temperature record resolved by altitude. Now others have joined them, and identified errors in the way that the calculations (which are complex and depend on a number of finicky details) were carried out. Though different teams still get different amounts and rates of warming in the lower atmosphere, there is no longer any denying that warming is seen. Stratospheric cooling is complicated by the effects of ozone depletion, but those do not seem large enough to account for the degree of cooling that has been seen there, further strengthening the case for warming by the greenhouse effect and not some other form of climate perturbation.

On top of the effect of water vapour, though, the clouds that form from it provide a further and greater source of uncertainty. On the one hand, the droplets of water of which these are made also have a strong greenhouse effect. On the other, water vapour is transparent, whereas clouds reflect light. In particular, they reflect sunlight back into space, stopping it from being absorbed by the Earth. Clouds can thus have a marked cooling effect and also a marked warming effect. Which will grow more in a greenhouse world?

Model maze

It is at this point that detailed computer models of the climate need to be called into play. These models slice the atmosphere and oceans into stacks of three-dimensional cells. The state of the air (temperature, pressure, etc) within each cell is continuously updated on the basis of what its state used to be, what is going on in adjacent cells and the greenhousing and other properties of its contents.

These models are phenomenally complex. They are also gross oversimplifications. The size of the cells stops them from explicitly capturing processes that take place at scales smaller than a hundred kilometres or so, which includes the processes that create clouds.

Despite their limitations, climate models do capture various aspects of the real world’s climate: seasons, trade winds, monsoons and the like. They also put clouds in the places where they are seen. When used to explore the effect of an increase in atmospheric greenhouse gases on the climate these models, which have been developed by different teams, all predict more warming than greenhouse gases and water-vapour feedback can supply unaided. The models assessed for the IPCC’s fourth report had sensitivities ranging from 2.1ºC to 4.4ºC. The IPCC estimated that if clouds were not included, the range would be more like 1.7ºC to 2.1ºC. So in all the models clouds amplify warming, and in some the amplification is large.

However, there are so far no compelling data on how clouds are affecting warming in fact, as opposed to in models. Ray Pierrehumbert, a climate scientist at the University of Chicago who generally has a strong way with sceptics, is happy to agree that there might be processes by which clouds rein in, rather than exaggerate, greenhouse-warming effects, but adds that, so far, few have been suggested in any way that makes sense.

Dr Lindzen and a colleague suggested a plausible mechanism in 2001. They proposed that tropical clouds in an atmosphere with more greenhouse gas might dry out neighbouring parts of the sky, making them more transparent to outgoing infra-red. The evidence Dr Lindzen brought to bear in support of this was criticised in ways convincing enough to discourage other scientists from taking the idea further. A subsequent paper by Dr Lindzen on observations that would be compatible with his ideas about low sensitivity has also suffered significant criticisms, and he accepts many of them. But having taken them on board has not, he thinks, invalidated his line of research.

Arguments based on past climates also suggest that sensitivity is unlikely to be low. Much of the cooling during the ice ages was maintained by the presence of a large northern hemisphere ice cap reflecting away a lot of sunlight, but carbon dioxide levels were lower, too. To account for all of the cooling, especially in the southern hemisphere, is most easily done with a sensitivity of temperature to carbon dioxide higher than Dr Lindzen would have it.

Before the ice age, the Earth had a little more carbon dioxide and was a good bit warmer than today—which suggests a fairly high sensitivity. More recently, the dip in global temperatures after the eruption of Mt Pinatubo in the Philippines in 1991, which inserted a layer of sunlight-diffusing sulphur particles into the stratosphere, also bolsters the case for a sensitivity near the centre of the model range—although sensitivity to a transient event and the warming that follows a slow doubling of carbon dioxide are not exactly the same sort of thing.

Logs and blogs

Moving into data from the past, though, brings the argument to one of the areas that blog-based doubters have chosen as a preferred battleground: the temperature record of the past millennium, as construed from natural records that are both sensitive to temperature and capable of precise dating. Tree rings are the obvious, and most controversial, example. Their best known use has been in a reconstruction of temperatures over the past millennium published in Nature in 1998 and widely known as the hockey stick, because it was mostly flat but had a blade sticking up at the 20th-century end. Stephen McIntyre, a retired Canadian mining consultant, was struck by the very clear message of this graph and delved into the science behind it, a process that left him and followers of his blog, Climate Audit, intensely sceptical about its value.

In 2006 a review by America’s National Research Council endorsed points Mr McIntyre and his colleagues made on some methods used to make the hockey stick, and on doubts over a specific set of tree rings. Despite this it sided with the hockey stick’s overall conclusion, which did little to stem the criticism. The fact that tree-ring records do not capture recent warming adds to the scepticism about the value of such records.

For many of Mr McIntyre’s fans (though it is not, he says, his central concern) the important thing about this work is that the hockey stick seemed to abolish the “medieval warm period”. This is a time when temperatures are held to have been as high as or higher than today’s—a warmth associated with the Norse settlement of Greenland and vineyards in England. Many climate scientists suspect this phenomenon was given undue prominence by climatologists of earlier generations with an unduly Eurocentric view of the world. There is evidence for cooling at the time in parts of the Pacific.

Doubters for the most part are big fans of the medieval warm period, and see in the climate scientists’ arguments an attempt to rewrite history so as to maximise the drama of today’s warming and minimise the possibility that natural variation might explain the 20th-century record. The possibility of more climatic variability, though, does not, in itself, mean that greenhouse warming is not happening too. And if the medieval warmth were due to some external factor, such as a slightly brighter sun, that would suggest that the climate was indeed quite sensitive.

Looking at the more recent record, logged as it has been by thermometers, you might hope it could shed light on which of the climate models is closest to being right, and thus what the sensitivity actually is. Unfortunately, other confounding factors make this difficult. Greenhouse gases are not the only climatically active ingredients that industry, farming and land clearance add to the atmosphere. There are also aerosols—particles of pollution floating in the wind. Some aerosols cool the atmosphere. Other, sootier, ones warm it. The aggregate effect, globally, is thought to be a cooling, possibly a quite strong one. But the overall history of aerosols, which are mostly short-lived, is nothing like as well known as that of greenhouse gases, and it is unlikely that any of the models are properly capturing their chemistry or their effects on clouds.

Taking aerosols into account, climate models do a pretty good job of emulating the climate trends of the 20th century. This seems odd, since the models have different sensitivities. In practice, it appears that the way the aerosols are dealt with in the models and the sensitivity of those models tend to go hand in hand; sensitive models also have strong cooling aerosol effects.

Reto Knutti of ETH Zurich, an expert on climate sensitivity, sees this as evidence that, consciously or unconsciously, aerosols are used as counterweights to sensitivity to ensure that the trends look right. This is not evidence of dishonesty, and it is not necessarily a bad thing. Since the models need to be able to capture the 20th century, putting them together in such a way that they end up doing so makes sense. But it does mean that looking at how well various models match the 20th century does not give a good indication of the climate’s actual sensitivity to greenhouse gas.

Adding the uncertainties about sensitivity to uncertainties about how much greenhouse gas will be emitted, the IPCC expects the temperature to have increased by 1.1ºC to 6.4ºC over the course of the 21st century. That low figure would sit fairly well with the sort of picture that doubters think science is ignoring or covering up. In this account, the climate has natural fluctuations larger in scale and longer in duration (such as that of the medieval warm period) than climate science normally allows, and the Earth’s recent warming is caused mostly by such a fluctuation, the effects of which have been exaggerated by a contaminated surface-temperature record. Greenhouse warming has been comparatively minor, this argument would continue, because the Earth’s sensitivity to increased levels of carbon dioxide is lower than that seen in models, which have an inbuilt bias towards high sensitivities. As a result subsequent warming, even if emissions continue full bore, will be muted too.

It seems unlikely that the errors, misprisions and sloppiness in a number of different types of climate science might all favour such a minimised effect. That said, the doubters tend to assume that climate scientists are not acting in good faith, and so are happy to believe exactly that. Climategate and the IPCC’s problems have reinforced this position.

Using the IPCC’s assessment of probabilities, the sensitivity to a doubling of carbon dioxide of less than 1.5ºC in such a scenario has perhaps one chance in ten of being correct. But if the IPCC were underestimating things by a factor of five or so, that would still leave only a 50:50 chance of such a desirable outcome. The fact that the uncertainties allow you to construct a relatively benign future does not allow you to ignore futures in which climate change is large, and in some of which it is very dangerous indeed. The doubters are right that uncertainties are rife in climate science. They are wrong when they present that as a reason for inaction.

Comments to this article here.

>What is the best way to provide people with information about climate change?

>
Nov 7th, 2009
Climate Central

There are many ways that people can benefit from having information about climate change, including being able to make informed policy and management decisions. This is one reason why people are talking about creating a national climate service. So, what functions would a national climate service provide?

A good place to start is with an organization that has a similar name and purpose—the National Weather Service, a government agency that was established in the late 1800s. The importance of the Weather Service is almost too obvious to mention. Without accurate reports about the current weather and predictions of future weather, planes would fly into thunderstorms unawares, ships would plow directly into hurricanes and typhoons, and people wouldn’t know about blizzards barreling down on them. Also, planning for pretty much any outdoor activity would become a lot more difficult. Without good weather forecasts, the losses in economic terms and in human lives would be huge.

Climate change unfolds on a slower scale—over decades rather than in hours. But now that we know it is happening, the need for forecasting how climate change will impact us has become clear as well. Knowing how much sea level is likely to rise, and how quickly, is crucial to knowing how to protect coastal areas from increased damage. Knowing how hurricane frequency and strength might change could affect building codes and evacuation strategies. Knowing how the intensity and frequency of droughts and heat waves might change would help city and regional planners manage water resources and mitigate threats to local economies.

The knowledge that these changes will come mostly from an increase in atmospheric levels of greenhouse gases could inform decisions about how to produce and use energy, and whether to develop alternative energy and other green technologies. If the world decides that limiting climate change is a priority, then this green technology could be an economic boon to the countries that perfect it.

Realizing that businesses, local governments, and individuals need the most reliable forecasts possible of how, when, and where the climate is likely to change, and what the impacts might be, universities, government agencies, and private companies have come together over the past year or so to figure out how such an entity might operate—how it would organize information and how it would deliver that information in the most useful way.

>O Globo nega-se a publicar anúncio de campanha pró cotas raciais

>
COTAS RACIAIS
O Globo nega-se a publicar anúncio

Por Mariana Martins em 17/3/2010
Observatório da Imprensa

Reproduzido do Observatório do Direito à Comunicação, 16/3/2010; título original “O Globo nega-se a publicar anúncio de campanha pró cotas”

A negativa do jornal O Globo, no início do mês, em publicar uma peça publicitária da campanha “Afirme-se” em defesa das ações afirmativas relacionadas à questão racial recoloca de forma explícita um importante debate acerca do direito à comunicação. O episódio estabelece uma situação de fato em que liberdade de expressão é confundida com liberdade comercial das empresas privadas de comunicação. A publicação, mais antigo veículo do maior grupo de comunicação do país, alega seguir uma política comercial específica para o que chama “peças de opinião” e, por esta razão, teria mais que decuplicado o valor a ser cobrado pela veiculação do anúncio ao tomar conhecimento de que se tratava de uma campanha pró cotas.

O pesquisador sênior da Universidade de Brasília Venício A. de Lima diz que este é um caso que merece ser observado a partir das diferenças entre liberdade de imprensa e liberdade de expressão. A primeira, na opinião do professor, está relacionada à proteção dos interesses daqueles responsáveis pelos veículos de comunicação e não deve ser confundida com a segunda, que é um direito humano e, no Brasil, constitucionalmente positivado. Lima pondera que a liberdade de expressão, no atual contexto das práticas de comunicação, depende da inserção de opiniões diversas nos grandes veículos de massa. Estes, portanto, precisariam refletir não só a opinião dos seus donos.

No caso da não publicação do anúncio da “Afirme-se”, o que está colocado é, justamente, a utilização de uma política comercial, justificada supostamente pelo princípio da liberdade de imprensa, para restringir o direito da campanha publicizar sua opinião a favor das ações afirmativas e o direito dos cidadãos de receberem informação sobre o tema desde uma perspectiva diversa da dos veículos das Organizações Globo. Segundo Lima, na página de O Globo na internet o jornal apresenta a tabela de preços comerciais e nela está escrito que a empresa cobra de 30% a 70% a mais em anúncios de conteúdo opinativo. Contudo, no caso em questão, o valor variou em aproximadamente 1300%.

Preços acordados

Curiosamente, a tentativa da campanha “Afirme-se” publicar o anúncio está intimamente relacionada ao fato de os grupos a favor das ações afirmativas perceberem que não conseguiam espaço editorial, ou seja, lugar na cobertura jornalística regular para apresentar seu ponto de vista. Assim, por ocasião da audiência pública no Supremo Tribunal Federal (STF) que discutiria – entre os dias 3, 4 e 5 de março – duas ações de inconstitucionalidade movidas contra a criação de cotas nas universidades públicas para descendentes de negros e indígenas, a campanha resolveu fazer intervenções publicitárias em jornais de grande circulação nacional em defesa da constitucionalidade das leis que estão em vigor.

A intervenção publicitária produzida pela agência Propeg, que também é parceira da campanha, contava basicamente com três produtos: um manifesto ilustrado que seria publicado em jornais considerados formadores de opinião pelos organizadores da “Afirme-se”, um spot de rádio e uma vinheta, que estão disponíveis no blog da campanha.

De acordo com Fernando Conceição, um dos coordenadores da “Afirme-se”, as doações das entidades que fazem parte da campanha e a captação de recursos com outras organizações foram suficientes para pagar a publicação do manifesto em quatro jornais de grande circulação – O Estado de S. Paulo, Folha de S. Paulo, A Tarde (BA) e O Globo (RJ). “Nós resolvemos comprar especificamente nesses veículos porque eles já vêm fazendo campanhas sistemáticas contra as cotas há tempos. Como nós temos outra visão e não encontramos lugar livremente para expor um outro ponto de vista, resolvemos comprar o espaço”, explica Conceição.

Como é de praxe nas campanhas publicitárias, a agência responsável passou a negociar o preço do anúncio de uma página inteira a ser publicado no dia 3 de março com os veículos selecionados. Por se tratarem de anúncios ligados a organizações não governamentais, os preços acordados ficaram em torno de R$ 50 mil. O valor exato negociado com O Globo foi orçado em R$ 54.163,20.

Valor impraticável

Fechados os valores, a agência enviou a arte aos jornais. Dois dias antes de a campanha ser publicada, a coordenação da “Afirme-se” foi comunicada pela agência Propeg que o anúncio havia sido submetido à direção editorial de O Globo e que os responsáveis julgaram que a peça era “expressão de opinião”. O jornal dizia que, sendo assim, o valor deixava de ser o negociado anteriormente e passava para R$ 712.608,00. “Um valor irreal, impraticável até para anuncio de multinacional”, queixa-se o coordenador da campanha.

Procurado pela equipe do Observatório do Direito à Comunicação, o jornal O Globo não respondeu aos pedidos de entrevista. No entanto, o diretor comercial da publicação, Mario Rigon, concedeu entrevista ao portal Comunique-se ao qual disse que considerou a peça da campanha como “expressão de opinião” e, diante disso, “seguiu a política da empresa, que determina um valor superior para esse tipo de anúncio”. “De fato vimos que se tratava de uma expressão de opinião, mas não nos cabe julgar o mérito da causa. É a nossa política comercial, tratamos assim qualquer anunciante que queira expressar sua opinião”, disse Rigon ao portal.

Este Observatório também buscou consultar o Conselho de Autorregulamentação Publicitária (Conar). Por intermédio da assessoria de imprensa, o conselho adiantou que não tem posição sobre o caso, visto que foge do escopo da entidade se posicionar sobre a política comercial dos veículos. “Nós não nos posicionamos sobre regulação de mídia exterior, atuamos exclusivamente sobre o conteúdo das mensagens publicitárias”, disse Eduardo Correia, assessor de imprensa do Conar. O assessor disse ainda que a entidade precisa ser provocada por processos para se posicionar sobre o conteúdo de uma peça e que nas questões de política comercial das empresas ela não devem opinar.

O pesquisador Venício Lima lembra que, diante da falta de regulamentação da mídia no Brasil, as empresas privadas, na maioria das vezes, podem agir como bem entendem e praticar os preços que lhes convêm. Lima acredita ainda que seja provável que O Globo esteja, a partir da lógica comercial, protegido legalmente para fazer esse tipo de cobrança, o que é apenas “um lado da moeda”.

É fato que a liberdade comercial baseia-se na lógica de que as normas podem ser estabelecidas pelas próprias empresas e que, portanto, podem causar distorções quando estas se cruzam com questões editoriais. No caso em questão, fica evidente a falta de transparência quanto aos critérios adotados por O Globo para considerar o anúncio como conteúdo opinativo e aplicar um valor diferenciado. Os outros três jornais que publicaram a peça publicitária não tiveram a mesma compreensão e a tabela aplicada foi a de anúncio publicitário comum.

A “Afirme-se” fez uma reclamação contra O Globo no Ministério Público do Rio de Janeiro por conta do episódio. A campanha pede que, com base no que diz a Constituição Federal com relação à liberdade de expressão, o jornal seja obrigado a publicar o anúncio por um valor simbólico.

Fernando Conceição defende que a atitude de O Globo foi claramente de abuso de poder econômico e que configura dumping, prática condenada pelo próprio mercado. “Foi uma maneira que a direção de O Globo encontrou para cercear o direito constitucional que é a liberdade de expressão por meio do abuso do poder econômico”, denuncia Conceição.

Anticotas

Pesa ainda contra as Organizações Globo como um todo uma constante militância contra as ações afirmativas relativas à questão racial, dentre elas as políticas de cotas para negras e negros nas universidades públicas. Esta militância é liderada inclusive pelo atual diretor da Central Globo de Jornalismo, Ali Kamel. Kamel é autor do livro Não somos racistas: uma reação aos que querem nos transformar numa nação bicolor, que nega a existência do racismo e, portanto, da necessidade de políticas reparadoras.

Pesquisa do Observatório Brasileiro de Mídia, citada por Venicio Lima, revela que grandes revistas e jornais brasileiros apresentam posicionamento contrário aos principais pontos da agenda de interesse da população afrodescendente – ações afirmativas, cotas, Estatuto da Igualdade Racial e demarcação de terras quilombolas. A pesquisa analisou 972 matérias publicadas nos jornais Folha de S.Paulo, O Estado de S.Paulo e O Globo, e 121 nas revistas semanais Veja, Época e Isto É – 1093 matérias, no total – ao longo de oito anos.

Lima chama a atenção para o fato de a cobertura de O Globo merecer um comentário à parte na pesquisa. Dentre os três jornais pesquisados, foi aquele que mais editoriais publicou sobre o tema, mantendo inalterados, ao longo dos anos, argumentos que se mostraram falaciosos, como o de que as cotas e ações afirmativas iriam promover racismo e de que os alunos cotistas iriam baixar o nível dos cursos.

Lembrando destes dados da pesquisa, Lima acredita que O Globo estabeleceu uma barreira comercial e que, do ponto de vista legal, eles podem estar cobertos pelos princípios da livre iniciativa. “Mas, esta conduta, tendo em vista o conteúdo que deixou de ser publicado, infringe o direito à informação. A questão que fica para o Ministério Público do Rio de Janeiro é legal. Cabe a eles encontrarem alguma forma jurídica de pensar o caso sob o ponto de vista do direito à informação. Para mim, essa postura deixa as Organizações Globo numa situação difícil para posteriormente falar de liberdade de expressão”, conclui o professor.

>Imagens da loucura (Agência FAPESP)

>
Por Fábio Reynol – 16/3/2010

Agência FAPESP – A professora de artes Tatiana Fecchio da Cunha Gonçalves reuniu cerca de 800 imagens de doentes mentais em hospitais psiquiátricos, entre elas algumas registradas por quatro fotógrafos ao longo da segunda metade do século 20 em instituições brasileiras.

Foto: Estudo reúne ensaios fotográficos que registraram doentes mentais em instituições de tratamento ao longo da segunda metade do século 20 (reprod.: Henri Fuseli)

O trabalho foi feito para o doutorado no Instituto de Artes da Universidade Estadual de Campinas (Unicamp), para o qual contou com Bolsa da FAPESP. Intitulada “A representação do louco e da loucura nas imagens de quatro fotógrafos brasileiros do século 20: Alice Brill, Leonid Streliaev, Cláudio Edinger, Cláudia Martins”, a tese foi defendida e aprovada no fim de janeiro.

“Há um conjunto de construções e elementos formais que tomam o ‘louco’ por diverso, de outra ordem, patológico, a distância”, disse à Agência FAPESP. A inspiração para o estudo surgiu durante o mestrado, quando Tatiana deparou com retratos de doentes mentais registrados por Alice Brill e pelo artista plástico Lasar Segall. “Achei intrigante o interesse deles pelo tema”, disse.

Por meio de um levantamento histórico detalhado, Tatiana recuperou imagens e conceitos produzidos a partir do século 17, quando surgiram os primeiros espaços de internação para doentes mentais.

Segundo ela, a loucura tem sido compreendida de diferentes maneiras ao longo do tempo. No entanto, as suas representações mantiveram alguns aspectos que chegaram até os dias atuais. “É o caso do louco visto como o diferente, o outro, o que deve ser isolado”, disse Tatiana.

Esse distanciamento entre o fotógrafo e o doente chega a ser delimitado em algumas fotos por meio da presença de grades nas cenas com o enfermo atrás delas.

Também são mantidos nas representações mais recentes, segundo a pesquisa, alguns elementos antigos de tipificação da loucura, como o louco melancólico das obras do pintor alemão Albrecht Dürer, no início do século 16, e o louco introspectivo segurando a cabeça, presente na Iconologia do escritor italiano Cesare Ripa no século 17.

Outras representações ainda ressaltam a bestialidade e a agressividade, passando, segundo Tatiana, a ideia de ameaça, como se o louco possuísse uma força imensurável.

Para a autora, muitas dessas imagens, realizadas há séculos, naturalizaram uma forma de compreender o louco como diverso, em sua “carga de alteridade”, segundo ela refere, constituindo ainda no século 20 “a ideia de que o louco deve ser afastado da sociedade”, afirmou.

Tatiana não se deteve na representação artística, tendo investigado também as ilustrações que a medicina produziu para registrar a loucura. Os estudos fisionômicos e as medições de índices corporais, segundo conta, eram utilizados como elementos para diagnósticos e para traçar teorias a respeito da insanidade mental.

“Por esse motivo, a fotografia assumiu uma grande importância para a psiquiatria e para teorias que associavam fisionomias a determinados comportamentos”, disse.

Um desses estudos mais famosos é o do italiano Cesare Lombroso, que associou características e defeitos faciais a comportamentos criminosos. Nesse aspecto, Tatiana ressalta que a fotografia assumiu, pela suposta objetividade do aparato técnico, um reconhecimento importante como instrumento científico.

Reforma psiquiátrica

Na segunda parte da tese, a autora analisa a produção dos quatro fotógrafos que compõem o cerne de seu trabalho: Alice Brill, fotógrafa e artista plástica alemã que retrata o Hospital do Juquery (SP), no ano de 1950; Leonid Streliaev, repórter fotográfico que fez imagens do Hospital São Pedro (RS) em 1971; Cláudio Edinger, que também fotografou o Juquery em 1989 e 1990; e Cláudia Martins, que produziu imagens da Colônia Juliano Moreira, no Rio de Janeiro, enquanto era estudante de jornalismo, de 1997 a 1999.

O período desses ensaios corresponde às mudanças provocadas pela reforma psiquiátrica iniciada na década de 1960. Tatiana contou que o fim da Segunda Guerra Mundial trouxe questionamentos à sociedade em relação aos padrões de “normatização”, os quais eram impostos especialmente em instituições como as escolas, as prisões e os manicômios.

“Com a reforma foram questionados os tratamentos da época e a doença mental passou a ser compreendida menos como uma doença dos corpos e mais como um reflexo de dinâmicas sociais”, revelou a pesquisadora.

Paradoxalmente, a autora ainda encontrou na segunda metade do século 20 resquícios da caracterização da loucura de tempos anteriores, o que mostra, segundo ela, que a ruptura com os antigos estigmas não foi tão grande. Outra hipótese é a de que a crítica proposta pela reforma psiquiátrica ainda está em processo, o que ainda deve provocar alterações na forma visual de representação da loucura.

“O fotógrafo [do século 20] ainda não partilha o espaço do fotografado, ele não está no mesmo lugar do outro”, disse. Dentre os fotógrafos estudados há uma tentativa mais explícita de rompimento com essa postura somente no trabalho de Cláudia Martins, segundo a pesquisadora.

“Ela procurou fazer com que os pacientes participassem da construção da imagem, eram eles que escolhiam o pano de fundo do cenário, a pose que fariam na foto e se estariam ou não acompanhados por outros internos”, apontou.

O estudo também traçou as mudanças nas relações da sociedade com os doentes mentais ao longo do tempo. Em 1950, por exemplo, Alice Brill foi aconselhada por amigos a não entrar no Juquery porque estava grávida, sob a justificativa de que os loucos poderiam “influenciar” o bebê. Já as imagens de Edinger, no fim dos anos 1980, trazem um tema inédito em trabalhos desse gênero: a homossexualidade.

Uma das conclusões da autora é a desconstrução do mito da objetividade da fotografia e do fotógrafo, afirmação recorrente no advento dessa técnica. Diante da pintura, a fotografia era tida como descrição exata da realidade a ponto de garantir registros objetivos à medicina, de acordo com a pesquisa.

“Essa objetividade é aparente, a fotografia é composta de escolhas do fotógrafo: onde os objetos serão colocados, quais lentes serão usadas, qual será o cenário, entre outros”, disse. Em todo o material fotográfico analisado está presente a tensão anormalidade/diverso e normalidade/identidade ligados à representação do “louco”.

Esse aspecto foi relembrado por ela e associado às ideias do filósofo francês Michel Foucault, para quem a loucura seria o campo de exclusão social do diverso. A exclusão estaria associada ao advento das cidades, segundo Tatiana. “As cidades exigiram indivíduos muito bem comportados e isolaram quem não se enquadrava em seus padrões, como leprosos, prostitutas e loucos”, disse.

No entanto, ao contrário de outros estigmas, a loucura poderia ser aplicada a qualquer um. Por isso, foi muito usada como instrumento de poder. “Com diagnósticos subjetivos, qualquer comportamento fora dos padrões vigentes poderia ser diagnosticado como loucura”, disse Tatiana. Como exemplo, cita uma mulher internada como louca no Hospital Pedro II, no início do século passado, porque resolveu dissolver o casamento logo após a noite de núpcias.

De acordo com a orientadora de Tatiana, a professora Cláudia Valladão de Mattos, do Departamento de Artes Plásticas da Unicamp, um sinal da qualidade do trabalho foi a sua grande receptividade em instituições internacionais.

“Em países como França e Alemanha, com forte tradição artística, a pesquisa de Tatiana teve uma ótima receptividade”, disse a professora, explicando que o trabalho foi aceito em todos os eventos europeus em que se inscreveu.

“Eles têm muito interesse em conhecer dados sobre o Brasil. O material reunido por Tatiana é considerado raro e importante para a comparação com estudos similares feitos em instituições de tratamento europeias”, disse.

O interesse estrangeiro pelo trabalho ficou evidente durante os dez meses da pesquisa que Tatiana passou na Inglaterra na Wellcome Trust for the History of Medicine da University College London, período no qual contou com bolsa de doutorado com estágio no exterior da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes).

Cláudia também destaca o aspecto interdisciplinar da tese que envolveu arte, história e a medicina psiquiátrica. “A tese também é importante para a história da arte, e abre um campo enorme a ser investigado”, disse.

Tatiana pretende continuar a pesquisa por meio de um pós-doutorado. Dessa vez, quer analisar imagens de vídeo de doentes mentais. “Durante a pesquisa entrei em contato com um material muito grande que pretendo aproveitar agora estudando as imagens em movimento”, disse.

>Rumo a uma pedagogia da incerteza: Keats e a "negative capability"

>
Negative capability

From Wikipedia (15 mar 2010)

Negative capability is a theory of the poet John Keats describing the capacity for accepting uncertainty and the unresolved.

Theory

Keats’ theory of “negative capability” was expressed in his letter to his brother dated Sunday, 21 December 1817. He says [1]

I had not a dispute but a disquisition with Dilke, on various subjects; several things dovetailed in my mind, & at once it struck me, what quality went to form a Man of Achievement especially in literature & which Shakespeare possessed so enormously – I mean Negative Capability, that is when man is capable of being in uncertainties, Mysteries, doubts without any irritable reaching after fact & reason.

Keats believed that great people (especially poets) have the ability to accept that not everything can be resolved. Keats, as a Romantic, believed that the truths found in the imagination access holy authority. Such authority cannot otherwise be understood, and thus he writes of “uncertainties.” This “being in uncertaint[y]” is a place between the mundane, ready reality and the multiple potentials of a more fully understood existence. It relates to his metaphor of the Mansion of Many Apartments.

It could be argued that Keats explored this idea in several of his poems:
La Belle Dame sans Merci: A Ballad (1819)
Ode to a Nightingale (1819)
The Fall of Hyperion: A Dream (1819)
Ode on a Grecian Urn (1819)

Negative capability is a state of intentional open-mindedness paralleled in the literary and philosophic stances of other writers. In the 1930s, the American philosopher John Dewey cited Keatsian negative capability as having influenced his own philosophical pragmatism, and said of Keats’ letter that it “contains more of the psychology of productive thought than many treatises.” [2] [3] Nathan Scott, in his book Negative capability; studies in the new literature and the religious situation [4], notes that negative capability has been compared to Heidegger’s concept of Gelassenheit, “the spirit of disponibilité before What-Is which permits us simply to let things be in whatever may be their uncertainty and their mystery.” Walter Jackson Bate, Keats’s biographer, explored the approach in detail in his 1968 work Negative Capability: The Intuitive Approach in Keats.

Author Philip Pullman excerpts from Keats’s letter and prominently incorporates the concept in his fantasy novel The Subtle Knife.

Notes
1. Romanticism: an anthology, By Duncan Wu, Duncan Wu Edition: 3, illustrated Published by Blackwell, 2005 p.1351
2. Dewey, John. Art as Experience. New York: Penguin Perigree (2005):33-4.
3. Kestenbaum, Victor. The Grace and the Severity of the Ideal: John Dewey and the Transcendent. Chicago: University of Chicago Press (2002): 225.
4. Scott. Negative capability; studies in the new literature and the religious situation. Yale University Press (New Haven), 1969

>U.S. Scientists Urge Action on Climate Change

>
On March 11, 2000 U.S. scientists and economists signed on to a statement imploring the Senate to move swiftly and comprehensively on the issue of climate change. The signatories are all experts in relevant fields of study on climate change. The statement is the first time leading U.S. scientists and economists have come together to issue a joint message of concern on climate change. The list of signatories included eight Nobel laureates, 32 members of the National Academy of Sciences, 10 members from the National Academy of Engineering, and more than 100 members of the Intergovernmental Panel on Climate Change, who shared a 2007 Nobel Peace Prize.

“If anything, the climate problem is actually worse than reported earlier,” wrote Leon Lederman, Director Emeritus of the Fermi National Accelerator Laboratory in Batavia, Illinois, and a Nobel Prize-winning physicist, in an individual statement in the letter to the Senate. “Physicists tend to be super critical of strong conclusions, but the data on global warming now indicate the conclusions are not nearly strong enough.”

Read the statement here.

>Iphan faz levantamento para localizar fotógrafos conhecidos como lambe-lambes (O Globo)

>
O Globo – 13 de março de 2010

Foto: Osvaldo de Andrade Neves fotografa uma cliente na Praça da Matriz, em São João de Meriti/Foto de Ana Branco (Agência O Globo)

RIO – Com a chegada das máquinas instantâneas de retrato e após a explosão da fotografia digital, os lambe-lambes foram, pouco a pouco, deixando seus pontos. Para preservar a memória dos últimos representantes da categoria, o Instituto do Patrimônio Histórico e Artístico Nacional (Iphan-RJ) iniciou um levantamento desses cronistas visuais que ainda existem no estado.Testemunhas privilegiadas das transformações pelas quais o Rio passou desde o início do século XIX, os lambe-lambes estão praticamente em extinção. Até agora, foram localizados cinco fotógrafos de jardim (como a profissão era chamada em seu auge). Entre eles, há desde os que já não trabalham mais no ofício aos que ainda sobrevivem da fotografia.

– O que estamos buscando é registrar este tipo de atividade e salvaguardar a memória – explica o superintendente do Iphan no estado, Carlos Fernando Andrade, à repórter Jacqueline Costa.

O levantamento – que está sendo realizado pelo antropólogo João Carlos de Oliveira, com a ajuda da estudante de história Anne Lima – inclui entrevistas e depoimentos gravados em vídeo. O material reunido tem a chance de ser transformado em um livro ou um DVD.

Dos oito lambe-lambes que trabalhavam no Jardim do Méier, só restou um. Aos 83 anos, o português Bernardo Soares Lobo ainda marca ponto por lá, às segundas, terças e quartas. Da velha câmera, não saem mais imagens. Seu Lobo se rendeu à fotografia digital e hoje usa o antigo equipamento de trabalho apenas como um chamariz. Com orgulho, lembra de já ter fotografado Tenório Cavalcanti, político que ficou conhecido como o Homem da Capa Preta, e Dercy Gonçalves. E diz que não consegue abandonar o jardim onde está há 54 anos.

Outro que ainda não abandonou o batente e que também usa máquina digital é Osvaldo de Andrade Neves, de 66 anos. Há quatro décadas, diariamente, ele monta sua máquina na Praça da Matriz, em São João de Meriti. Ele admite que o movimento caiu com o passar dos anos, mas diz que ainda tira da fotografia o sustento da família.

Já Inácio Teodósio da Silva armou o tripé de sua máquina na Praça General Osório, em Ipanema, durante quase 30 anos. Mas, hoje, guarda com zelo o equipamento que fotografou de ilustres anônimos a personalidades cariocas. Seis de seus irmãos trabalharam na mesma profissão, em diversos pontos do Rio. Jorge Teodósio da Silva, irmão de Inácio, e Francisco Victor Cavalcanti foram os outros lambe-lambes encontrados pelo pesquisador do Iphan.

Ver artigo original e vídeo.