Arquivo da categoria: ciência

>Copa de estatísticas

>
Notícias

23/6/2010

Agência FAPESP – Pesquisadores da Universidade Federal de São Carlos (UFSCar) publicaram na internet um modelo estatístico dinâmico com estimativas das chances dos selecionados de atingir cada etapa da Copa do Mundo da África do Sul.

O modelo matemático foi elaborado no Centro de Estudos do Risco do Departamento de Estatística e utiliza como parâmetros a opinião de especialistas sobre os placares da primeira fase, o ranking da Federação Internacional de Futebol (FIFA) divulgado em maio e os resultados ao longo do torneio.

Esse caráter dinâmico é responsável pela alteração constante na lista das equipes com maior chance de vencer o mundial. No início do campeonato a Espanha encabeçava esse grupo. Após a primeira rodada, a Alemanha ficou no topo da lista e, em seguida, o Brasil assumiu a primeira posição.

Os placares de cada jogo são comparados às previsões, mostrando que os resultados improváveis foram abundantes nessa Copa. Foi o caso do empate entre Portugal e Costa do Marfim, que tinha 15,9% de chances de ocorrer, de acordo com o modelo da UFSCar, e a vitória da Sérvia sobre a Alemanha, com apenas 9,6% de probabilidade.

A Previsão Estatística Copa 2010 da UFSCar pode ser acessada no endereço: www.copa2010.ufscar.br/index_br.html

>Tensions Grow Between Tornado Scientists and Storm Chasers

>
By Jeffrey R. Young
Boulder, Colo.
The Chronicle of Higher Education
June 17, 2010

A long line of storm chasers gets in the way of scientists studying severe weather. Photo: Carlye Calvin

There is a crowd under the funnel cloud.

Researchers wrapping up one of the largest-ever scientific field studies of tornadoes say that amateur storm chasers hindered their research and created dangerous traffic jams. Storm chasers, for their part, say that they have just as much right to observe storms as Ph.D.’s.

Hundreds of camera-toting amateurs in cars ended up chasing the same storms as a fleet of scientific vehicles during the high-profile research project, called Vortex2, which wrapped up data collection this week. At times the line of traffic caused the Midwestern roads to look like the freeways of Los Angeles, said Roger Wakimoto, director of the National Center for Atmospheric Research, during a briefing for reporters this week.

“I worry about this as a safety hazard,” Mr. Wakimoto said. “These people were blocking our escape routes because of the sheer number of cars.”

Researchers refer to their own fleet as an “armada,” and it was made up of about 40 vehicles, several of them carrying radar gear. The research goal is to understand how tornadoes form, to discover why some big storms generate deadly tornadoes and others don’t, and to improve forecasters’ ability to warn people of the severe weather events.

“It’s embarrassing to say, but we still do not understand what triggers tornado genesis,” Mr. Wakimoto said. “It’s got to be one of the most fundamental things we don’t understand today, but maybe we captured the data [during this study] to answer the question.”

At times amateur storm chasers kept the armada of science trucks from even getting to a budding tornado. One example was on May 19 in Oklahoma, when the number of storm chasers reached about 200 to 300 cars, according to Joshua Wurman, president of the Center for Severe Weather Research, in Boulder.

“The chasers basically made a rolling roadblock,” he said in a phone interview Thursday, while preparing to head out for his last day of data collection. He said that many of the amateur chasers were trying to roll along parallel to the storm to shoot video, but the researchers wanted to get ahead of the storm to set up their radar equipment. Mr. Wurman said that most of the chasers refused to move aside to let the research vehicles pass. While people have no legal obligation to yield to radar trucks, he said that he felt the amateurs should have given way as a courtesy.

“Just like you open the door for a guy with crutches—it’s not required by law, it’s just polite,” he said. “Nobody let us by, and I was really disappointed by that. It basically crippled our science mission that day.”

One veteran storm chaser pointed out on his blog, however, that some of the scientists involved in Vortex2 have been on major television programs that have led to an increase in amateur storm chasers. “Dr. Wurman’s research has benefited financially from his previous affiliation with the Discovery Channel program Storm Chasers—this program implicitly is encouraging viewers to engage in storm-chasing by glamorizing it,” wrote Chuck Doswell.”Dr. Wurman is a well-respected researcher, but he’s not Moses. Nor is he a first responder going about his duties—law enforcement officers are authorized to break laws in the performance of their jobs. I know of no researcher/storm chaser who has that particular blank check.”

Citizen Scientists?

Storm chasers argue that they offer a valuable service because some call in reports and observations to the National Weather Service.

“Storm chasers are out there to save lives—we’re out there to give warnings faster than the early warning systems,” said Aaron Estman, who has been chasing storms for a few years and runs a Web site called TexasChaser.com, in an interview.

But Mr. Wurman said that amateur storm chasers rarely offer useful information because, by the time they call in their reports, officials are already aware of the storms, thanks to radar equipment. And even the few storm chasers who equip their cars with scientific instruments do not properly calibrate their equipment to aid scientific literature, he said.

“They haven’t done the boring stuff—the tedious stuff of doing good science,” he said.

Some researchers say there is hope that storm chasers can become valuable citizen scientists, as has happened in other fields, such as astronomy.

“Right now there’s no coordination,” said Brian M. Argrow, a professor of aerospace engineering sciences and associate dean for education at the University of Colorado at Boulder. “That’s an important thing that Vortex2 brings to the table—a coordinated effort.”
The Next Step

This is the final year of the two-year Vortex2 project, which cost about $13-million and is supported by the National Science Foundation and the National Oceanic and Atmospheric Administration, and involves about 20 teams of scientists from universities and federal laboratories. The endeavor is a sequel to the original Vortex project, a similar effort in 1994 and 1995. (It became one of the inspirations for the Hollywood film “Twister,” which, like the television shows cited by bloggers, helped increase interest in storm-chasing.)

The scientists will now analyze the terabytes of data—the equivalent of thousands of filled hard drives from typical laptops—including images of the storms they observed. The first papers from the project are expected to be presented at a severe-weather conference in Boulder in October.

>Corte portuguesa contratou há 214 anos naturalistas para conhecer melhor as riquezas naturais do país

>
Memória
A ciência no Brasil Colônia

Neldson Marcolin
Pesquisa Fapesp, Edição Impressa 171 – Maio 2010

© Museu Paulista/USP

Interior de São Paulo no século XIX retratado no quadro Pirapora do Curuçá (hoje Tietê), 1826, de Zilda Pereira

A contratação de cientistas pelo Estado para realizar estudos sobre a natureza e aprimorar tecnologias está longe de ser uma iniciativa recente no Brasil. No final do século XVIII a Corte portuguesa determinou expressamente aos governadores das capitanias brasileiras a admissão de naturalistas com o objetivo de fazer mapas do território, realizar prospecção mineral e desenvolver e disseminar técnicas agrícolas mais eficientes. Tudo para tentar gerar mais divisas e ajudar a equilibrar as periclitantes contas do reino de Portugal.

A ordem para buscar os homens de ciência capazes de pesquisar a natureza brasileira partiu de dom Rodrigo de Sousa Coutinho ao assumir a Secretaria de Estado da Marinha e Domínios Ultramarinhos, em 1796, e formular uma nova política para a administração do Império colonial português. Para ele, era urgente conhecer a utilidade econômica das espécies nativas e investigar o verdadeiro potencial mineral das terras de além-mar. Aos governadores de cada capitania cabia acompanhar os trabalhos e relatar à Corte os progressos em curso.

Foram contratados naturalistas em Minas Gerais, em Pernambuco, na Bahia e no Ceará. Em São Paulo, o governador Antônio Manuel de Melo Castro e Mendonça admitiu João Manso Pereira, um químico autodidata, versado em idiomas como grego, hebraico e francês e professor de gramática, envolvido em ampla gama de atividades. “Manso é um caso notável de autodidatismo que, sem nunca ter saído do Brasil, procurava estar atualizado com as novidades científicas que circulavam no exterior”, diz o historiador Alex Gonçalves Varela, pesquisador do Museu de Astronomia e Ciências Afins (Mast) e autor do livro Atividades científicas na “Bela e Bárbara” capitania de São Paulo (1796-1823) (Editora Annablume, 2009). O químico era inventor e publicou diversas memórias científicas, da reforma de alambiques e transporte de aguardente à construção de nitreiras para produzir salitre. Mas fracassou no projeto de instalação de uma fábrica de ferro. “Foi quando seu didatismo mostrou ter limites.”

Em 1803 foi nomeado para seu lugar Martim Francisco Ribeiro de Andrada e Silva pelo governador Antônio José de Franca e Horta. Irmão de José Bonifácio – que viria a ter papel relevante na história da Independência –, Martim era diferente de João Manso. Tinha uma formação acadêmica sólida, andou pela Europa e estudou na Universidade de Coimbra. Tradutor de obras científicas, fez numerosas viagens pelo território paulista e foi um difusor das ciências mineralógicas na época. “Ele seguia o conjunto de práticas científicas do período, ou seja, descrição, identificação e classificação dos minerais em seu local de ocorrência”, conta Varela. Anos mais tarde, Martim e Bonifácio realizaram juntos uma conhecida exploração pelo interior paulista (ver Pesquisa FAPESP edição 96).

João Manso, Martim e Bonifácio tinham em comum o conhecimento enciclopédico e uma forte ligação com a política do período. Martim chegou a ministro da Fazenda e participou do que ficou conhecido como “gabinete dos Andradas”, convidado pelo irmão, em 1822. De acordo com Varela, o trabalho científico dos três naturalistas foi de extrema relevância para ajudar o governo luso a conhecer de forma detalhada a capitania paulista e seus recursos naturais.

“A ciência e a técnica brasileira não é algo tão recente como se afirmava até meados dos anos 1980 e não passou a ser praticada aqui apenas depois que surgiram os institutos biomédicos no final do século XIX e começo do século XX”, afirma o historiador. “Há numerosos exemplos de homens ilustrados investigando a natureza, trabalhando com uma ciência utilitarista e produzindo conhecimento no período do Brasil Colônia.” Por fim, uma curiosidade: os termos naturalista e filósofo natural ainda são usados pelos historiadores para se referir aos homens de ciência da época porque a palavra cientista não existia até 1833. Naquele ano, ela foi utilizada pela primeira vez pelo polímata William Whewell, que criou o neologismo para se referir às pessoas presentes em uma reunião da Associação Britânica para o Avanço da Ciência.

>Política incerta, economia incerta, clima incerto

>
A sucessão de catástrofes é casual ou causal?

Por Mario Soares*
IPS/Envolverde – 21/05/2010 – 10h05

Lisboa, maio/2010 – Até o próprio Pangloss, famoso personagem de Candide de Voltaire, apesar de seu imperturbável otimismo, se veria em dificuldades para enfrentar o mundo contemporâneo. A natureza e a humanidade deram rédeas aos seus respectivos demônios e ninguém pode detê-los. Em diferentes lugares, a Terra reage e nos assesta, sucessivamente: ciclones, maremotos, terremotos, inundações e, ultimamente, a erupção vulcânica na insular Islândia, que paralisou os aeroportos do norte e centro da Europa. Um espetáculo triste e jamais visto.

Trata-se de fenômenos naturais normais, dirão alguns, os menos avisados. Contudo, para aqueles que têm mais de oito décadas vividas, como é meu caso, e nunca viram nem tiveram conhecimento de nada semelhante a esta conjugação sucessiva de catástrofes, é prudente expor a dúvida: será que a mão inconsciente e imprevista do homem, que agride e maltrata o planeta e compromete seu equilíbrio natural, não tem uma boa dose de responsabilidade nestes fatos?

A recente Conferência de Cúpula sobre Mudança Climática em Copenhague, em dezembro passado, que deveria condenar e enfrentar o aquecimento global, resultou em fracasso devido ao suspeito acordo traçado na última hora por China e Estados Unidos. Por uma coincidência – ou talvez não –, estas duas grandes potências são os maiores contaminadores da Terra. A verdade é que conseguiram paralisar o grupo europeu – ao qual não deram a menor importância – e várias delegações procedentes de outros continentes, que esperavam resultados positivos da Conferência Mundial.

Talvez seja mais preocupante a aparição de alguns cientistas que adotam posturas abertamente contrárias ao pensamento e às advertências da esmagadora maioria dos ecologistas, já que afirmam que o aquecimento global não é causado pelas atividades humanas nem pelo abusivo emprego de combustíveis derivados dos hidrocarbonos. Afirmam e reiteram que se trata de um fato natural. Isto me faz pensar que há pessoas capazes de perseguir a todo custo a ganância e sobrepor a qualquer outra consideração a defesa de seus interesses imediatos sem que isso afete suas boas consciências… Se é que as têm.

Estou convencido de que na próxima Conferência Mundial sobre Mudança Climática a verdade científica prevalecerá e que as grandes potências serão obrigadas a respeitar as regras que objetivam conter radicalmente o aquecimento global.

Os riscos que pairam sobre o planeta não são apenas as catástrofes consideradas naturais que se sucedem com inquestionável e preocupante frequência. O terrorismo global continua causando estragos desde 2001, e atualmente são numerosas (excessivas, segundo meu ponto de vista) as nações que dispõem de armamento nuclear. É indispensável colocar um limite a isto. Neste sentido, o acordo que o presidente norte-americano, Barack Obama, conseguiu estabelecer com Rússia e China para reduzir os respectivos arsenais atômicos e obstruir a proliferação por parte de nações que ainda não os possuem – como é o caso do Irã – é um acontecimento notável e de projeções políticas e geoestratégicas extremamente positivas.

Em um mundo tão perigoso como o que nos cabe viver – basta pensar em todos os conflitos armados não resolvidos em todos os continentes –, é preciso reduzir drasticamente a venda livre de armas e propagar a Cultura de Paz, da qual é incansável promotor o ex-diretor-geral da Unesco, Federico Mayor Zaragoza. Ao mesmo tempo, deve-se evitar e controlar até onde for possível todas as formas de incitação à violência que os meios de comunicação, as televisões em particular, propagam constantemente (inconscientemente, ou não), no que não é exagerado qualificar como uma escalada inaceitável.

Todos os governos do mundo que se consideram Estados de Direito e que, portanto, devem respeitar e proteger os direitos humanos têm a consequente obrigação de adotar políticas e medidas para difundir a Cultura de Paz e repudiar, pedagógica e sistematicamente, todas as formas de violência que entram todos os dias em nossas casas para o bem de nossos descendentes e do futuro da humanidade.

Realmente, as ameaças que enfrentamos em nossa época provêm de diversas fontes: de uma política incerta e sem rumo claro, de uma economia sem regras e à espera de melhores dias – não sabemos quantos – para superar a crise, de uma sucessão de calamidades. Já é hora de a cidadania global abrir os olhos, reagir e exigir soluções. IPS/Envolverde

* Mário Soares é ex-presidente e ex-primeiro-ministro de Portugal.

>Craig Venter e a célula artifical

>
O único DNA presente é sintético – entrevista com Craig Venter

Steve Connor, do Independent
O Globo, 21/5/2010 – reproduzido no Jornal da Ciência (JC e-mail 4015)

Para cientista, mau uso da tecnologia pode ser enfrentado com uma nova legislação

A criação, pela primeira vez na História, de uma forma de vida artificial, pelo grupo do geneticista Craig Venter – o mesmo responsável pela apresentação do genoma humano em 2001 – abre caminho para a compreensão das origens da vida, e inaugura uma nova era da biologia sintética. O grupo criou uma célula sintética, a partir de um DNA produzido de forma artificial e transplantado para uma bactéria.

Nesta entrevista concedida ao jornal britânico “Independent”, Venter deixa claro que o seu feito foi, de fato, criar a primeira forma de vida artificial. “O único DNA presente (na célula criada) é o sintético”, afirma.

O próximo passo dessa linha de pesquisa, de acordo com ele, “é entender a natureza básica da vida, quais são os conjuntos de genes mínimos necessários para ela. Ainda não sabemos todas as funções de genes presentes em uma célula. Trata-se, portanto, de um enigma fundamental.”

– Qual é novidade de seu estudo?

Esta foi a primeira vez que alguém construiu um cromossomo inteiro, de 1,08 milhão de pares de bases, transplantou-o para uma célula receptora e o fez assumir o controle desta célula, convertendo-a em uma nova espécie de bactéria.

Estabelecemos, portanto, um novo paradigma – temos uma célula totalmente controlada por um cromossomo artificial.

– É, então, uma vida artificial?

Nós a definimos assim por ela ser totalmente determinada por um cromossomo artificial. Começamos com uma célula viva, mas o cromossomo que construímos a transformou completamente. Não há qualquer elemento da célula receptora. Nossa célula ar tificial passou por um bilhão de réplicas. O único DNA presente ali é o artificial. Todas as proteínas foram codificadas por ele. Isso é importante ressaltar: não produzimos as proteínas nem as células artificialmente. Tudo foi ditado pelo cromossomo.

– Podemos dizer que uma vida foi criada do zero?

Não considero que tenha acontecido isso. Criamos uma nova vida a partir de outra já existente, usando um DNA artificial que reprogramou as células.

– Por que a bactéria Mycoplasma mycoides foi escolhida para a pesquisa?

Este é o primeiro passo, a forma escolhida para estabelecer um novo paradigma. Faz sentido começar com algo que, sabemos, é biologicamente ativo. Provamos, assim, que nosso estudo poderia ser feito, o que não é pouca coisa. Mudamos para real o estágio de algo que, dois meses atrás, era considerado hipotético.

– Essa nova forma de vida é um organismo de vida livre e capaz de replicar?

Sim, se considerarmos que o conceito de “vida livre” também pode ser atribuído ao que cresce em um laboratório. Fora dele, o experimento não sobreviveria. No laboratório, se dermos os nutrientes corretos, este organismo pode se replicar sem qualquer intervenção.

– Qual foi a maior dificuldade enfrentada por sua equipe?

Em um determinado momento, havia apenas um erro em um milhão de pares de bases do cromossomo (e não conseguíamos prosseguir). Chegamos a interpretar este episódio como um sinal de que seria impossível conseguir dali uma vida. Foi um momento difícil, porque contrariava algo que eu havia previsto três anos atrás. Enormes obstáculos precisavam ser superados. Tivemos de aprender e inventar novos sistemas para tornar tudo isso possível, o que nunca é algo trivial.

– E agora, o que o senhor espera atingir?

Queremos entender a natureza básica da vida, quais são os conjuntos de genes mínimos necessários para ela. Ainda não sabemos todas as funções de genes presentes em uma célula. Não sabemos o que fazem e como trabalham. Há 15 anos tentamos achar estas respostas, mesmo em células simples. Trata-se, portanto, de um enigma fundamental para chegarmos à próxima etapa. Com o passar dos anos, o uso de novas tecnologias torna tudo mais evidente para nós. É só lembrar dos anos 40 e 50, quando a revolução dos eletrônicos ainda não havia decolado.

Os cientistas que se dedicavam à construção de circuitos àquela época tinham muito pouca noção sobre o que viriam a ser os celulares e os computadores. É muito difícil imaginar todas as aplicações de uma tecnologia.

Considera-se que a população mundial, hoje de 6,8 bilhões de pessoas, passará para 9 bilhões em três ou quatro décadas. E atualmente nós sequer conseguimos prover comida, energia, água potável e remédios para todos. Então, precisamos urgentemente de novas técnicas para atingir esse objetivo, e isso deve ser feito sem destruir o planeta.

– O senhor está brincando de Deus?

Esta pergunta tornou-se quase um clichê. É lembrada toda vez que há uma grande descoberta científica, particularmente na biologia. Ciência é a compreensão da vida em seus níveis mais básicos, e a tentativa de usar esse conhecimento para a melhoria da Humanidade.

Acredito, portanto, que somos parte do progresso do conhecimento científico, e que contribuímos para o entendimento do mundo ao nosso redor.

– O senhor está preocupado com o mau uso das técnicas aplicadas em sua pesquisa?

Tenho que estar. É uma tecnologia poderosa. Propus novas regulações para esta área, porque sinto que as atuais não vão longe como seria necessário. Por sermos os inventores, queremos que seja feito tudo o possível para proteger nossa técnica contra o mau uso. Sugeri, por exemplo, uma legislação para as empresas que sintetizam DNA, para que não façam o genoma de DNAs que sejam potencialmente perigosos.

Queremos que essa descoberta seja posta em um contexto que as pessoas saibam o que ela significa. Creio que esta tenha sido a primeira vez, na ciência, em que uma extensa análise bioética foi realizada antes de os experimentos estarem concluídos.

Esta é parte de um processo em andamento que estamos conduzindo, a nossa tentativa de ter certeza do que esses procedimentos significarão no futuro.

>Bringing Clouds into Focus: A New Global Climate Model May Reduce the Uncertainty of Climate Forecasting

>
John Hules, Berkeley Lab Computing Sciences
May 11, 2010

Clouds exert two competing effects on the Earth’s temperature: they cool the planet by reflecting solar radiation back to space, but they also warm the planet by trapping heat near the surface. These two effects coexist in a delicate balance.

In our current climate, clouds have an overall cooling effect on the Earth. But as global warming progresses, the cooling effect of clouds might be enhanced or weakened—global climate models are evenly divided on this issue. In fact, inter-model differences in cloud feedbacks are considered the principal reason why various models disagree on how much the average global temperature will increase in response to greenhouse gas emissions, when it will happen, and how it will affect specific regions.

The large data sets generated by the GCRM require new analysis and visualization capabilities. This 3D plot of vorticity isosurfaces was developed using VisIt, a 3D visualization tool with a parallel distributed architecture, which is being extended to support the geodesic grid used by the GCRM.
(Image Courtesy of the NERSC Analytics Team)

Clouds also affect climate in other ways, such as transporting heat and moisture from lower to higher altitudes, producing precipitation, and many other interrelated mechanisms. Current global climate models are unable to directly simulate individual cloud systems from physical principles, because the size and speed of supercomputers place a limit on the number of grid cells that can practically be included in the model. As a result, global models do not have fine enough horizontal resolution to represent large clouds.

Instead, global climate models must rely on parameterizations, which are statistical representations of phenomena, such as cloud cover or precipitation rates, that cannot be directly modeled. Different models use different parameterizations, which is an important reason why their results differ. Cloud parameterizations are the greatest source of uncertainty in today’s climate models.

David Randall, a Professor Atmospheric Science at Colorado State University, is working to clear up that uncertainty by developing and testing a new kind of global climate model, called a global cloud resolving model (GCRM)—a model that’s designed to take advantage of the extreme-scale computers expected in the near future.

Randall is the principal investigator of the “Global Cloud Modeling” project that computes at NERSC, and was one of two coordinating lead authors of Chapter 8, “Climate Models and Their Evaluation,” in the Intergovernmental Panel on Climate Change’s (IPCC’s) Fourth Assessment Report, which was honored with the 2007 Nobel Peace Prize. He also directs the Center for Multiscale Modeling of Atmospheric Processes, sponsored by the National Science Foundation.


From a single thunderstorm to the whole earth

“The GCRM is a computer model that simulates the motions of the atmosphere on scales from a single thunderstorm all the way up to the size of the entire earth,” Randall explains. “It has about a billion little grid cells to represent the three-dimensional structure of the air. Each grid cell has a wind, a temperature, a humidity, and some other things that are needed. So the number of numbers involved is in the tens of billions, just as a snapshot of what’s going on at a given second.”

Small grids made up of equilateral triangles, squares, and hexagons. The hexagonal grid has the highest symmetry because all neighboring cells of a given hexagonal cell are located across cell walls. In contrast, with either triangles or squares, some neighbors are across walls, while others are across corners.

Large thunderstorms play an important role in global atmospheric circulation. They pack a lot of energy in the form of updrafts that move, in extreme cases, 30 to 40 meters a second—”scary fast,” Randall says. They “lift air from near Earth’s surface to way up near the stratosphere in just a few minutes.” In this way, thunderstorms carry moisture, momentum, carbon dioxide, and other chemical species through great depths of the atmosphere very quickly.

Cumulus clouds, Randall says, make the upper troposphere wet by transporting water from its source, the oceans. “A lot of it will rain out along the way, but some of it is still left, and it gets spread out up there and makes cirrus clouds, comprised largely of ice, which are very important for climate. We’re especially interested to see how storms that create cirrus affect the climate.” Cirrus clouds block Earth’s infrared radiation from flowing out to space, and that tends to warm the climate. “If we have more cirrus in the future, that will enhance warming. If we have less, it will reduce the warming.”

The GCRM also will give scientists new insights into tropical cyclones, which, Randall says, “are much bigger than thunderstorms, and in fact they contain many thunderstorms simultaneously. They affect the climate in part by cooling the sea surface as they move over the ocean.”

A spherical geodesic grid (a) can be cut into logically rectangular panels (b), which offers a convenient way to organize the data in a computer’s memory. For visual clarity, this depiction shows a very low resolution grid.

The GCRM, supported by the Department of Energy’s Scientific Discovery through Advanced Computing (SciDAC) program, is built on a geodesic grid that consists of about 100 million mostly hexagonal columns, each with 128 levels, representing layers of atmosphere that reach 50 kilometers above the Earth. For each of these grid cells, the model predicts the wind, temperature, and humidity at points just 4 kilometers apart (with a goal of 2 kilometers on the next generation of supercomputers). That’s an unprecedented resolution—most global atmospheric models provide detail at a 100-kilometer scale.

“No one has done this before in quite this manner, and it’s our hope that our project will point the way to future generations of models,” says Randall.

The geodesic grid used in the GCRM, also developed with SciDAC support, is itself quite innovative. If you want to tile a plane with regular polygons, you have only three choices: triangles, squares, or hexagons. Most climate models use some form of square (or rectangular) grid; but the geometry of the grid complicates the calculations, because each square has two different kinds of neighbors—four wall neighbors and four corner neighbors—which require different treatment in the equations. In addition, a square grid poses complications in modeling the Earth’s polar regions, where grid cells lose symmetry because of longitudinal convergence. There are solutions to these problems, but they are computationally expensive.

The GCRM, in contrast, uses a geodesic, hexagonal grid. In a hexagonal grid, all neighbors of a given cell lie across cell walls; there are no corner neighbors. A geodesic grid on a sphere has twelve pentagonal cells in addition to the many hexagonal cells; but each cell still has only wall neighbors, and all cells are roughly the same size. This type of grid also eliminates the pole problem.

As a result, equations constructed on hexagonal grids treat all neighboring cells in the same way, reducing the complexity and increasing the speed, productivity, and accuracy of the code. The number of cells (both grid columns and levels) can easily be changed for a particular computer run, depending on what the researchers want to simulate. Models based on geodesic grids are now being used by several major weather and climate modeling groups around the world.

Vorticity: Where the action is

Climate models are systems of partial differential equations that simulate how the atmosphere and oceans move and change over time, based on the laws of physics, fluid motion, and chemistry. Since the equations are all interrelated, the dynamical core of the model has to solve these equations simultaneously for every grid cell at each time step—which is why climate models require massive computing power.

Because the GCRM has such high resolution, Randall’s research team knew they needed to use equations that reproduce accurate motions at a wide range of scales to get the most realistic results; so team members Akio Arakawa of the University of California, Los Angeles (UCLA), and Celal Konor of Colorado State University (CSU) developed the Unified System of governing equations (so called because it unifies the quasi-hydrostatic compressible system with the nonhydrostatic anelastic system). The Unified System can cover a wide range of horizontal scales, from turbulence to planetary waves. It also filters out vertically propagating sound waves of all scales, without excluding relevant waves such as inertia-gravity waves, Lamb waves, and Rossby waves.

“This project could not have happened without a lot of support from the federal government… We’ve been computing at NERSC for more than a decade, and it’s been an excellent experience. We have a lot of respect for and gratitude to everyone at NERSC for all the excellent support they have given us over the years,”

—David Randall, Professor Atmospheric Science at Colorado State University

“The atmosphere can make lots of different kinds of waves” Randall says, “but in choosing equations we knew we wanted to avoid those that include sound waves, because sound waves are completely irrelevant to weather and climate. Because sound moves too fast, if you include sound waves in your model, you have to take very small time steps. If you eliminate sound waves completely, then you can take much longer time steps. There have been other ways to get rid of them in the past, but they’ve been considerably less accurate. The new method that we’ve developed does involve approximations, because you’re leaving something out, but it has much smaller errors that are, we believe, quite acceptable.”

Another key feature of the Unified System is that it solves the three-dimensional vector vorticity equation rather than the vector momentum equation. Vorticity, or spinning motion, “is really at the core of much of the important fluid dynamics in the atmosphere,” Randall says. “Vortices move around and maintain their identities and live a life, like little animals. Sometimes two vortices will merge and make a bigger one. Almost everything that is interesting and important in the motion of the atmosphere predominantly involves the spinning part.”

Most climate models use the momentum equation because it is easier to solve than the vorticity equation, and vorticity can be derived from momentum. But Akio Arakawa of UCLA and Joon-Hee Jung of CSU found a more efficient way of solving the vorticity equation that represents the important spinning motions much more directly and explicitly than the momentum equation does. “You really have to get that spinning part right, because that’s where most of the action is,” Randall explains. “Working with the vorticity equation directly means focusing in on the part of the physics that is most important to what we care about.

The component algorithms in the GCRM were selected for their good scaling properties, so the model scales linearly with the number of grid cells used. “Depending on the details of the configuration, we can do a few simulated days per wall clock day on 40,000 processors of Franklin,” Randall says. “Which means that doing a whole year is a very big calculation—it might be like a hundred days continuously around the clock on 40,000 processors or more—a big chunk of a very expensive machine. So what we’re doing is just barely doable now.”

“But in ten more years,” he adds, “we expect computers to be a hundred times faster, whether it’s Green Flash or some other system. Then we’ll be getting, say, a simulated year for a wall-clock day. That’s a big improvement. You can start thinking about doing simulated decades or even longer. You’re almost getting into the climate regime of about a century. So that’s exciting.”

“This project could not have happened without a lot of support from the federal government, especially the Department of Energy. We have to use the very fastest, most powerful machines in the world, and DOE, of course, is where you go for that. They’re ‘Supercomputing Central.’ We’ve been computing at NERSC for more than a decade, and it’s been an excellent experience. We have a lot of respect for and gratitude to everyone at NERSC for all the excellent support they have given us over the years.”

Further computational challenges

The development of a geodesic dynamical core with a unique system of equations was the major, but not the only computational challenge. Other challenges include parallel input/output (I/O), including storage, management, and distribution of the voluminous output, and visualization of the results. The SciDAC Scientific Application Partnership titled “Community Access to Global Cloud Resolving Model and Data,” led by Karen Schuchardt of Pacific Northwest National Laboratory, has been working to address those issues (see sidebar).

As for Randall’s group, they are now adding parameterizations of various physical processes, such as cloud microphysics, to the dynamical core of the GCRM, and they are also working on a method to include topography in the model, which will add vertically propagating waves produced by air flow over mountains. While continuing to run various tests on Franklin at NERSC, including numerical accuracy, stability, and parallel scaling performance, they are also running larger tests on up to 80,000 cores of Jaguar, a Cray XT system at the Oak Ridge Leadership Computing Facility (OLCF).

Early tests of the model will span just a few simulated days and will focus on short-range global weather prediction, starting from high-resolution analyses produced by working weather prediction centers. Tropical cyclones and other extreme weather events will be particular areas of focus. By 2011, the researchers plan to use the GCRM to perform two or more annual-cycle simulations, at least one of which will be coupled to the geodesic ocean general circulation model that they developed under SciDAC Phase 1.

Within the next ten years or so, models similar to the GCRM will be used for operational weather prediction, and eventually GCRMs will be used for multi-century climate simulations. The Green Flash project may make this possible sooner rather than later. The long-term target resolution for a Green Flash system is a horizontal grid spacing of about 1 km, which will require approximately 671 million grid columns, each with about 100 layers.

About NERSC and Berkeley Lab

The National Energy Research Scientific Computing Center (NERSC) is the primary high-performance computing facility for scientific research sponsored by the U.S. Department of Energy’s Office of Science. Berkeley Lab is a U.S. Department of Energy national laboratory located in Berkeley, California. It conducts unclassified scientific research and is managed by the University of California for the DOE Office of Science.

For more information about computing sciences at Berkeley Lab, please visit: http://www.lbl.gov/cs

>Acelerador de gente (FSP)

>
Entrevista com Karin Knorr Cetina

José Galisi-Filho
Folha de SP, 2/5/2010 – reproduzido no Jornal da Ciência (JC e-mail 4001)

Socióloga que estudou os pesquisadores do LHC diz que experimento elimina noções tradicionais de autoria e prestígio

Ao visitar o LHC (Grande Colisor de Hádrons) em abril de 2008, o físico escocês Peter Higgs pôde contrastar sua dimensão humana com a escala gigantesca da maior máquina já construída pela humanidade.

Se a hipótese de Higgs estiver correta, os dados que começaram a jorrar nas últimas semanas do LHC fornecerão a última peça no quebra-cabeças do modelo padrão, a teoria da física que explica a matéria. Mas a saga do LHC é resultado do trabalho de gerações de pesquisadores, cujos nomes finalmente se diluirão na “simbiose homem-máquina” de um novo paradigma, pela primeira vez realmente global, de cooperação cientifica.

Para Karin Knorr Cetina, professora de sociologia do conhecimento da Universidade de Konstanz, Alemanha, o experimento é, antes de tudo, um “laboratório humano” numa escala sem precedentes na história da ciência moderna.

Cetina passou 30 anos observando os pesquisadores do Cern (Centro Europeu de Física Nuclear), laboratório na Suíça que abriga o LHC, numa espécie de estudo “etnológico” da tribo dos físicos, seus usos e costumes. Segundo ela, noções tradicionais na ciência, como carreira, prestigio e autoria, deixam de ter qualquer significado no modelo de produção de conhecimento do Cern.

Da Universidade de Chicago, EUA, onde é pesquisadora visitante, Cetina falou à Folha:

– O que há de novo na forma de produzir conhecimento no Cern, e como isso se compara com as humanidades?

O novo é a dimensão, a duração e o caráter global do experimento. A estrutura dos experimentos é um experimento em si mesmo, com um caráter antecipatório de um tempo global e de uma sociedade do conhecimento. Poderíamos, talvez, fazer uma comparação com aquele espírito arrojado e inovador no desenvolvimento do supersônico Concorde nos anos 1960, que sinalizou uma ruptura de época. Mas não se pode responder com uma simples frase ao “como” esse experimento é coordenado.

Há muitos mecanismos particulares que sustentam o projeto e o transformam numa espécie de “superorganismo”, na íntima colaboração de mais de 2.000 físicos com o gigantesco LHC, que eles mesmo projetaram e no qual, finalmente, trabalham juntos. Um mecanismo muito importante são as publicações coletivas em ordem alfabética. Quem é privilegiado não é o “gênio”, o autor, ou pesquisadores destacados em suas áreas. Um outro mecanismo é que o experimento mesmo, e não os autores, é “convidado” para as conferências internacionais.

Os atores individuais são apenas os representantes daquilo que produziram em conjunto. Um outro mecanismo é que os participantes se encontram, por exemplo, durante toda uma semana no Cern, e esses encontros são organizados de tal maneira que todos possam e devam ser informados sobre tudo que ocorre. Estabelece-se, assim, uma espécie de consciência coletiva do “conhecimento compartilhado”.

Como poderíamos comparar isso com as ciências humanas? Alguns diagnósticos de época importantes, de historiadores e filósofos, por exemplo, ainda encontram ressonância na opinião pública, mas, infelizmente, a estrutura e a segmentação da pesquisa nesse campo do conhecimento não tem mais nada de interessante a oferecer. A sociologia tradicional não sinaliza mais para a frente.

– Depois de muitos anos de pesquisa de campo em laboratórios como uma etnógrafa da ciência, como se diferenciam as culturas científicas diante do papel do indivíduo?

A biologia molecular, que acompanhei por muitos anos, é uma ciência “de bancada”, na qual, por regra, poucos pesquisadores trabalham juntos, na qual também se produz e publica em coletivo, mas não em ordem alfabética. O papel do pesquisador individual ainda permanece importante. Isso leva, como sabemos, a conflitos em torno de autoria e quem está em que posição na publicação. A física de altas energias procura, em contrapartida, liberar a cooperação, na qual é o conjunto que está no ponto central. O fio condutor não é mais a carreira, mas o resultado cientifico. O acelerador é o elemento dominante, pois ele somente pode ser construído e avaliado por muitos.

– Seria a natureza mesma do projeto incompatível com um novo “insight” individual que poderia mudar tudo de forma imprevisível?

É bem mais provável, no caso do Cern, que a pesquisa em equipe deva produzir excelentes resultados empíricos. Muitos pesquisadores em sociologia e nas humanidades, de maneira geral, produzem resultados parciais, fragmentados, que não se agregam dentro de um sistema numa perspectiva cumulativa -não porque a natureza do social seja fragmentada, mas porque nossa maneira de conduzir pesquisas, nossas convenções de pesquisa, não se agregam. Em muitas ciências empíricas devemos investigar no processo cooperativo -já que na natureza todas as partes de uma sistema se interrelacionam- ou todo o sistema ou saber qual é, realmente, a parte central desse sistema que deve ser isolada e destacada. Esse reducionismo experimental não pode ser levado a cabo na ciência social por motivos éticos, por se tratar de pessoas em sua integridade, que não podemos reduzir a células de cultura. Para tanto, seria necessário muito mais cooperação e pesquisa.

>Testes genéticos e a compreensão popular dos fenômenos probabilísticos

>
Teste genético chega à farmácia

Fernando Eichenberg
O Globo, 13/5/2010 – reproduzido no Jornal da Ciência (JC e-mail 4009)

EUA começam a vender polêmicos exames para detectar risco de doenças

A partir de na sexta-feira (14/5), além de aspirina, vitamina C ou pasta de dente, os americanos poderão comprar na farmácia da esquina testes genéticos personalizados, que prometem indicar o risco de contrair 23 doenças, como os males de Alzheimer e Parkinson, câncer de mama, leucemia ou diabetes.

Isso será possível em cerca de 6 mil das 7,5 mil lojas da rede Walgreens, uma das duas maiores dos EUA. É a primeira vez que testes de análise de DNA estarão disponíveis para consumo de massa.

A iniciativa é da Pathway Genomics, uma empresa de San Diego. Os kits, chamados de Insight Saliva Collection, ao preço unitário entre US$ 20 e US$ 30, têm um recipiente de plástico e um envelope padrão, pelo qual a saliva coletada é enviada a um dos laboratórios para análise. Após a remessa, é necessário pagar um valor adicional, no site da empresa, pelos tipos de testes de DNA desejados.

Por US$ 79, são avaliadas as reações do organismo a substâncias como cafeína, drogas de redução do colesterol ou tamoxifeno, usado no tratamento do câncer de mama. Por US$ 179, futuros pais poderão conhecer a probabilidade de serem portadores de 23 problemas genéticos, como diabetes ou talassemia beta (um tipo de anemia), passíveis de transmissão aos seus filhos. Pelo mesmo preço, são testados riscos pessoais referentes a ataques cardíacos, câncer do pulmão, leucemia ou esclerose múltipla. Para aqueles dispostos a desembolsar ainda mais, por US$ 249 é possível fazer todos os testes disponíveis.

Especialista diz que testes são nocivos

A chegada dos testes genéticos às farmácias causou polêmica. A Pathway Genomics alega que, embora não sejam definitivos, os resultados fornecidos pelas análises poderão estimular as pessoas a mudar de hábitos e a adotar atitudes mais saudáveis em suas vidas. Nem todos concordam. Para Hank Greely, diretor do Centro de Direito e de Biociências da Universidade de Stanford, trata-se de uma péssima ideia. Segundo ele, para a grande maioria das pessoas, as informações genéticas não serão de grande valia e poderão, inclusive, ser mal interpretadas, provocando sérios riscos. Ele dá o exemplo de uma mulher que descobre, pelos testes, não ter a mutação nos genes relacionada ao câncer de mama.

– Ela pode concluir que está salva. Mas o que isso significa? Que você não tem 70% de chances de ter câncer de mama, mas ainda está acima da média de risco de 12%. Ela poderá decidir parar de fazer exames, o que será um enorme erro – explica.

Greely cita também o caso de alguém que é informado possuir o dobro de propensão para sofrer da doença de Alzheimer.

– Talvez essa pessoa não vá cometer suicídio, mas poderá ter sua vida alterada com esse dado. Ela não irá perceber o fato de que ter 20% em vez de 10% de possibilidade de sofrer de Alzheimer significa que em 80% do tempo ela viverá como alguém que não terá a doença – pondera.

Para o especialista, um dos maiores perigos dessa nova iniciativa é a falta de aconselhamento médico na hora de fornecer os resultados.

– Por US$ 99 a hora, você pode telefonar para um número que está no site da empresa para fazer consultas sobre o seu teste, mas é claro que a maioria das pessoas não vai pagar por isso – ressalta.

Por essa razão, embutida em sua legislação, o Estado de Nova York não permitirá que os kits sejam vendidos nas farmácias locais. O FDA, órgão do governo americano que regulamenta o mercado de remédios e alimentos, anunciou que está avaliando o caso e dará um parecer em breve. Mas a ideia já inspirou a CVS, cadeia de farmácias concorrente da Walgreens, que promete também vender seus kits genéticos a partir de agosto.

>"A ciência não é um deus que sabe tudo", diz líder ianomâmi (FSP)

>
Folha de S.Paulo, da Redação
12/05/2010 – 09h24

O líder ianomâmi Davi Kopenawa disse estar “muito contente” com a notícia de que as mais de 2.000 amostras de sangue de seu povo, que desde 1967 repousam em centros de pesquisa dos Estados Unidos, serão devolvidas à tribo. Conforme a Folha adiantou no último domingo, há um acordo sendo finalizado entre cinco universidades e o governo brasileiro para a devolução, que ainda não tem data.

Da Alemanha, onde está para assistir a uma ópera que tem seu povo como protagonista, o líder indígena respondeu por e-mail, por intermédio do antropólogo Bruce Albert, a perguntas feitas pela reportagem. (CA)

Folha – Como o sr. recebeu a notícia de que as universidades aceitaram devolver o sangue?

Davi Kopenawa Yanomami – Foi uma luta de dez anos. Agora, fiquei muito contente que os brancos acabaram entendendo a importância desse retorno.

Folha – O sangue foi coletado nos anos 1960, mas só nesta última década os ianomâmis começaram a se esforçar para tê-lo de volta. Por quê?

Kopenawa – O sangue foi tirado do nosso povo quando eu era menino. Os cientistas não explicaram nada direito. Só deram presentes, panelas, facas, anzóis e falaram que era para coisa de saúde. Depois todo mundo esqueceu. Ninguém pensou que o sangue seria guardado nas geladeiras deles, como se fosse comida! Só em 2000 que eu soube que esse sangue estava ainda guardado e sendo usado para pesquisa. Aí me lembrei da minha infância, e os velhos também se lembraram de que nosso sangue foi tirado. Todo mundo ficou muito triste de saber que esse sangue nosso e de nossos parentes mortos ainda estava guardado.

Folha – Napoleon Chagnon e James Neel agiram errado com vocês?

Kopenawa – Eu acho que estavam muito errados, porque eles pensaram que os ianomâmis podem ser tratados como crianças e não têm pensamento próprio. Não dá para fazer pesquisa com povos indígenas sem explicação. Pesquisa que interessa à gente é para melhorar nossa saúde. Não dá para pesquisar e deixar a gente depois morrer de doenças. Um tempo depois que esses cientistas foram embora, em 1967, morreu quase todo o meu povo do Toototobi de sarampo.

Folha – Por que o sangue será jogado no rio quando ele voltar?

Kopenawa – Vamos entregar esse sangue do povo ianomâmi ao rio porque o nosso criador, Omama, pescou sua mulher, nossa mãe, no rio no primeiro tempo. Mas não gosto da palavra “jogar”, não vamos jogar o sangue dos nossos antigos; vamos devolver para as águas.

Folha – Os cientistas dizem que, sem poderem estudar o sangue e o DNA de vocês, informações que podem ser preciosas para toda a humanidade se perderão para sempre. Como o sr. reage a essa crítica?

Kopenawa – A ciência não é um deus que sabe tudo para todos os povos. Se querem pesquisar o sangue do povo deles, eles podem. Quem decide se pesquisas são boas para nosso povo somos nós, ianomâmis.

>Weathermen, and other climate change skeptics (The New Yorker)

>
Comment
Up in the Air

by Elizabeth Kolbert – April 12, 2010

Joe Bastardi, who goes by the title “expert senior forecaster” at AccuWeather, has a modest proposal. Virtually every major scientific body in the world has concluded that the planet is warming, and that greenhouse-gas emissions are the main cause. Bastardi, who holds a bachelor’s degree in meteorology, disagrees. His theory, which mixes volcanism, sunspots, and a sea-temperature trend known as the Pacific Decadal Oscillation, is that the earth is actually cooling. Why don’t we just wait twenty or thirty years, he proposes, and see who’s right? This is “the greatest lab experiment ever,” he said recently on Bill O’Reilly’s Fox News show.

Bastardi’s position is ridiculous (which is no doubt why he’s often asked to air it on Fox News). Yet there it was on the front page of the Times last week. Among weathermen, it turns out, views like Bastardi’s are typical. A survey released by researchers at George Mason University found that more than a quarter of television weathercasters agree with the statement “Global warming is a scam,” and nearly two-thirds believe that, if warming is occurring, it is caused “mostly by natural changes.” (The survey also found that more than eighty per cent of weathercasters don’t trust “mainstream news media sources,” though they are presumably included in this category.)

Why, with global warming, is it always one step forward, two, maybe three steps back? A year ago, it looked as if the so-called climate debate might finally be over, and the business of actually addressing the problem about to begin. In April, the Obama Administration designated CO2 a dangerous pollutant, thus taking the first critical step toward regulating carbon emissions. The following month, the Administration announced new fuel-efficiency standards for cars. (These rules were finalized last week.) In June, the House of Representatives passed a bill, named for its co-sponsors, Edward Markey and Henry Waxman, that called for reducing emissions seventeen per cent by 2020. Speaking in September at the United Nations, the President said that a “new era” had dawned. “We understand the gravity of the climate threat,” he declared. “We are determined to act.”

Then, much like the Arctic ice cap, that “new era” started to fall to pieces. The U.N. climate summit in Copenhagen in December broke up without agreement even on a possible outline for a future treaty. A Senate version of the Markey-Waxman bill failed to materialize and, it’s now clear, won’t be materializing anytime this year. (Indeed, the one thing that seems certain not to be in a Senate energy bill is the economy-wide emissions reduction required by the House bill.) Last week, despite the Senate’s inaction, President Obama announced that he was opening huge swaths of the Atlantic and Alaskan coasts to oil drilling. The White House billed the move as part of a “comprehensive energy strategy,” a characterization that, as many commentators pointed out, made no sense, since comprehensiveness is precisely what the President’s strategy lacks. As Josh Nelson put it on the blog EnviroKnow, “Obama is either an exceptionally bad negotiator, or he actually believes in some truly awful policy ideas. Neither of these possibilities bodes well.”

As lawmakers dither, public support for action melts away. In a Gallup poll taken last month, forty-eight per cent of respondents said that they believe the threat of global warming to be “generally exaggerated.” This figure was up from thirty-five per cent just two years ago. According to the same poll, only fifty-two per cent of Americans believe that “most scientists believe that global warming is occurring,” down from sixty-five per cent in 2008.

The most immediate explanation for this disturbing trend is the mess that’s come to be known as Climategate. Here the situation is the reverse of what’s going on in the troposphere: Climategate really is a hyped-up media phenomenon. Late last year, hackers broke into the computer system at the Climatic Research Unit of Britain’s University of East Anglia and posted online hundreds of private e-mails from scientists. In the e-mails, C.R.U. researchers often express irritation with their critics—the death of one detractor is described as “cheering news”—and discuss ways to dodge a slew of what they consider to be nuisance Freedom of Information requests. The e-mails were widely portrayed in the press and in the blogosphere as evidence of a conspiracy to misrepresent the data. But, as a parliamentary committee appointed to investigate the matter concluded last week, this charge is so off base that it is difficult even to respond to: “Insofar as the committee was able to consider accusations of dishonesty against CRU, the committee considers that there is no case to answer.”

The e-mail brouhaha was followed by—and immediately confused with—another overblown controversy, about a mistake in the second volume of the U.N. Intergovernmental Panel on Climate Change’s Fourth Assessment Report, from 2007. On page 493 of the nine-hundred-and-seventy-six-page document, it is asserted, incorrectly, that the Himalayan glaciers could disappear by 2035. (The report cites as a source for this erroneous information a report by the World Wildlife Fund.) The screw-up, which was soon acknowledged by the I.P.C.C. and the W.W.F., was somehow transformed by commentators into a reason to doubt everything in the three-volume assessment, including, by implication, the basic laws of thermodynamics. The “new scandal (already awarded the unimaginative name of ‘Glaciergate’) raises further challenges for a scientific theory that is steadily losing credibility,” James Heiser wrote on the Web site of the right-wing magazine New American.

No one has ever offered a plausible account of why thousands of scientists at hundreds of universities in dozens of countries would bother to engineer a climate hoax. Nor has anyone been able to explain why Mother Nature would keep playing along; despite what it might have felt like in the Northeast these past few months, globally it was one of the warmest winters on record.

The message from scientists at this point couldn’t be clearer: the world’s emissions trajectory is extremely dangerous. Goofball weathermen, Climategate, conspiracy theories—these are all a distraction from what’s really happening. Which, apparently, is what we’re looking for. ♦

Read more: http://www.newyorker.com/talk/comment/2010/04/12/100412taco_talk_kolbert#ixzz0lBqmFCnu

>Limites incertos no desenvolvimento sexual

>
Grupo de pesquisa paulista caracteriza 23 disfunções orgânicas do desenvolvimento sexual

Pesquisa FAPESP
Edição 170 – Abril 2010

Carlos Fioravanti

— Maria, você quer ser mulher ou homem?

A médica Berenice Bilharinho Mendonça, ao fazer essa pergunta, buscava uma informação importante para planejar o tratamento de Maria, então com 16 anos, naquele dia usando um vestido florido. Berenice já tinha reparado que Maria olhava constantemente para o chão para que o cabelo comprido encobrisse os pelos de barba do rosto. Os níveis do principal hormônio masculino, a testosterona, eram normais para um homem. Os genitais eram ao mesmo tempo masculinos e femininos, com predomínio do aspecto masculino. Diante da médica, em uma sala do Hospital das Clínicas (HC) de São Paulo, Maria respondeu de modo evasivo, com voz grave e forte sotaque do interior de Minas Gerais:

— Ah. A senhora é que sabe.

Berenice conta que não soube o que fazer de imediato. Não poderia escolher por Maria. Como lhe parecia claro que Maria não se sentia bem como mulher, ela chamou a equipe com que trabalhava – Walter Bloise, Dorina Epps e Ivo Arnhold. Em conjunto, decidiram fazer o que não estava nos manuais de atendimento a pessoas com distúrbios do desenvolvimento sexual. Sugeriram que Maria morasse em São Paulo por um ano e vivesse como homem para ver com qual sexo se adaptava melhor à vida em sociedade.

Maria vestiu roupas masculinas pela primeira vez, ganhou outro nome – digamos, João –, saiu do hospital com o cabelo cortado e trabalhou em um emprego que a assistente social lhe arrumou. Maria gostou de ser João. No HC, desde aquela época uma referência nacional nessa área, Maria passou por uma cirurgia que corrigiu a ambiguidade dos genitais, tornando-os masculinos. Quando Maria nasceu, a parteira havia comentado que bebês como aquele morriam logo, mas João tem hoje 50 anos e, de acordo com as notícias mais recentes, vive bem no interior de Minas Gerais.

João sempre foi homem, do ponto de vista genético. Suas células contêm um cromossomo X e um Y, como todo homem – as mulheres têm dois cromossomos X –, além de 23 pares de cromossomos não ligados ao sexo. Por causa de uma falha em um gene em cromossomo não sexual, porém, seu organismo produz uma quantidade muito baixa da enzima 5-alfa-redutase tipo 2. Em consequência, seus genitais masculinos não tinham se formado por completo e se apresentavam com um aspecto feminino, o que fez com que fosse registrado como mulher.

Seu problema – hoje controlado, embora as células continuem com essa deficiência – expressa um dos 23 tipos de distúrbios de desenvolvimento sexual (DDS) cujas possíveis origens, evolução, sinais e tratamentos Berenice, Arnhold, Elaine Maria Frade Costa e Sorahia Domenice apresentaram no final de 2009 em um artigo publicado na revista Clinical Endocrinology. Reunindo os 30 anos de experiência do próprio grupo ao de outros do Brasil e de outros países, esse trabalho mostra como os defeitos genéticos podem gerar desvios metabólicos que ampliam ou reduzem a produção dos hormônios masculinos e induzem à formação de órgãos sexuais masculinos e femininos, parciais ou completos, em um mesmo indivíduo.

Os relatos que acompanham os diagnósticos normalmente chegam carregados de angústia de pais que nunca souberam dizer com certeza se o bebê que viram nascer era menino ou menina. Berenice lembra que saber o sexo de um recém-nascido é importante não só para responder a uma das primeiras perguntas que os pais ouvem depois que nasce o filho ou filha. É uma informação essencial para decidir que nome dar ao bebê e como tratar a criança, já que muitos adjetivos e substantivos da língua portuguesa têm gênero (masculino ou feminino), tudo isso contribuindo para definir a identidade psicológica das crianças.

Segundo ela, histórias de rejeição normalmente acompanham as crianças com ambiguidade sexual, antes pejorativamente chamadas de hermafroditas ou de pseudo-hermafroditas. O fato de apresentar genitais masculinos e femininos faz muitas meninas serem registradas e viver como meninos – e muitos meninos viverem como meninas. Confundir o sexo de recém-nascidos com ambiguidade sexual é fácil, porque “os genitais geralmente não são bem examinados ao nascimento e as meninas, principalmente as prematuras, muitas vezes apresentam um clitóris aparentemente hipertrofiado”, diz ela.

Genes situados nos cromossomos sexuais (X e Y) ou em qualquer outro dos 23 pares de cromossomos de uma célula humana normal podem apresentar defeitos – ou mutações – e causar um dos 23 tipos de DDS. Tais distúrbios representam um grupo heterogêneo de problemas, alertam Martine Cools, da Universidade de Gent, Bélgica, e três pesquisadores da Holanda em um estudo de maio de 2009 na revista World Journal of Pediatrics. Os mesmos defeitos genéticos podem levar a sinais e sintomas diferentes e, por outro lado, um quadro clínico similar pode resultar de genes diferentes. Em apenas um gene, o SRY, que atua apenas nos primeiros dias de vida intrauterina, podem ocorrer 53 alterações que prejudicam o desenvolvimento sexual. Outras mutações podem reduzir ou ampliar a produção dos hormônios esteroides sexuais, dos quais o mais importante é a testosterona, ou de compostos como o colesterol, um precursor desses hormônios.

Em um estudo de 2004, o grupo da USP apresentou 14 mutações em oito genes que impedem a produção de hormônios ligados ao desenvolvimento sexual. A médica Ana Claudia Latronico, â frente desse trabalho, associou cada mutação às respectivas manifestações externas, com base na avaliação de quase 400 crianças, adolescentes e adultos de todo o país e de países vizinhos atendidos na USP.

Sob a coordenação de Tânia Bachega e Guiomar Madureira, a equipe identificou 18 mutações – pelo menos quatro específicas da população brasileira – que podem levar à forma mais comum de distúrbio de desenvolvimento sexual, a hiperplasia adrenal congênita virilizante, caracterizada pelo desenvolvimento excessivo do clitóris, a ponto de assemelhar-se a um pênis.

Esse distúrbio do desenvolvimento sexual resulta de mutações no gene CYP21A2, localizado no cromossomo 21 (não sexual), que reduzem a produção da enzima 21-hidroxilase. Em consequência, as glândulas suprarrenais produzirão menos do que deveriam de um hormônio, o cortisol, e mais de outro, a testosterona. As meninas sofrem uma virilização dos genitais ao longo da vida uterina – nascem com o clitóris hipertrofiado e uma bolsa escrotal sem testículos recobrindo a vagina – e podem ser registradas como meninos quando a alteração não é identificada logo ao nascimento. Por causa de alterações nesse mesmo gene, os meninos podem apresentar uma forma de hiperplasia que não traz ambiguidade sexual, mas pode implicar uma perda intensa de sal, a ponto de causar lesões cerebrais ou morte por desidratação, caso não sejam tratados a tempo.

Uma em cada 15 mil pessoas tem ou deveria ter essa forma de hiperplasia, de acordo com estudos feitos na Europa ou na América do Norte. Os levantamentos no Brasil são raros. “A geneticista Elizabeth Silveira, co-orientada pela Tânia Bachega, examinou amostras de sangue de recém-nascidos coletadas no estado de Goiás, que faz rotineiramente o teste do pezinho para detectar a deficiência da 21-hidroxilase, e concluiu que a incidência de hiperplasia no Brasil por ano é de um caso para cada 10 mil nascidos vivos”, diz Berenice. Pelo menos 840 casos, portanto, deveriam ter sido diagnosticados nas universidades paulistas e de outros estados. O HC da USP, que deve ter acolhido o maior número de casos, só registrou 380.

“Os pais tendem a esconder ou a negar os distúrbios do desenvolvimento sexual dos filhos, porque reconhecer pode ser emocionalmente doloroso, e a maioria dos portadores de distúrbios de desenvolvimento sexuais só chega aqui quando já são adolescentes ou adultos”, diz Berenice. Em uma situação extrema, há menos de um ano ela atendeu uma mulher de 70 anos que apresentava ambiguidade sexual e só resolveu expor seu problema depois de a mãe, que não a deixava falar, ter morrido.

“Quanto mais cedo possível se fizer o diagnóstico e desfizer a ambiguidade sexual, melhor, de preferência antes dos 2 anos de idade, quando as crianças ainda não estabeleceram as noções de sexo e gênero”, diz a psicóloga Marlene Inácio, que acompanha as pessoas com ambiguidade sexual no HC há 28 anos. No início, ela conta, o diagnóstico que embasava o tratamento podia demorar de seis meses a um ano. “Hoje os resultados dos testes laboratoriais saem em uma semana”, diz.

Em sua tese de doutorado, Marlene reuniu os relatos de 151 pessoas com ambiguidade sexual atendidas no HC, das quais 96 são geneticamente homens (XY) e 55 geneticamente mulheres (XX), com idade entre 18 e 53 anos. Seu propósito, por meio de um questionário com 121 perguntas, era verificar como essas pessoas viveram durante a infância, adolescência e vida adulta, antes e depois de terem sido diagnosticadas e tratadas, e se conseguiram se adaptar do ponto de vista psíquico, social e sexual com o sexo que adotaram.

Marlene conclui que, de modo geral, estão bem. Muitas se casaram ou pretendem se casar. Os homens com ambiguidade sexual são estéreis, por causa da baixa fertilidade do líquido seminal ou por consequências da cirurgia corretiva, mas dois tiveram filhos, por meio de fertilização in vitro com seu próprio sêmen. De um grupo de 20 mulheres com uma das formas do distúrbio do desenvolvimento sexual 46,XY, 18 mudaram de sexo e hoje são homens.

É o caso de outra Maria, que veio do interior da Bahia há cerca de três anos. Tinha voz grossa de homem, ombros largos e braços fortes de tanto trabalhar na lavoura. Vivera até os 16 anos isolada em um quarto nos fundos da casa, com pouco contato com a família, e não sabia ler nem escrever. “Psicologicamente, era um homem, e preferiu ser homem porque precisava da força para se opor aos pais que a tinham feito viver como mulher”, conta Marlene. “Ela tinha clitóris grande, que, segundo ela, lhe dava prazer sexual, e queria ser mecânico.”

Em outro levantamento, Maria Helena Palma Sircili, uma das médicas do grupo, verificou que 90% das 65 pessoas com cariótipo 46,XY (geneticamente homens, mas socialmente mulheres) operadas de 1964 a 2008 no serviço de urologia do HC da USP estavam satisfeitas com o sexo que haviam adotado e haviam se ajustado à mudança; 69% das que optaram pelo sexo masculino e 29% das que preferiram o feminino estavam casadas. Esse estudo, a ser publicado no Journal of Urology, trouxe uma constatação que surpreendeu a própria equipe: a qualidade da atividade sexual não depende do tamanho do pênis.

Os homens que apresentavam ambiguidade sexual podem não ter os genitais tão desenvolvidos quanto os de outros homens – e não reclamaram. “Foi uma surpresa, porque os urologistas dizem que frequentemente os homens, mesmo sem distúrbios sexuais biológicos, reclamam do tamanho peniano”, diz Berenice. Marlene atribuiu esse resultado a uma satisfação maior com a identidade masculina do que simplesmente com as dimensões do pênis: “Nosso trabalho de aconselhamento psicológico propõe a exploração de outras possibilidades de satisfação sexual, erotizando o corpo todo, e não apenas os genitais”.

Esses resultados animam Berenice e sua equipe a entrar em novas situações. Uma delas foi planejada e está em andamento, sob a coordenação de Elaine: as pesquisas com um pequeno peixe de água doce, o paulistinha, também conhecido como zebrafish ou Danio rerio, com o qual pretendem examinar o surgimento de distúrbios sexuais do desenvolvimento. Outra situação foi inesperada: em um congresso realizado no ano passado nos Estados Unidos, Berenice recebeu o convite para participar de uma equipe de cinco assessores do Comitê Olímpico Internacional. Tinham de ajudar a resolver um problema difícil: uma corredora com ambiguidade sexual pode correr entre mulheres? A conclusão a que chegaram é que sim, “se essa corredora estiver sob tratamento, com níveis de testosterona normal para as mulheres”, diz Berenice. Outra proposta dos médicos para o Comitê Olímpico: “Não podemos impedir quem tem genitália ambígua de participar de qualquer modalidade esportiva”.

Esses estudos expressam um estilo de trabalho que valoriza a escolha dos pais de crianças com ambiguidade sexual ou dos próprios adultos com esses distúrbios. Dar voz aos pais implica o reconhecimento de expectativas frustradas com filhos que morreram ao nascer ou com meninas que chegaram no lugar imaginado para meninos. “Antes de o filho nascer, a mãe imagina o que o bebê vai ser; ele existe primeiro em sua mente”, diz a psicanalista Norma Lottenberg Semer, professora da Universidade Federal de São Paulo e membro associado da Sociedade Brasileira de Psicanálise de São Paulo. “O que os filhos serão, em termos sexuais e psíquicos, em parte reflete as fantasias, os sentimentos e os pensamentos dos pais.”

“As condutas de tratamento são estabelecidas em consenso entre os pais e a equipe multidisciplinar”, diz Berenice. Do diagnóstico, segundo ela, participam endocrinologistas, cirurgiões, clínicos, biólogos, psicólogos, psiquiatras e assistentes sociais. “Quando não há consenso entre a orientação médica e o desejo dos pais, o desejo dos pais deve ser respeitado.”

Uma vez sua equipe tratou de uma menina recém-nascida, hoje com 11 anos, que apresentava hiperplasia adrenal congênita, com um clitóris semelhante a um pênis, e tinha sido registrada como menino. Segundo Marlene, os pais escolheram que ela seria homem e não aceitaram a orientação de mudança para o sexo social feminino porque já tinham duas filhas e desejavam um filho. A escolha resultou também de outra razão. “A mãe achava que ser mulher era sinônimo de sofrimento e convivia com a culpa, como o marido dizia, de ter tido uma criança anormal”, conta Marlene. Na cirurgia, os médicos removeram ovários e útero dessa Maria, que terá de tomar hormônio masculino por toda a vida adulta, já que seu organismo não o produz.

Quando são adultos, eles próprios escolhem que sexo querem manter. Foi assim que outra Maria com deficiência da enzima 5-alfa-redutase-2 apareceu lá com um lenço colorido cobrindo o cabelo curto, camisa masculina abotoada até o pescoço e sutiã com enchimento. Maria tinha se apaixonado por outra funcionária da casa em que trabalhava como empregada doméstica. No hospital, Maria vestiu-se como homem e gostou. Também adotou outro nome, Moacir. “Vimos essa transformação imediata, foi linda”, conta Marlene. “O sexo social de Moacir era feminino, mas o psíquico era masculino.” Segundo Marlene, Moacir está casado e feliz.

O diagnóstico para definição do sexo ou da ambiguidade sexual inclui sete itens. Alguns são biológicos, como os níveis de hormônios e as estruturas genitais externas e internas. Outros são subjetivos, como o sexo social – pelo qual um indivíduo é reconhecido por outras pessoas – e a identidade de gênero – se essa mesma pessoa se assume psiquicamente como homem ou como mulher. “A identidade de gênero é ser e ao mesmo tempo sentir-se homem ou mulher”, diz Marlene. Uma pessoa que apenas se sente homem ou mulher, sem nenhum distúrbio biológico nem a identidade sexual correspondente, pode apresentar transtorno psíquico de identidade de gênero.

Em uma dessas vertentes, o transexualismo, uma pessoa biologicamente normal tem a convicção de pertencer a outro sexo, sem aceitar seu próprio sexo. “O transexualismo não está associado a questões genéticas”, diz Norma. “É mais um problema de identidade do que de sexualidade.” São os homens que dizem que são mulheres em corpo de homem. O mais famoso transexual brasileiro, Roberta Close, depois de muitas cirurgias para tornar-se mulher, obteve em 2005 o direito de fazer outra certidão de nascimento, mudando o nome de Luís Roberto Gambine Moreira para Roberta Gambine Moreira e o gênero, de masculino para feminino.

O homossexualismo constitui outro universo distante dos distúrbios biológicos. Nesse caso, a identidade de gênero se mantém: são homens ou mulheres que se aceitam como homens ou mulheres e escolhem outros homens ou mulheres como objetos amorosos. Já nos travestis a identidade de sexo é estável, mas a de gênero é flutuante: os travestis sabem que são homens, mas podem às vezes se comportar como mulheres.

No hospital da USP, só depois do diagnóstico e da escolha do sexo a ser adotado é que a ambiguidade sexual pode ser desfeita, por meio de uma cirurgia de correção da genitália externa masculina ou feminina, seguida de reposição hormonal. “Não queremos apenas tratar e resolver, mas entender as causas de um problema, examinando os dados e a história pessoal de cada paciente, elaborando uma hipótese e, a partir daí, pedindo os exames”, diz Berenice. “Não adianta pedir exames e mais exames sem uma hipótese a ser investigada. Só investigamos os possíveis genes envolvidos em um problema depois de termos em mãos o diagnóstico hormonal. Se não, é caro e inútil.” Ela diz que não quer formar apenas médicos, mas investigadores médicos.

Foi o que se passou com ela. Berenice chegou ao Hospital do Servidor Público Estadual em 1972 para cursar o sexto ano do curso de medicina que havia feito até então na Universidade Federal do Triângulo Mineiro, em Uberaba, Minas Gerais. Voltou um ano depois para fazer residência médica no Hospital das Clínicas da USP e conheceu Walter Bloise, que na época cuidava dos então chamados casos de intersexo.

“Aprendi muito mais do que medicina com o doutor Bloise”, lembra ela. “Aprendi que temos de tratar esses problemas com simplicidade e com tranquilidade, como se fosse uma doença cardíaca ou um lábio leporino.”

Nessa época os testes de dosagem de hormônios eram feitos por meio das clínicas dos próprios médicos, quando possível, já que não havia um laboratório de endocrinologia no hospital. Um dia Antonio Barros de Ulhoa Cintra, o chefe anterior da endocrinologia que havia sido reitor da USP e presidente da FAPESP, cobrou-lhe a dosagem hormonal de um paciente. Ela respondeu:

— Como o senhor sabe, não dosamos hormônios aqui no hospital.

— Na minha época, eu andava com um tubo com sangue de paciente no bolso para dosar cálcio.

— Hoje só de hormônios são 30. Precisamos de um laboratório, doutor Cintra.

Emílio Matar, outro professor, soube da conversa e decidiu pela compra dos equipamentos de dosagem de hormônios. Bloise a incentivou: “Por que você não faz um laboratório?”. Ela fez, em colaboração com o professor Wilian Nicolau. Hoje os 80 funcionários e pesquisadores de sua equipe cuidam da dosagem de 60 hormônios para todo o hospital. Agora ela pretende ampliar a discussão on-line de casos suspeitos de DDS com outros médicos, especialmente pediatras, de todo o país, por internet, para que as pessoas com distúrbios de desenvolvimento sejam logo identificadas e tratadas.

Outra batalha à frente – dela e de toda a equipe – é a implementação do diagnóstico em recém-nascidos das alterações 21-hidroxilase, a enzima que causa a hiperplasia adrenal congênita virilizante no estado de São Paulo. “É um teste que custa apenas R$ 5 e pode evitar erros de diagnóstico do sexo ao nascimento e a mortalidade, que afeta principalmente os meninos, que nascem com os genitais masculinos normais e não são identificados.”

Artigo científico

Mendonça, B.B.; Domenice, S.; Arnhold, I.J.; Costa, E.M. 46,XY disorders of sex development (DSD). Clinical Endocrinology. 2009, 70(2):173-87.

>Metáfora religiosa ajuda a entender a ciência? Bóson de Higgs

>
Em busca da “Partícula de Deus”

Redação do Site Inovação Tecnológica – 02/04/2007

Atlas era um dos titãs da mitologia grega, condenado para sempre a sustentar os céus sobre os ombros. Aqui, Atlas é um dos quatro gigantescos detectores que farão parte do maior acelerador de partículas do mundo, o LHC, que está em fase adiantada de testes e deverá entrar em operação nos próximos meses.

LHC é uma sigla para “Large Hadron Collider”, ou gigantesco colisor de prótons. Parece difícil exagerar as grandezas desse laboratório que está sendo construído a 100 metros de profundidade, na fronteira entre a França e a Suíça. A estrutura completa tem a forma de um anel, construída ao longo de um túnel com 27 quilômetros de circunferência.

As partículas são aceleradas por campos magnéticos ao longo dessa órbita de 27 Km, até atingir altíssimos níveis de energia. Mais especificamente, 7 trilhões de volts. Em quatro pontos do anel, sob temperaturas apenas levemente superiores ao zero absoluto, as partículas se chocam, produzindo uma chuva de outras partículas, recriando um ambiente muito parecido com as condições existentes instantes depois do Big Bang.

Nesses quatro pontos estão localizados quatro detectores. O Atlas, mostrado na foto nas suas etapas finais de montagem, é um deles. O Atlas, assim como o segundo detector, o CMS (“Compact Muon Detector”), é um detector genérico, capaz de detectar qualquer tipo de partícula, inclusive partículas ainda desconhecidas ou não previstas pela teoria. Já o LHCb e o ALICE são detectores “dedicados”, construídos para o estudo de fenômenos físicos específicos.

Bóson de Higgs

Quando os prótons se chocam no centro dos detectores as partículas geradas espalham-se em todas as direções. Para capturá-las, o Atlas e o CMS possuem inúmeras camadas de sensores superpostas, que deverão verificar as propriedades dessas partículas, medir suas energias e descobrir a rota que elas seguem.

O maior interesse dos cientistas é descobrir o Bóson de Higgs, a única peça que falta para montar o quebra-cabeças que explicaria a “materialidade” do nosso universo. Por muito tempo se acreditou que os átomos fossem a unidade indivisível da matéria. Depois, os cientistas descobriram que o próprio átomo era resultado da interação de partículas ainda mais fundamentais. E eles foram descobrindo essas partículas uma a uma. Entre quarks e léptons, férmions e bósons, são 16 partículas fundamentais: 12 partículas de matéria e 4 partículas portadoras de força.

A Partícula de Deus

O problema é que, quando consideradas individualmente, nenhuma dessas partículas tem massa. Ou seja, depois de todos os avanços científicos, ainda não sabemos o que dá “materialidade” ao nosso mundo. O Modelo Padrão, a teoria básica da Física que explica a interação de todas as partículas subatômicas, coloca todas as fichas no Bóson de Higgs, a partícula fundamental que explicaria como a massa se expressa nesse mar de energias. É por isso que os cientistas a chamam de “Partícula de Deus”.

O Modelo Padrão tem um enorme poder explicativo. Toda a nossa ciência e a nossa tecnologia foram criadas a partir dele. Mas os cientistas sabem de suas deficiências. Essa teoria cobre apenas o que chamamos de “matéria ordinária”, essa matéria da qual somos feitos e que pode ser detectada por nossos sentidos.

Mas, se essa teoria não explica porque temos massa, fica claro que o Modelo Padrão consegue dar boas respostas sobre como “a coisa funciona”, mas ainda se cala quando a pergunta é “o que é a coisa”. O Modelo Padrão também não explica a gravidade. E não pretende dar conta dos restantes 95% do nosso universo, presumivelmente preenchidos por outras duas “coisas” que não sabemos o que são: a energia escura e a matéria escura.

É por isso que se coloca tanta fé na Partícula de Deus. Ela poderia explicar a massa de todas as demais partículas. O próprio Bóson de Higgs seria algo como um campo de energia uniforme. Ao contrário da gravidade, que é mais forte onde há mais massa, esse campo energético de Higgs seria constante. Desta forma, ele poderia ser a fonte não apenas da massa da matéria ordinária, mas a fonte da própria energia escura.

Em dois ou três anos saberemos se a teoria está correta ou não. Ou, talvez, nos depararemos com um mundo todo novo, que exigirá novas teorias, novos equipamentos e novas descobertas.

>O maior túmulo do samba (isto é, as ciências cognitivas), levado ao absurdo

>
Next Big Thing in English: Knowing They Know That You Know

By PATRICIA COHEN
The New York Times, March 31, 2010

To illustrate what a growing number of literary scholars consider the most exciting area of new research, Lisa Zunshine, a professor of English at the University of Kentucky, refers to an episode from the TV series “Friends.”

(Follow closely now; this is about the science of English.) Phoebe and Rachel plot to play a joke on Monica and Chandler after they learn the two are secretly dating. The couple discover the prank and try to turn the tables, but Phoebe realizes this turnabout and once again tries to outwit them.

As Phoebe tells Rachel, “They don’t know that we know they know we know.”

This layered process of figuring out what someone else is thinking — of mind reading — is both a common literary device and an essential survival skill. Why human beings are equipped with this capacity and what particular brain functions enable them to do it are questions that have occupied primarily cognitive psychologists.

Now English professors and graduate students are asking them too. They say they’re convinced science not only offers unexpected insights into individual texts, but that it may help to answer fundamental questions about literature’s very existence: Why do we read fiction? Why do we care so passionately about nonexistent characters? What underlying mental processes are activated when we read?

Ms. Zunshine, whose specialty is 18th-century British literature, became familiar with the work of evolutionary psychologists while she was a graduate student at the University of California, Santa Barbara in the 1990s. “I thought this could be the most exciting thing I could ever learn,” she said.

At a time when university literature departments are confronting painful budget cuts, a moribund job market and pointed scrutiny about the purpose and value of an education in the humanities, the cross-pollination of English and psychology is a providing a revitalizing lift.

Jonathan Gottschall, who has written extensively about using evolutionary theory to explain fiction, said “it’s a new moment of hope” in an era when everyone is talking about “the death of the humanities.” To Mr. Gottschall a scientific approach can rescue literature departments from the malaise that has embraced them over the last decade and a half. Zealous enthusiasm for the politically charged and frequently arcane theories that energized departments in the 1970s, ’80s and early ’90s — Marxism, structuralism, psychoanalysis — has faded. Since then a new generation of scholars have been casting about for The Next Big Thing.

The brain may be it. Getting to the root of people’s fascination with fiction and fantasy, Mr. Gottschall said, is like “mapping wonderland.”

Literature, like other fields including history and political science, has looked to the technology of brain imaging and the principles of evolution to provide empirical evidence for unprovable theories.

Interest has bloomed during the last decade. Elaine Scarry, a professor of English at Harvard, has since 2000 hosted a seminar on cognitive theory and the arts. Over the years participants have explored, for example, how the visual cortex works in order to explain why Impressionist paintings give the appearance of shimmering. In a few weeks Stephen Kosslyn, a psychologist at Harvard, will give a talk about mental imagery and memory, both of which are invoked while reading.

Ms. Zunshine said that in 1999 she and about 10 others won approval from the Modern Language Association to form a discussion group on cognitive approaches to literature. Last year their members numbered more than 1,200. Unlike Mr. Gottschall, however, Ms. Zunshine sees cognitive approaches as building on other literary theories rather than replacing them.

Ms. Zunshine is particularly interested in what cognitive scientists call the theory of mind, which involves one person’s ability to interpret another person’s mental state and to pinpoint the source of a particular piece of information in order to assess its validity.

Jane Austen’s novels are frequently constructed around mistaken interpretations. In “Emma” the eponymous heroine assumes Mr. Elton’s attentions signal a romantic interest in her friend Harriet, though he is actually intent on marrying Emma. She similarly misinterprets the behavior of Frank Churchill and Mr. Knightly, and misses the true objects of their affections.

Humans can comfortably keep track of three different mental states at a time, Ms. Zunshine said. For example, the proposition “Peter said that Paul believed that Mary liked chocolate” is not too hard to follow. Add a fourth level, though, and it’s suddenly more difficult. And experiments have shown that at the fifth level understanding drops off by 60 percent, Ms. Zunshine said. Modernist authors like Virginia Woolf are especially challenging because she asks readers to keep up with six different mental states, or what the scholars call levels of intentionality.

Perhaps the human facility with three levels is related to the intrigues of sexual mating, Ms. Zunshine suggested. Do I think he is attracted to her or me? Whatever the root cause, Ms. Zunshine argues, people find the interaction of three minds compelling. “If I have some ideological agenda,” she said, “I would try to construct a narrative that involved a triangularization of minds, because that is something we find particularly satisfying.”

Ms. Zunshine is part of a research team composed of literary scholars and cognitive psychologists who are using snapshots of the brain at work to explore the mechanics of reading. The project, funded by the Teagle Foundation and hosted by the Haskins Laboratory in New Haven, is aimed at improving college-level reading skills.

“We begin by assuming that there is a difference between the kind of reading that people do when they read Marcel Proust or Henry James and a newspaper, that there is a value added cognitively when we read complex literary texts,” said Michael Holquist, professor emeritus of comparative literature at Yale, who is leading the project.

The team spent nearly a year figuring how one might test for complexity. What they came up with was mind reading — or how well an individual is able to track multiple sources. The pilot study, which he hopes will start later this spring, will involve 12 subjects. “Each will be put into the magnet” — an M.R.I. machine — “and given a set of texts of graduated complexity depending on the difficulty of source monitoring and we’ll watch what happens in the brain,” Mr. Holquist explained.

At the other end of the country Blakey Vermeule, an associate professor of English at Stanford, is examining theory of mind from a different perspective. She starts from the assumption that evolution had a hand in our love of fiction, and then goes on to examine the narrative technique known as “free indirect style,” which mingles the character’s voice with the narrator’s. Indirect style enables readers to inhabit two or even three mind-sets at a time.

This style, which became the hallmark of the novel beginning in the 19th century with Jane Austen, evolved because it satisfies our “intense interest in other people’s secret thoughts and motivations,” Ms. Vermeule said.

The road between the two cultures — science and literature — can go both ways. “Fiction provides a new perspective on what happens in evolution,” said William Flesch, a professor of English at Brandeis University.

To Mr. Flesch fictional accounts help explain how altruism evolved despite our selfish genes. Fictional heroes are what he calls “altruistic punishers,” people who right wrongs even if they personally have nothing to gain. “To give us an incentive to monitor and ensure cooperation, nature endows us with a pleasing sense of outrage” at cheaters, and delight when they are punished, Mr. Flesch argues. We enjoy fiction because it is teeming with altruistic punishers: Odysseus, Don Quixote, Hamlet, Hercule Poirot.

“It’s not that evolution gives us insight into fiction,” Mr. Flesch said, “but that fiction gives us insight into evolution.”

>Geoengenharia

>
Especiais
Caminhos para o clima

31/3/2010

Por Fábio de Castro

Agência FAPESP – Cientistas brasileiros e britânicos discutiram nesta terça-feira (30/3), por meio de videoconferência, possibilidades de cooperação entre instituições dos dois países para desenvolvimento de estudos e programas de pesquisa conjuntos na área de geoengenharia, que inclui diversos métodos de intervenção de larga escala no sistema climático do planeta, com a finalidade de moderar o aquecimento global.

O “Café Scientifique: Encontro Brasileiro-Britânico sobre Geoengenharia”, promovido pelo British Council, Royal Society e FAPESP, foi realizado nas sedes do British Council em São Paulo e em Londres, na Inglaterra.

O ponto de partida para a discussão foi o relatório Geoengenharia para o clima: Ciência, governança e incerteza, apresentado pelo professor John Shepherd, da Royal Society. Em seguida, Luiz Gylvan Meira Filho, pesquisador do Instituto de Estudos Avançados da Universidade de São Paulo (USP), apresentou um breve panorama da geoengenharia no Brasil.

A FAPESP foi representada pelo coordenador executivo do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, Carlos Afonso Nobre, pesquisador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Instituto Nacional de Pesquisas Espaciais (Inpe).

De acordo com Nobre, a reunião serviu para um contato inicial entre os cientistas dos dois países. “A reunião teve um caráter exploratório, já que o próprio conceito de geoengenharia ainda não foi definido com precisão. O objetivo principal era avaliar o interesse das duas partes em iniciar alguma pesquisa conjunta nessa área e expor potenciais contribuições que cada um pode dar nesse sentido”, disse Nobre à Agência FAPESP.

Segundo Nobre, a geoengenharia é um conjunto de possibilidades de intervenção dividido em dois métodos bastante distintos: o manejo de radiação solar e a remoção de dióxido de carbono. Durante a reunião, os brasileiros deixaram claro que têm interesse apenas na segunda vertente.

O manejo de radiação solar, de acordo com o relatório britânico, inclui técnicas capazes de refletir a luz do Sol a fim de diminuir o aquecimento global, como a instalação de espelhos no espaço, o uso de aerossóis estratosféricos – com aplicação de sulfatos, por exemplo –, reforço do albedo das nuvens e incremento do albedo da superfície terrestre, com instalação de telhados brancos nas edificações.

A remoção de dióxido de carbono, por outro lado, inclui metodologias de captura do carbono da atmosfera – ou “árvores artificiais” –, geração de carbono por pirólise de biomassa, sequestro de carbono por meio de bioenergia, fertilização do oceano e armazenamento de carbono no solo ou nos oceanos.

A principal diferença entre as duas vertentes é que os métodos de manejo de radiação solar funcionam com mais rapidez, em prazos de um ou dois anos, enquanto os métodos de remoção de gás carbônico levam várias décadas para surtirem efeito.

Sem plano B

O relatório avaliou todas as técnicas segundo eficácia, prazo de funcionamento, segurança e custo. Seria preciso ainda estudar os impactos sociais, politicos e éticos, de acordo com os cientistas britânicos.

Nobre aponta que o Brasil teria interesse em contribuir com estudos relacionados à vertente da remoção de dióxido de carbono, que seria coerente com o estágio avançado das pesquisas já realizadas no país em áreas como bioenergia e métodos de captura de carbono.

“Sou muito cético em relação ao manejo de energia de radiação solar. A implementação dessas técnicas é rápida, mas, quando esses dispositivos forem desativados – o que ocorrerá inevitavelmente, já que não é sustentável mantê-los por vários milênios –, a situação do clima voltará rapidamente ao cenário anterior. Seria preciso, necessariamente, reduzir rapidamente a causa das mudanças climáticas, que são as emissões de gases de efeito estufa”, disse Nobre.

De acordo com ele, as técnicas de manejo de energia solar são vistas, em geral, como um “plano B”, em caso de iminência de um desastre climático de grandes consequências. Ou seja, seriam acionadas emergencialmente quando os sistemas climáticos estivessem atingindo pontos de saturação que provocariam mudanças irreversíveis – os chamados tipping points.

“Mas o problema é que vários tipping points foram atingidos e já não há mais plano B. O derretimento do gelo do Ártico, por exemplo, de acordo com 80% dos glaciologistas, atingiu o ponto de saturação. Em algumas décadas, no verão, ali não haverá mais gelo. Não podemos criar a ilusão de que é possível acionar um plano B. Não há sistemas de governança capazes de definir o momento de lançar essas alternativas”, disse.

A vertente da remoção do dióxido de carbono, por outro lado, deverá ser amplamente estudada, de acordo com Nobre. “Essa vertente segue a linha lógica do restabelecimento da qualidade atmosférica. O princípio é fazer a concentração dos gases voltar a um estado de equilíbrio no qual o planeta se manteve por pelo menos 1 ou 2 milhões de anos.”

Ainda assim, essas soluções de engenharia climáticas devem ser encaradas com cuidado. “A natureza é muito complexa e as soluções de engenharia não são fáceis, especialmente em escala global. Acho que vale a pena estudar as várias técnicas de remoção de gás carbônico e definir quais delas têm potencial – mas sempre lembrando que são processos lentos que vão levar décadas ou séculos. Nada elimina a necessidade de reduzir emissões”, disse Nobre.

>Referência em previsões climáticas

>
Agência FAPESP – 26/3/2010

O Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Instituto Nacional de Pesquisas Espaciais (Inpe), passará a integrar um seleto grupo de centros mundiais de previsão climática sazonal.

O centro foi recomendado pela Comissão para Sistemas Básicos da Organização Meteorológica Mundial (OMM) como um Global Producing Center (GPC) ou Centro Produtor Global de previsões de longo prazo.

Após confirmação da OMM – prevista para junho deste ano – o CPTEC receberá um selo de qualidade para suas previsões climáticas sazonais. Segundo avaliação dos especialistas da OMM, o CPTEC atende a vários critérios, com destaque para a metodologia empregada, disseminação de produtos de previsão na internet e existência de um ciclo operacional fixo de previsão climática sazonal.

Em contrapartida, o centro passará a participar de atividades internacionais da OMM, contribuindo com o Centro de Verificação de Previsão de Longo Prazo. Desde 2006, a OMM, por meio do Programa Global de Processamento de Dados e Sistemas de Previsão, passou a atestar a qualidade dos centros de pesquisa e de previsão climática que atendam a determinados quesitos, intitulando-os GPCs de previsões de longo prazo.

Com a recomendação, o CPTEC passará também a integrar um grupo de centros mundiais de previsão climática sazonal, como os National Centers for Environmental Prediction (Estados Unidos), o European Centre for Medium-Range Weather Forecasts (União Europeia), o UK Met Office (Reino Unido), o Meteo-France, o Metorological Service of Canada, o Bureau of Meteorology da Austrália e o Japan Meteorological Agency, entre outros.

>The beginning of modern tornado forecasting

>
Fawbush and Miller

By Bill Murray
Whatever-weather.com, March 20, 2010

The Californian had little experience with forecasting Midwestern weather. He had been at Tinker Air Force Base in Oklahoma less than three weeks. When World War II broke out, he left his classes at Occidental College where he was enrolled, and enlisted in the Army Air Corps. He ended up in the weather forecaster school in Grand Rapids, Michigan. The demand was so great that new forecasters were put to work after a hurried nine month course in meteorology. His tours of duty were mainly in the South Pacific, forecasting weather for the forces that were battling the Axis. He was eventually promoted to the rank of Captain.

At the end of the war, he was assigned to Fort Benning in Georgia, where he honed his ability to map out the details of weather at different altitudes and visualize those details. This ability to understand a three dimensional picture of the atmosphere is critical to weather forecasting. On the afternoon of March 20, 1948, he plotted the weather at the surface and aloft across the vast and flat terrain of the American Plains. There was nothing on the charts out of the ordinary It looked like a dry and boring forecast with just some gusty winds through the evening hours.

He settled in to get acquainted with the backup forecaster, who was also from California. About 9 p.m., much to the forecasters’ surprise, they began to see surface reports of lightning from stations just to the southwest and west of Oklahoma City. Echoes appeared on their weather radar, less than twenty minutes away. The backup forecaster, a Staff Sergeant, sat down to type up a warning that thunderstorms were approaching. To their horror, at 9:52 p.m., a report streamed across the teletype from Will Rogers Airport, just seven miles to their southwest that a tornado was on the ground, visible from the airport. Sure enough, illuminated by lightning, a huge funnel was visible almost immediately. It roared across the base, doing $10 million worth of damage and injuring several personnel.

There were recriminations immediately. A panel of investigators from Washington flew in the next morning. The nervous weather officer and his superior answered questions. The board of inquiry listened to the facts and quickly rendered a decision. The event was not forecastable given the state of the art in meteorology. But later that day, Colonel Robert Miller and Major Ernest Fawbush were summoned to the Commanding General’s office. He directed Fawbush and Miller to investigate the possibility of forecasting tornadoes.

They reviewed the weather charts from the day before, as well as those from other tornadic events. They identified that tornadoes seemed to occur in warm, moist airmasses, with strong winds aloft. But the difficulty lay in delineating the areas which were most likely to experience the destructive storms. Issuing a tornado forecast for a single point seemed improbable.

But less than a week later on the 25th, Fawbush and Miller looked at their weather charts and then at each other. The weather pattern looked nearly identical to that of the 20th. What were the odds that another tornado would strike the base? Infinitesimal. They went to the General and told him what they saw. The General ordered the base secured. They reconvened with the General at early afternoon. It was then that they issued the first tornado forecast. Sure enough, a tornado moved across the well-prepared base that evening.

It was the beginning of modern tornado forecasting.

[This is one more historical example of the fact that unpredictability raises the specter of blame and accountability to forecasters. RT]

>Marcelo Gleiser: Criação imperfeita (Folha Mais!)

>
A noção de que a natureza pode ser decifrada pelo reducionismo precisa ser abolida.

14 março 2010

Desde tempos imemoriais, ao se deparar com a imensa complexidade da natureza, o homem buscou nela padrões repetitivos, algum tipo de ordem. Isso faz muito sentido. Afinal, ao olharmos para os céus, vemos que existem padrões organizados, movimentos periódicos que se repetem, definindo ciclos naturais aos quais estamos profundamente ligados: o nascer e o pôr do Sol, as fases da Lua, as estações do ano, as órbitas planetárias.

Com Pitágoras, 2.500 anos atrás, a busca por uma ordem natural das coisas foi transformada numa busca por uma ordem matemática: os padrões que vemos na natureza refletem a matemática da criação. Cabe ao filósofo desvendar esses padrões, revelando assim os segredos do mundo.

Ademais, como o mundo é obra de um arquiteto universal (não exatamente o Deus judaico-cristão, mas uma divindade criadora mesmo assim), desvendar os segredos do mundo equivale a desvendar a “mente de Deus”. Escrevi recentemente sobre como essa metáfora permanece viva ainda hoje e é usada por físicos como Stephen Hawking e muitos outros.

Essa busca por uma ordem matemática da natureza rendeu -e continua a render- muitos frutos. Nada mais justo do que buscar uma ordem oculta que explica a complexidade do mundo. Essa abordagem é o cerne do reducionismo, um método de estudo baseado na ideia de que a compreensão do todo pode ser alcançada através do estudo das suas várias partes.

Os resultados dessa ordem são expressos através de leis, que chamamos de leis da natureza. As leis são a expressão máxima da ordem natural. Na realidade, as coisas não são tão simples. Apesar da sua óbvia utilidade, o reducionismo tem suas limitações. Existem certas questões, ou melhor, certos sistemas, que não podem ser compreendidos a partir de suas partes. O clima é um deles; o funcionamento da mente humana é outro.

Os processos bioquímicos que definem os seres vivos não podem ser compreendidos a partir de leis simples, ou usando que moléculas são formadas de átomos. Essencialmente, em sistemas complexos, o todo não pode ser reduzido às suas partes.

Comportamentos imprevisíveis emergem das inúmeras interações entre os elementos do sistema. Por exemplo, a função de moléculas com muitos átomos, como as proteínas, depende de como elas se “dobram”, isto é, de sua configuração espacial. O funcionamento do cérebro não pode ser deduzido a partir do funcionamento de 100 bilhões de neurônios.

Sistemas complexos precisam de leis diferentes, que descrevem comportamentos resultantes da cooperação de muitas partes. A noção de que a natureza é perfeita e pode ser decifrada pela aplicação sistemática do método reducionista precisa ser abolida. Muito mais de acordo com as descobertas da ciência moderna é que devemos adotar uma abordagem múltipla, e que junto ao reducionismo precisamos utilizar outros métodos para lidar com sistemas mais complexos. Claro, tudo ainda dentro dos parâmetros das ciências naturais, mas aceitando que a natureza é imperfeita e que a ordem que tanto procuramos é, na verdade, uma expressão da ordem que buscamos em nós mesmos.

É bom lembrar que a ciência cria modelos que descrevem a realidade; esses modelos não são a realidade, só nossas representações dela. As “verdades” que tanto admiramos são aproximações do que de fato ocorre.

As simetrias jamais são exatas. O surpreendente na natureza não é a sua perfeição, mas o fato de a matéria, após bilhões de anos, ter evoluído a ponto de criar entidades capazes de se questionarem sobre a sua existência.

MARCELO GLEISER é professor de física teórica no Dartmouth College, em Hanover (EUA) e autor do livro “A Criação Imperfeita”

>Living on Earth: Climate Confusion and the "Climategate"

>
Air Date: March 5, 2010
http://www.loe.org

Link to the audio file.

“Climategate” has damaged the credentials of the Intergovernmental Panel on Climate Change, and decades of science on global warming. But as scientists push back against efforts to dismiss the threat of global warming, some media watchers say journalists aren’t balancing their coverage of climate change with the scientifically-sound other side of the story – that the impacts of a warming world could be worse than the IPCC predicts. Host Jeff Young talks with media experts and scientists about the fallout of the hacked email scandal, and how to repair damage. (12:00)

>Climate scientists to fight back at skeptics (The Washington Times)

>
By Stephen Dinan
The Washington Times – Friday, March 5, 2010

Undaunted by a rash of scandals over the science underpinning climate change, top climate researchers are plotting to respond with what one scientist involved said needs to be “an outlandishly aggressively partisan approach” to gut the credibility of skeptics.

In private e-mails obtained by The Washington Times, climate scientists at the National Academy of Sciences say they are tired of “being treated like political pawns” and need to fight back in kind. Their strategy includes forming a nonprofit group to organize researchers and use their donations to challenge critics by running a back-page ad in the New York Times.

“Most of our colleagues don’t seem to grasp that we’re not in a gentlepersons’ debate, we’re in a street fight against well-funded, merciless enemies who play by entirely different rules,” Paul R. Ehrlich, a Stanford University researcher, said in one of the e-mails.

Some scientists question the tactic and say they should focus instead on perfecting their science, but the researchers who are organizing the effort say the political battle is eroding confidence in their work.

“This was an outpouring of angry frustration on the part of normally very staid scientists who said, ‘God, can’t we have a civil dialogue here and discuss the truth without spinning everything,'” said Stephen H. Schneider, a Stanford professor and senior fellow at the Woods Institute for the Environment who was part of the e-mail discussion but wants the scientists to take a slightly different approach.

The scientists have been under siege since late last year when e-mails leaked from a British climate research institute seemed to show top researchers talking about skewing data to push predetermined outcomes. Meanwhile, the Intergovernmental Panel on Climate Change, the authoritative body on the matter, has suffered defections of members after it had to retract claims that Himalayan glaciers will melt over the next 25 years.

Last month, President Obama announced that he would create a U.S. agency to arbitrate research on climate change.

Sen. James M. Inhofe, Oklahoma Republican and a chief skeptic of global-warming claims, is considering asking the Justice Department to investigate whether climate scientists who receive taxpayer-funded grants falsified data. He lists 17 people he said have been key players in the controversy.

That news has enraged scientists. Mr. Schneider said Mr. Inhofe is showing “McCarthyesque” behavior in the mold of the Cold War-era senator who was accused of stifling political debate through accusations of communism.

In a phone interview, Mr. Schneider, who is one of the key players Mr. Inhofe cites, said he disagrees with trying to engage in an ad battle. He said the scientists will never be able to compete with energy companies.

“They’re not going to win short-term battles playing the game against big-monied interests because they can’t beat them,” he said.

He said the “social contract” between scientists and policymakers is broken and must be reforged, and he urged colleagues to try to recruit members of Congress to take up their case. He also said the press and nongovernmental organizations must be prodded.

“What I am trying to do is head off something that will be truly ugly,” he said. “I don’t want to see a repeat of McCarthyesque behavior and I’m already personally very dismayed by the horrible state of this topic, in which the political debate has almost no resemblance to the scientific debate.”

Not all climate scientists agree with forcing a political fight.

“Sounds like this group wants to step up the warfare, continue to circle the wagons, continue to appeal to their own authority, etc.,” said Judith A. Curry, a climate scientist at the Georgia Institute of Technology. “Surprising, since these strategies haven’t worked well for them at all so far.”

She said scientists should downplay their catastrophic predictions, which she said are premature, and instead shore up and defend their research. She said scientists and institutions that have been pushing for policy changes “need to push the disconnect button for now,” because it will be difficult to take action until public confidence in the science is restored.

“Hinging all of these policies on global climate change with its substantial element of uncertainty is unnecessary and is bad politics, not to mention having created a toxic environment for climate research,” she said.

Ms. Curry also said that more engagement between scientists and the public would help – something that the NAS researchers also proposed.

Paul G. Falkowski, a professor at Rutgers University who started the effort, said in the e-mails that he is seeking a $1,000 donation from as many as 50 scientists to pay for an ad to run in the New York Times. He said in one e-mail that commitments were already arriving.

The e-mail discussion began late last week and continued into this week.

Mr. Falkowski didn’t respond to an e-mail seeking comment, and an effort to reach Mr. Ehrlich was unsuccessful.

But one of those scientists forwarded The Times’ request to the National Academy of Sciences, whose e-mail system the scientists used as their forum to plan their effort.

An NAS spokesman sought to make clear that the organization itself is not involved in the effort.

“These scientists are elected members of the National Academy of Sciences, but the discussants themselves realized their efforts would require private support since the National Academy of Sciences never considered placing such an ad or creating a nonprofit group concerning these issues,” said William Kearney, chief spokesman for NAS.

The e-mails emerged months after another set of e-mails from a leading British climate research group seemed to show scientists shading data to try to bolster their claims, and are likely to feed the impression among skeptics that researchers are pursuing political goals as much as they are disseminating science.

George Woodwell, founder of the Woods Hole Research Center, said in one e-mail that researchers have been ceding too much ground. He blasted Pennsylvania State University for pursuing an academic investigation against professor Michael E. Mann, who wrote many of the e-mails leaked from the British climate research facility.

An initial investigation cleared Mr. Mann of falsifying data but referred one charge, that he “deviated from accepted practices within the academic community,” to a committee for a more complete review.

In his e-mail, Mr. Woodwell acknowledged that he is advocating taking “an outlandishly aggressively partisan approach” but said scientists have had their “classical reasonableness” turned against them.

“We are dealing with an opposition that is not going to yield to facts or appeals from people who hold themselves in high regard and think their assertions and data are obvious truths,” he wrote.

>Scientists Taking Steps to Defend Work on Climate (N. Y. Times)

>
By JOHN M. BRODER
New York Times, March 2, 2010

WASHINGTON — For months, climate scientists have taken a vicious beating in the media and on the Internet, accused of hiding data, covering up errors and suppressing alternate views. Their response until now has been largely to assert the legitimacy of the vast body of climate science and to mock their critics as cranks and know-nothings.

Photo: Brendan Smialowski for The New York Times.
Ralph J. Cicerone of the National Academy of Sciences says scientists must try to be heard.

But the volume of criticism and the depth of doubt have only grown, and many scientists now realize they are facing a crisis of public confidence and have to fight back. Tentatively and grudgingly, they are beginning to engage their critics, admit mistakes, open up their data and reshape the way they conduct their work.

The unauthorized release last fall of hundreds of e-mail messages from a major climate research center in England, and more recent revelations of a handful of errors in a supposedly authoritative United Nations report on climate change, have created what a number of top scientists say is a major breach of faith in their research. They say the uproar threatens to undermine decades of work and has badly damaged public trust in the scientific enterprise.

The e-mail episode, dubbed “climategate” by critics, revealed arrogance and what one top climate researcher called “tribalism” among some scientists. The correspondence appears to show efforts to limit publication of contrary opinion and to evade Freedom of Information Act requests. The content of the messages opened some well-known scientists to charges of concealing temperature data from rival researchers and manipulating results to conform to precooked conclusions.

“I have obviously written some very awful e-mails,” Phil Jones, the British climate scientist at the center of the controversy, confessed to a special committee of Parliament on Monday. But he sharply disputed charges that he had hidden data or faked results.

Some of the most serious allegations against Dr. Jones, director of the climate research unit at the University of East Anglia, and other researchers have been debunked, while several investigations are still under way to determine whether others hold up.

But serious damage has already been done. A survey conducted in late December by Yale University and George Mason University found that the number of Americans who believed that climate change was a hoax or scientific conspiracy had more than doubled since 2008, to 16 percent of the population from 7 percent. An additional 13 percent of Americans said they thought that even if the planet was warming, it was a result solely of natural factors and was not a significant concern.

Climate scientists have been shaken by the criticism and are beginning to look for ways to recover their reputation. They are learning a little humility and trying to make sure they avoid crossing a line into policy advocacy.

“It’s clear that the climate science community was just not prepared for the scale and ferocity of the attacks and they simply have not responded swiftly and appropriately,” said Peter C. Frumhoff, an ecologist and chief scientist at the Union of Concerned Scientists. “We need to acknowledge the errors and help turn attention from what’s happening in the blogosphere to what’s happening in the atmosphere.”

A number of institutions are beginning efforts to improve the quality of their science and to make their work more transparent. The official British climate agency is undertaking a complete review of its temperature data and will make its records and analysis fully public for the first time, allowing outside scrutiny of methods and conclusions. The United Nations panel on climate change will accept external oversight of its research practices, also for the first time.

Two universities are investigating the work of top climate scientists to determine whether they have violated academic standards and undermined faith in science. The National Academy of Sciences is preparing to publish a nontechnical paper outlining what is known — and not known — about changes to the global climate. And a vigorous debate is under way among climate scientists on how to make their work more transparent and regain public confidence.

Some critics think these are merely cosmetic efforts that do not address the real problem, however.

“I’ll let you in on a very dark, ugly secret — I don’t want trust in climate science to be restored,” Willis Eschenbach, an engineer and climate contrarian who posts frequently on climate skeptic blogs, wrote in response to one climate scientist’s proposal to share more research. “I don’t want you learning better ways to propagandize for shoddy science. I don’t want you to figure out how to inspire trust by camouflaging your unethical practices in new and innovative ways.”

“The solution,” he concluded, “is for you to stop trying to pass off garbage as science.”

Ralph J. Cicerone, president of the National Academy of Sciences, the most prestigious scientific body in the United States, said that there was a danger that the distrust of climate science could mushroom into doubts about scientific inquiry more broadly. He said that scientists must do a better job of policing themselves and trying to be heard over the loudest voices on cable news, talk radio and the Internet.

“This is a pursuit that scientists have not had much experience in,” said Dr. Cicerone, a specialist in atmospheric chemistry.

The battle is asymmetric, in the sense that scientists feel compelled to support their findings with careful observation and replicable analysis, while their critics are free to make sweeping statements condemning their work as fraudulent.

“We have to do a better job of explaining that there is always more to learn, always uncertainties to be addressed,” said John P. Holdren, an environmental scientist and the White House science adviser. “But we also need to remind people that the occasions where a large consensus is overturned by a scientific heretic are very, very rare.”

No scientific body is under more hostile scrutiny than the United Nations Intergovernmental Panel on Climate Change, which compiles the climate research of hundreds of scientists around the globe into periodic reports intended to be the definitive statement of the science and a guide for policy makers. Critics, citing several relatively minor errors in its most recent report and charges of conflict of interest against its leader, Rajendra K. Pachauri, are calling for the I.P.C.C. to be disbanded or radically reformed.

On Saturday, after weeks of refusing to engage critics, the I.P.C.C. announced that it was asking for the creation of an independent panel to review its research procedures to try to eliminate bias and errors from future reports. But even while allowing for some external oversight, Dr. Pachauri insisted that panel stood behind its previous work.

“Scientists must continually earn the public’s trust or we risk descending into a new Dark Age where ideology trumps reason,” Dr. Pachauri said in an e-mail message.

But some scientists said that responding to climate change skeptics was a fool’s errand.

“Climate scientists are paid to do climate science,” said Gavin A. Schmidt, a senior climatologist with the National Aeronautics and Space Administration’s Goddard Institute of Space Studies. “Their job is not persuading the public.”

He said that the recent flurry of hostility to climate science had been driven as much by the cold winter as by any real or perceived scientific sins.

“There have always been people accusing us of being fraudulent criminals, of the I.P.C.C. being corrupt,” Dr. Schmidt said. “What is new is this paranoia combined with a spell of cold weather in the United States and the ‘climategate’ release. It’s a perfect storm that has allowed the nutters to control the agenda.”

The answer is simple, he said.

“Good science,” he said, “is the best revenge.”

>96% de tudo o que há é invisível!

>Pesquisa FAPESP – Edição 168 – Fevereiro 2010

Universo invisível

Astrônomos e físicos do mundo todo tentam desvendar do que são feitos 96% do Cosmo
Ricardo Zorzetto

A Agência Espacial Europeia (ESA, na sigla em inglês) divulgou no final de janeiro uma imagem mostrando a concentração de galáxias a diferentes distâncias em uma pequena região do Universo. Cada ponto colorido da imagem (veja acima) corresponde a um agrupamento com centenas a milhares de galáxias – cada uma delas formada por centenas de bilhões de estrelas e uma quantidade elevada de gás muito quente. São o que os astrônomos chamam de aglomerados de galáxias, as estruturas em equilíbrio de maior dimensão e massa já identificadas no Cosmo. Calculando o número de corpos celestes que podem existir ali, fica difícil imaginar que eles contribuam para compor apenas 4,6% de tudo o que existe no Universo. O restante, na verdade quase tudo, não pode ser visto. Os outros 95,6% são formados, de acordo com a vasta maioria dos físicos e dos astrônomos, por dois tipos de elementos descobertos apenas nos últimos 80 anos: a matéria escura e a energia escura, sobre as quais quase nada se sabe além do fato de que precisam existir para que o Universo seja como se imagina que é. Alvo de uma série de experimentos internacionais que contam com a participação de brasileiros, alguns já em andamento e outros previstos para iniciar nos próximos anos, essa forma de matéria e de energia não absorve nem emite luz e, portanto, é invisível ao olho humano.

Nenhum equipamento em atividade até o momento foi capaz de detectá-las diretamente. Mas os físicos preveem a existência das duas em seus modelos de evolução do Cosmo, e os astrônomos inferem a presença delas a partir de assinaturas que deixam na estrutura do Universo, identificáveis em imagens como essa produzida pela ESA, resultado do Levantamento sobre a Evolução Cosmológica (Cosmos) – esse projeto usa os maiores telescópios em terra e no espaço para vasculhar uma região do céu do tamanho de oito luas cheias.

Foi apenas no último século que a compreensão do Universo se complicou tanto. Na década de 1920 o astrônomo norte-americano Edwin Hubble percebeu que o Cosmo era formado por grandes agrupamentos de estrelas – as galáxias – e que elas estavam se afastando umas das outras. A constatação de que o Universo estava se expandindo levou físicos e astrônomos a reverem suas ideias, pois até então acreditava-se que ele fosse estático e finito.

Estudando as galáxias, o astrônomo búlgaro Fritz Zwicky, considerado por muitos um mal-humorado, notou em 1933 que elas precisariam de 10 vezes mais massa do que tinham para se unirem em aglomerados apenas pela atração gravitacional, a força proposta por Isaac Newton para explicar a atração de corpos de massa elevada a distâncias muito grandes, como os planetas e as estrelas. A massa que não se conseguiu enxergar foi chamada de matéria escura. A energia escura só seria proposta cerca de 70 anos mais tarde, quando os grupos de Adam Riess e Saul Perlmutter, que investigavam supernovas, estrelas que explodiram passando a emitir um brilho milhões de vezes mais intenso, estavam se afastando de nós cada vez mais rapidamente. O Universo não se encontrava apenas em expansão, mas em expansão acelerada. Algo desconhecido, uma espécie de força contrária à da gravidade – mais tarde chamada de energia escura –, fazia o Cosmo crescer a velocidades cada vez maiores como um lençol de borracha puxado pelas pontas.

Poucos cientistas duvidam hoje da existência da matéria escura e da energia escura, também conhecidas como a componente escura do Universo. O principal desafio – muitos pesquisadores a consideram uma das questões mais importantes a serem resolvidas – é determinar a natureza de ambas, ou seja, o que de fato as compõem.

Sobre esse ponto, físicos e astrônomos nada sabem com segurança. Quando muito, têm bons palpites. E, como os demais habitantes do planeta, devem continuar às escuras até que uma avalanche de dados sobre mais agrupamentos de galáxias e outras estruturas do Universo mais antigas do que as observadas hoje comece a alimentar seus computadores.

“Nunca nossa ignorância foi quantificada com tamanha precisão”, comenta o astrônomo Laer-te Sodré Júnior, da Universidade de São Paulo (USP), referindo-se aos cálculos mais aceitos hoje da quantidade de matéria escura e de energia escura existentes no Cosmo: 22,6% e 72,8%, respectivamente. Há quase 30 anos Sodré estuda os aglomerados de galáxias, que reúnem cerca de 10% das galáxias existentes e podem ser compreendidos como sendo as metrópoles cósmicas: assim como as metrópoles da Terra, são poucas, mas têm dimensões absurdas e são muito populosas.

Com base em informações sobre aglomerados de galáxias e outros astros muito antigos e distantes, os físicos teóricos Élcio Abdalla, Luis Raul Abramo e Sandro Micheletti, todos do Instituto de Física (IF) da USP, em parceria com o físico chinês Bin Wang, decidiram recentemente verificar se os dados dessas observações astronômicas confirmavam uma ideia apresentada anos antes por outro brasileiro, o físico Orfeu Bertolami, pesquisador do Instituto Superior Técnico de Lisboa, em Portugal. Quase uma década atrás, pouco depois de identificadas as primeiras evidências de que a energia escura existe, Bertolami propôs que, se a matéria escura e a energia escura interagissem, como havia sugerido o astrônomo italiano Luca Amendola, essa influência mútua deixaria sinais em estruturas muito grandes do Cosmo, a exemplo dos aglomerados de galáxias.

Partículas – Para quem não está habituado, pode parecer estranho imaginar que algo que não se sabe muito bem o que é afete de alguma forma outra coisa sobre a qual não se tem o menor conhecimento. Mas não é o que os físicos pensam. Seja qual for a natureza da matéria escura e da energia escura, espera-se que o comportamento de ambas na escala do infinitamente pequeno (o mundo das partículas atômicas) influencie o mundo do infinitamente grande. Por isso, conhecer a interação entre elas – e delas com a matéria visível – pode ajudar a compreender como e em quanto tempo o Universo se formou e se tornou o que é, possibilitando inclusive a existência de vida. “Se acreditarmos minimamente no modelo padrão da física de partículas, que explica a composição da matéria bariônica [a matéria comum, composta de prótons, nêutrons e elétrons, e formadora das estrelas, dos planetas e de tudo o mais que se conhece] e, como as partículas que a formam interagem entre si, não há motivo para duvidar que também possa existir interação entre a matéria escura e a energia escura”, afirma Abdalla.

Inicialmente Abdalla, Micheletti e Bin Wang, da Universidade Fudan, em Xangai, elaboraram um modelo rudimentar no qual descreveram a matéria escura e a energia escura com propriedades semelhantes às de líquidos e gases como a água e o ar – os físicos os chamam de fluidos, materias formados por camadas que se movimentam continuamente umas em relação às outras e, nesse deslocamento, podem se deformar reciprocamente. Na construção do modelo, uma série de equações matemáticas que tentam descrever o que aconteceu no passado e predizer o que ocorrerá no futuro levou em consideração informações obtidas durante anos por meio da observação de quasares, núcleos de galáxias muito brilhantes e antigos; supernovas, estrelas que explodiram e passaram a emitir uma luz milhões de vezes mais intensa que o normal; e da radiação cósmica de fundo em micro- -ondas, uma forma de energia eletromagnética produzida nos instantes iniciais após o Big Bang, a explosão inicial que gerou o Universo e o próprio tempo 13,7 bilhões de anos atrás.

Mesmo sem determinar o modo como a matéria escura e a energia escura interagiam – apenas supuseram que a interação ocorreria –, eles verificaram que, ao resolver essas equações mais as formuladas por Einstein na teoria da relatividade geral, obtinham um Universo semelhante ao que se conhece hoje: em expansão acelerada, com tudo o que existe nele se afastando cada vez mais rapidamente, segundo artigo apresentado em junho de 2009 na Physical Review D. Na interação, de acordo com esse modelo, a energia escura liberaria radiação e se converteria em matéria escura – uma consequência da famosa equação E=m.c2, segundo a qual, em determinadas condições, matéria pode se transformar em energia e energia em matéria.

Interação – Mas não era o suficiente. Com o físico Luis Raul Abramo, Abdalla aprimorou o modelo e, dessa vez, procurou uma assinatura da interação entre energia escura e matéria escura nas informações obtidas de 33 aglomerados de galáxias, 25 deles estudados anos atrás em detalhes por Laerte Sodré e Eduardo Cypriano, pesquisadores do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP. Em colaboração com Sodré, Abdalla, Abramo e Wang usaram três métodos conhecidos para estimar a quantidade de matéria (massa) dos aglomerados de galáxias. Se não houvesse interação, os resultados teriam de ser iguais ou, no mínimo, muito próximos. Já se a matéria escura se transformasse em energia escura, ou vice-versa, um desses valores, sensível a essa conversão, diferiria dos demais. No trabalho publicado em 2009 na Physics Letters B, eles afirmam que há uma possibilidade real, ainda que pequena, de que a interação de fato ocorra, com a energia escura se convertendo em matéria escura.

Mesmo o próprio grupo vê esse resultado com cautela, porque há uma série de incertezas na medição das massas dos aglomerados de galáxias. Algumas dessas técnicas dependem de que esses agrupamentos estejam em equilíbrio e não interajam com outras galáxias ou aglomerados. Mas isso é pouco provável porque a massa dos aglomerados é muito elevada e atrai tudo o que está por perto. “A incerteza na medição da massa de cada aglomerado é grande”, comenta Abramo. “Esse modelo terá de ser testado por alguns anos. Analisamos 33 aglomerados de galáxias, mas, para ter segurança, teríamos de avaliar de centenas a milhares deles”, afirma Sodré, que atualmente negocia com astrônomos e físicos espanhóis a participação brasileira no projeto Javalambre Physics of the Accelerating Universe Survey (J-PAS), destinado a entender melhor as propriedades da energia escura e a evolução das galáxias medindo com mais precisão a que distância se encontram.

Infográfico: A expansão do Cosmo

Estruturas do Universo – Abdalla, que teve a iniciativa de verificar os sinais dessa interação alguns anos atrás, sabe que muitos discordam de sua proposta. “Uma vez um referee [revisor científico] mal-educado disse que esse trabalho era especulação ao quadrado”, lembra o físico da USP. “Mas, se estivermos certos e essa interação for bem definida, poderá ser verificada em experimentos de física de partículas.”

Há cerca de cinco anos os físicos teóricos brasileiros Gabriela Camargo Campos e Rogério Rosenfeld, ambos do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp), criaram um modelo de interação entre matéria escura e energia escura que também as tratava como fluidos. No trabalho – feito em parceria com Luca Amendola, do Observatório Astronômico de Roma, o autor da ideia de interação entre esses elementos –, a dupla brasileira levou em consideração tanto informações sobre supernovas como sobre a radiação cósmica de fundo. Feitas as contas, concluíram que essa conversão não deve ocorrer, de acordo com artigo de 2007 na Physical Review D.

Com as informações disponíveis hoje sobre as estruturas do Universo, porém, fica difícil saber quem tem razão. “Há poucos dados e eles são fragmentados”, comenta Cypriano, astrônomo do IAG-USP. “Necessitamos de dados homogêneos e em grande quantidade.” Por esse motivo, mais de uma dúzia de projetos internacionais de grande porte já passaram pelo menos do estágio de planejamento.

O estudo da estrutura e da evolução das galáxias leva boa parte dos físicos e astrônomos a darem por certo que a matéria escura de fato existe – e que sua composição será descoberta em breve, talvez em até uma década. “Se for composta por partículas frias de massa muito elevada, vários modelos de física de partículas preveem que poderá ser produzida no Large Hadron Collider [LHC]”, afirma Abramo. Instalado na fronteira da Suíça com a França, o LHC começou a funcionar em fase experimental no final de 2009 e deve lançar, umas contra as outras, partículas atômicas viajando a velocidades próximas à da luz, desfazendo-as nos seus menores componentes. Já a resposta para a natureza da energia escura deve levar bem mais tempo, pois depende de levantamentos extensos das galáxias e estrelas encontradas em diferentes regiões do céu.

Um desses levantamentos, previsto para começar no segundo semestre de 2011, é o Dark Energy Surgey (DES), do qual devem participar cerca de 30 brasileiros (entre pesquisadores, estudantes e técnicos) de instituições no Rio de Janeiro, São Paulo e Rio Grande do Sul. Esse projeto pretende usar uma supercâmera digital – com capacidade de produzir imagens de altíssima resolução (500 megapixels), 40 vezes maior do que as das câmeras comuns – acoplada ao telescópio Blanco do Observatório Interamericano de Cerro Tololo, no Chile, para coletar ao longo de quatro anos informações de aproximadamente 400 milhões de galáxias. “Queremos estudar a distribuição de massa dos aglomerados de galáxias a diferentes distâncias”, conta Luiz Alberto Nicolaci da Costa, astrônomo do Observatório Nacional (ON), no Rio de Janeiro, coor-denador da participação brasileira no DES. Dependendo da massa total do Universo e da existência ou não de interação entre matéria escura e energia escura, pode haver um número maior ou menor desses aglomerados a determinadas distâncias.

Força repulsiva – Mesmo antes de o experimento começar, Nicolaci sabe que ele não trará uma resposta definitiva sobre a natureza da energia escura, a força repulsiva, uma espécie de antigravidade, que faz os objetos se afastarem a velocidades cada vez maiores no Universo. “No início desta década um grupo internacional de pesquisadores se reuniu e tentou delinear os experimentos mais adequados a serem realizados em quatro fases para tentar descobrir o que é a energia escura”, explica o astrônomo do Observatório Nacional. Os mais simples já terminaram e o DES é da fase três. “Com o DES, esperamos restringir os candidatos a energia escura”, conta Nicolaci.

Uma das mais cotadas é a chamada energia do vácuo, que, ao contrário do que se pensa, não é vazio. O vácuo é rico em partículas muito fugazes que surgem e desaparecem antes que possam ser detectadas e poderiam fornecer a força antigravitacional que faz os corpos celestes se afastarem. Para a física de partículas, a força do vácuo é o correspondente à constante cosmológica, termo que Albert Einstein acrescentou às equações da relatividade geral para que sua teoria representasse um Universo estático. “Mas essa seria uma solução feia, porque a densidade de energia do vácuo teria de ser 10120 [o número um seguido de 120 zeros] maior do que a observada pelos astrônomos”, comenta Élcio Abdalla.

Pode ser também que a energia escura seja uma espécie de fluido desconhecido, chamado pelos astrônomos de quintessência, em alusão aos quatro elementos que se acreditava que compunham o Universo (ar, água, fogo e terra). Ou ainda, que ela não exista, e os efeitos atribuídos a ela sejam consequên-cia de o Universo não ser homogêneo como se imagina e a Via Láctea se encontrar em uma região contendo muito pouca matéria. O astrofísico Filipe Abdalla, pesquisador da University College London e filho de Élcio Abdalla, trabalha em dois experimentos mais avançados, que integram a quarta fase da busca da energia escura e só devem começar a funcionar em alguns anos: o do satélite Euclid e o do te-les–cópio de mi-cro-ondas Square Kilometre Array, a ser construído na África do Sul ou na Austrália. “Se for alguma incorreção nas equações de Einstein, que explicam bem a atração gravitacional nas galáxias”, comentou Filipe durante uma visita a São Paulo em agosto de 2009, “esses experimentos nos permitirão saber”.