Arquivo anual: 2010

>Weathermen, and other climate change skeptics (The New Yorker)

>
Comment
Up in the Air

by Elizabeth Kolbert – April 12, 2010

Joe Bastardi, who goes by the title “expert senior forecaster” at AccuWeather, has a modest proposal. Virtually every major scientific body in the world has concluded that the planet is warming, and that greenhouse-gas emissions are the main cause. Bastardi, who holds a bachelor’s degree in meteorology, disagrees. His theory, which mixes volcanism, sunspots, and a sea-temperature trend known as the Pacific Decadal Oscillation, is that the earth is actually cooling. Why don’t we just wait twenty or thirty years, he proposes, and see who’s right? This is “the greatest lab experiment ever,” he said recently on Bill O’Reilly’s Fox News show.

Bastardi’s position is ridiculous (which is no doubt why he’s often asked to air it on Fox News). Yet there it was on the front page of the Times last week. Among weathermen, it turns out, views like Bastardi’s are typical. A survey released by researchers at George Mason University found that more than a quarter of television weathercasters agree with the statement “Global warming is a scam,” and nearly two-thirds believe that, if warming is occurring, it is caused “mostly by natural changes.” (The survey also found that more than eighty per cent of weathercasters don’t trust “mainstream news media sources,” though they are presumably included in this category.)

Why, with global warming, is it always one step forward, two, maybe three steps back? A year ago, it looked as if the so-called climate debate might finally be over, and the business of actually addressing the problem about to begin. In April, the Obama Administration designated CO2 a dangerous pollutant, thus taking the first critical step toward regulating carbon emissions. The following month, the Administration announced new fuel-efficiency standards for cars. (These rules were finalized last week.) In June, the House of Representatives passed a bill, named for its co-sponsors, Edward Markey and Henry Waxman, that called for reducing emissions seventeen per cent by 2020. Speaking in September at the United Nations, the President said that a “new era” had dawned. “We understand the gravity of the climate threat,” he declared. “We are determined to act.”

Then, much like the Arctic ice cap, that “new era” started to fall to pieces. The U.N. climate summit in Copenhagen in December broke up without agreement even on a possible outline for a future treaty. A Senate version of the Markey-Waxman bill failed to materialize and, it’s now clear, won’t be materializing anytime this year. (Indeed, the one thing that seems certain not to be in a Senate energy bill is the economy-wide emissions reduction required by the House bill.) Last week, despite the Senate’s inaction, President Obama announced that he was opening huge swaths of the Atlantic and Alaskan coasts to oil drilling. The White House billed the move as part of a “comprehensive energy strategy,” a characterization that, as many commentators pointed out, made no sense, since comprehensiveness is precisely what the President’s strategy lacks. As Josh Nelson put it on the blog EnviroKnow, “Obama is either an exceptionally bad negotiator, or he actually believes in some truly awful policy ideas. Neither of these possibilities bodes well.”

As lawmakers dither, public support for action melts away. In a Gallup poll taken last month, forty-eight per cent of respondents said that they believe the threat of global warming to be “generally exaggerated.” This figure was up from thirty-five per cent just two years ago. According to the same poll, only fifty-two per cent of Americans believe that “most scientists believe that global warming is occurring,” down from sixty-five per cent in 2008.

The most immediate explanation for this disturbing trend is the mess that’s come to be known as Climategate. Here the situation is the reverse of what’s going on in the troposphere: Climategate really is a hyped-up media phenomenon. Late last year, hackers broke into the computer system at the Climatic Research Unit of Britain’s University of East Anglia and posted online hundreds of private e-mails from scientists. In the e-mails, C.R.U. researchers often express irritation with their critics—the death of one detractor is described as “cheering news”—and discuss ways to dodge a slew of what they consider to be nuisance Freedom of Information requests. The e-mails were widely portrayed in the press and in the blogosphere as evidence of a conspiracy to misrepresent the data. But, as a parliamentary committee appointed to investigate the matter concluded last week, this charge is so off base that it is difficult even to respond to: “Insofar as the committee was able to consider accusations of dishonesty against CRU, the committee considers that there is no case to answer.”

The e-mail brouhaha was followed by—and immediately confused with—another overblown controversy, about a mistake in the second volume of the U.N. Intergovernmental Panel on Climate Change’s Fourth Assessment Report, from 2007. On page 493 of the nine-hundred-and-seventy-six-page document, it is asserted, incorrectly, that the Himalayan glaciers could disappear by 2035. (The report cites as a source for this erroneous information a report by the World Wildlife Fund.) The screw-up, which was soon acknowledged by the I.P.C.C. and the W.W.F., was somehow transformed by commentators into a reason to doubt everything in the three-volume assessment, including, by implication, the basic laws of thermodynamics. The “new scandal (already awarded the unimaginative name of ‘Glaciergate’) raises further challenges for a scientific theory that is steadily losing credibility,” James Heiser wrote on the Web site of the right-wing magazine New American.

No one has ever offered a plausible account of why thousands of scientists at hundreds of universities in dozens of countries would bother to engineer a climate hoax. Nor has anyone been able to explain why Mother Nature would keep playing along; despite what it might have felt like in the Northeast these past few months, globally it was one of the warmest winters on record.

The message from scientists at this point couldn’t be clearer: the world’s emissions trajectory is extremely dangerous. Goofball weathermen, Climategate, conspiracy theories—these are all a distraction from what’s really happening. Which, apparently, is what we’re looking for. ♦

Read more: http://www.newyorker.com/talk/comment/2010/04/12/100412taco_talk_kolbert#ixzz0lBqmFCnu

>A tragédia no Rio e o jornalismo participativo

>
Leitores dão show de jornalismo

Por Larissa Morais, do Observatório da Imprensa
Envolverde/Observatório da Imprensa – 08/04/2010 – 11h04

O dia em que o Rio de Janeiro parou, submerso por chuvas de abril, entra para a história do jornalismo brasileiro como marco da participação dos leitores no noticiário. No fim da manhã, enquanto muitos jornalistas ainda tentavam chegar às redações, ilhados como tantos cariocas, sites de notícias já veiculavam fotos, vídeos amadores e depoimentos de cidadãos registrando o caos instalado em toda a cidade.

A força desse conteúdo levou ao noticiário áreas da cidade normalmente esquecidas pela grande imprensa: Pavuna, Olaria, Rocha Miranda, Niterói e São Gonçalo, entre outras. Sim, no dia em que a Lagoa Rodrigo de Freitas transbordou, Rocha Miranda teve um lugar na cobertura.

O site do Globo, que desde 2006 vem apostando no jornalismo participativo, inovou ao produzir, com a ajuda dos leitores, um mapa da devastação na cidade. A equipe de arte apontou no Google Maps pontos de alagamento, locais de acúmulo de lixo e lama, pontos de deslizamento e postos de doação. Navegando pelo mapa, era possível ter acesso a fotos e indicações de leitores e/ou jornalistas “da casa”. Dicas como “nessa rua a queda de uma árvore bloqueia a passagem de automóveis”, com a indicação do horário de envio ou atualização da informação.

Outro padrão

O Twitter do blog de Ricardo Noblat ganhou na terça-feira (7/4) 390 novos seguidores graças à rede informativa que criou para a troca de informações sobre as conseqüências das chuvas. Das centenas informações que chegaram, nenhuma estava errada – o que, nas palavras de Noblat, “derruba a idéia cultivada por muitos jornalistas de que leitores não jornalistas carecem de compromisso com a veracidade do que relatam”.

O G1 se destacou em relação ao outros sites pelo excelente aproveitamento dos vídeos produzidos pelos leitores (esclareço que nesse termo incluo também internautas, espectadores, ouvintes e quem mais vier). Ao fim do dia, o portal da TV Globo havia colocado no ar mais de 70 vídeos e 60 fotos de leitores – material claramente selecionado mais por seu valor informativo do que por sua qualidade técnica.

Foi curioso ver tantos vídeos tremidos, escuros e com som ruim no site da emissora conhecida internacionalmente pela alta qualidade técnica de seus produtos jornalísticos e de entretenimento. A produção dos leitores ficou ali, lado a lado com as imagens produzidas pela equipe da Globo. O “ibope” dos leitores foi tamanho que parte do material foi aproveitada em uma longa matéria levada ao ar no mais tradicional dos telejornais brasileiros, o Jornal Nacional.

O JN aproveitou flagrantes como o do motociclista que perdeu a moto em uma cratera sob a águas. De seus celulares e câmeras amadoras, os leitores deram conta de mostrar o que não era possível para uma única emissora ou site, simplesmente porque não havia como distribuir equipe em tantos lugares num espaço tão curto de tempo. A capilaridade que os cidadãos deram ao noticiário pesou mais do que o fato de seus registros fugirem a um padrão estético vigente.

Quem arrisca?

Acredito que a maior participação do público no noticiário já está alterando, e vai alterar ainda mais, a estética e as práticas produtivas do jornalismo mainstream, e o episódio de terça-feira reforça essa impressão. Vejo, por exemplo, a tendência a uma maior valorização do flagrante em relação ao pautado, e das narrações espontâneas – nas quais caibam as tensões do momento – em relação às roteirizadas. Ganham força ainda os relatos participativos dos leitores que fazem registros jornalísticos e dos jornalistas que se colocam como testemunhas dos acontecimentos, como os leitores.

Como fez na terça-feira o jornalista e apresentador Márcio Gomes, que deixou sua casa, na Fonte da Saudade, rumo à TV Globo, no bairro vizinho do Jardim Botânico, com uma câmera amadora na mão e uma pauta na cabeça. No trajeto foi gravando imagens, colhendo depoimentos e narrando impressões do alagamento da cidade, num registro que misturou o estilo que vem ganhando força com os leitores com o modelo jornalístico da emissora na qual fez carreira. A matéria foi ao ar no RJ TV, telejornal que ancora, e, mais tarde, veiculada em rede no Jornal Nacional.

Quem ainda se arrisca a estabelecer fronteiras rígidas para o jornalismo de hoje?

© Copyleft – É livre a reprodução exclusivamente para fins não comerciais, desde que o autor e a fonte sejam citados e esta nota seja incluída.

>Limites incertos no desenvolvimento sexual

>
Grupo de pesquisa paulista caracteriza 23 disfunções orgânicas do desenvolvimento sexual

Pesquisa FAPESP
Edição 170 – Abril 2010

Carlos Fioravanti

— Maria, você quer ser mulher ou homem?

A médica Berenice Bilharinho Mendonça, ao fazer essa pergunta, buscava uma informação importante para planejar o tratamento de Maria, então com 16 anos, naquele dia usando um vestido florido. Berenice já tinha reparado que Maria olhava constantemente para o chão para que o cabelo comprido encobrisse os pelos de barba do rosto. Os níveis do principal hormônio masculino, a testosterona, eram normais para um homem. Os genitais eram ao mesmo tempo masculinos e femininos, com predomínio do aspecto masculino. Diante da médica, em uma sala do Hospital das Clínicas (HC) de São Paulo, Maria respondeu de modo evasivo, com voz grave e forte sotaque do interior de Minas Gerais:

— Ah. A senhora é que sabe.

Berenice conta que não soube o que fazer de imediato. Não poderia escolher por Maria. Como lhe parecia claro que Maria não se sentia bem como mulher, ela chamou a equipe com que trabalhava – Walter Bloise, Dorina Epps e Ivo Arnhold. Em conjunto, decidiram fazer o que não estava nos manuais de atendimento a pessoas com distúrbios do desenvolvimento sexual. Sugeriram que Maria morasse em São Paulo por um ano e vivesse como homem para ver com qual sexo se adaptava melhor à vida em sociedade.

Maria vestiu roupas masculinas pela primeira vez, ganhou outro nome – digamos, João –, saiu do hospital com o cabelo cortado e trabalhou em um emprego que a assistente social lhe arrumou. Maria gostou de ser João. No HC, desde aquela época uma referência nacional nessa área, Maria passou por uma cirurgia que corrigiu a ambiguidade dos genitais, tornando-os masculinos. Quando Maria nasceu, a parteira havia comentado que bebês como aquele morriam logo, mas João tem hoje 50 anos e, de acordo com as notícias mais recentes, vive bem no interior de Minas Gerais.

João sempre foi homem, do ponto de vista genético. Suas células contêm um cromossomo X e um Y, como todo homem – as mulheres têm dois cromossomos X –, além de 23 pares de cromossomos não ligados ao sexo. Por causa de uma falha em um gene em cromossomo não sexual, porém, seu organismo produz uma quantidade muito baixa da enzima 5-alfa-redutase tipo 2. Em consequência, seus genitais masculinos não tinham se formado por completo e se apresentavam com um aspecto feminino, o que fez com que fosse registrado como mulher.

Seu problema – hoje controlado, embora as células continuem com essa deficiência – expressa um dos 23 tipos de distúrbios de desenvolvimento sexual (DDS) cujas possíveis origens, evolução, sinais e tratamentos Berenice, Arnhold, Elaine Maria Frade Costa e Sorahia Domenice apresentaram no final de 2009 em um artigo publicado na revista Clinical Endocrinology. Reunindo os 30 anos de experiência do próprio grupo ao de outros do Brasil e de outros países, esse trabalho mostra como os defeitos genéticos podem gerar desvios metabólicos que ampliam ou reduzem a produção dos hormônios masculinos e induzem à formação de órgãos sexuais masculinos e femininos, parciais ou completos, em um mesmo indivíduo.

Os relatos que acompanham os diagnósticos normalmente chegam carregados de angústia de pais que nunca souberam dizer com certeza se o bebê que viram nascer era menino ou menina. Berenice lembra que saber o sexo de um recém-nascido é importante não só para responder a uma das primeiras perguntas que os pais ouvem depois que nasce o filho ou filha. É uma informação essencial para decidir que nome dar ao bebê e como tratar a criança, já que muitos adjetivos e substantivos da língua portuguesa têm gênero (masculino ou feminino), tudo isso contribuindo para definir a identidade psicológica das crianças.

Segundo ela, histórias de rejeição normalmente acompanham as crianças com ambiguidade sexual, antes pejorativamente chamadas de hermafroditas ou de pseudo-hermafroditas. O fato de apresentar genitais masculinos e femininos faz muitas meninas serem registradas e viver como meninos – e muitos meninos viverem como meninas. Confundir o sexo de recém-nascidos com ambiguidade sexual é fácil, porque “os genitais geralmente não são bem examinados ao nascimento e as meninas, principalmente as prematuras, muitas vezes apresentam um clitóris aparentemente hipertrofiado”, diz ela.

Genes situados nos cromossomos sexuais (X e Y) ou em qualquer outro dos 23 pares de cromossomos de uma célula humana normal podem apresentar defeitos – ou mutações – e causar um dos 23 tipos de DDS. Tais distúrbios representam um grupo heterogêneo de problemas, alertam Martine Cools, da Universidade de Gent, Bélgica, e três pesquisadores da Holanda em um estudo de maio de 2009 na revista World Journal of Pediatrics. Os mesmos defeitos genéticos podem levar a sinais e sintomas diferentes e, por outro lado, um quadro clínico similar pode resultar de genes diferentes. Em apenas um gene, o SRY, que atua apenas nos primeiros dias de vida intrauterina, podem ocorrer 53 alterações que prejudicam o desenvolvimento sexual. Outras mutações podem reduzir ou ampliar a produção dos hormônios esteroides sexuais, dos quais o mais importante é a testosterona, ou de compostos como o colesterol, um precursor desses hormônios.

Em um estudo de 2004, o grupo da USP apresentou 14 mutações em oito genes que impedem a produção de hormônios ligados ao desenvolvimento sexual. A médica Ana Claudia Latronico, â frente desse trabalho, associou cada mutação às respectivas manifestações externas, com base na avaliação de quase 400 crianças, adolescentes e adultos de todo o país e de países vizinhos atendidos na USP.

Sob a coordenação de Tânia Bachega e Guiomar Madureira, a equipe identificou 18 mutações – pelo menos quatro específicas da população brasileira – que podem levar à forma mais comum de distúrbio de desenvolvimento sexual, a hiperplasia adrenal congênita virilizante, caracterizada pelo desenvolvimento excessivo do clitóris, a ponto de assemelhar-se a um pênis.

Esse distúrbio do desenvolvimento sexual resulta de mutações no gene CYP21A2, localizado no cromossomo 21 (não sexual), que reduzem a produção da enzima 21-hidroxilase. Em consequência, as glândulas suprarrenais produzirão menos do que deveriam de um hormônio, o cortisol, e mais de outro, a testosterona. As meninas sofrem uma virilização dos genitais ao longo da vida uterina – nascem com o clitóris hipertrofiado e uma bolsa escrotal sem testículos recobrindo a vagina – e podem ser registradas como meninos quando a alteração não é identificada logo ao nascimento. Por causa de alterações nesse mesmo gene, os meninos podem apresentar uma forma de hiperplasia que não traz ambiguidade sexual, mas pode implicar uma perda intensa de sal, a ponto de causar lesões cerebrais ou morte por desidratação, caso não sejam tratados a tempo.

Uma em cada 15 mil pessoas tem ou deveria ter essa forma de hiperplasia, de acordo com estudos feitos na Europa ou na América do Norte. Os levantamentos no Brasil são raros. “A geneticista Elizabeth Silveira, co-orientada pela Tânia Bachega, examinou amostras de sangue de recém-nascidos coletadas no estado de Goiás, que faz rotineiramente o teste do pezinho para detectar a deficiência da 21-hidroxilase, e concluiu que a incidência de hiperplasia no Brasil por ano é de um caso para cada 10 mil nascidos vivos”, diz Berenice. Pelo menos 840 casos, portanto, deveriam ter sido diagnosticados nas universidades paulistas e de outros estados. O HC da USP, que deve ter acolhido o maior número de casos, só registrou 380.

“Os pais tendem a esconder ou a negar os distúrbios do desenvolvimento sexual dos filhos, porque reconhecer pode ser emocionalmente doloroso, e a maioria dos portadores de distúrbios de desenvolvimento sexuais só chega aqui quando já são adolescentes ou adultos”, diz Berenice. Em uma situação extrema, há menos de um ano ela atendeu uma mulher de 70 anos que apresentava ambiguidade sexual e só resolveu expor seu problema depois de a mãe, que não a deixava falar, ter morrido.

“Quanto mais cedo possível se fizer o diagnóstico e desfizer a ambiguidade sexual, melhor, de preferência antes dos 2 anos de idade, quando as crianças ainda não estabeleceram as noções de sexo e gênero”, diz a psicóloga Marlene Inácio, que acompanha as pessoas com ambiguidade sexual no HC há 28 anos. No início, ela conta, o diagnóstico que embasava o tratamento podia demorar de seis meses a um ano. “Hoje os resultados dos testes laboratoriais saem em uma semana”, diz.

Em sua tese de doutorado, Marlene reuniu os relatos de 151 pessoas com ambiguidade sexual atendidas no HC, das quais 96 são geneticamente homens (XY) e 55 geneticamente mulheres (XX), com idade entre 18 e 53 anos. Seu propósito, por meio de um questionário com 121 perguntas, era verificar como essas pessoas viveram durante a infância, adolescência e vida adulta, antes e depois de terem sido diagnosticadas e tratadas, e se conseguiram se adaptar do ponto de vista psíquico, social e sexual com o sexo que adotaram.

Marlene conclui que, de modo geral, estão bem. Muitas se casaram ou pretendem se casar. Os homens com ambiguidade sexual são estéreis, por causa da baixa fertilidade do líquido seminal ou por consequências da cirurgia corretiva, mas dois tiveram filhos, por meio de fertilização in vitro com seu próprio sêmen. De um grupo de 20 mulheres com uma das formas do distúrbio do desenvolvimento sexual 46,XY, 18 mudaram de sexo e hoje são homens.

É o caso de outra Maria, que veio do interior da Bahia há cerca de três anos. Tinha voz grossa de homem, ombros largos e braços fortes de tanto trabalhar na lavoura. Vivera até os 16 anos isolada em um quarto nos fundos da casa, com pouco contato com a família, e não sabia ler nem escrever. “Psicologicamente, era um homem, e preferiu ser homem porque precisava da força para se opor aos pais que a tinham feito viver como mulher”, conta Marlene. “Ela tinha clitóris grande, que, segundo ela, lhe dava prazer sexual, e queria ser mecânico.”

Em outro levantamento, Maria Helena Palma Sircili, uma das médicas do grupo, verificou que 90% das 65 pessoas com cariótipo 46,XY (geneticamente homens, mas socialmente mulheres) operadas de 1964 a 2008 no serviço de urologia do HC da USP estavam satisfeitas com o sexo que haviam adotado e haviam se ajustado à mudança; 69% das que optaram pelo sexo masculino e 29% das que preferiram o feminino estavam casadas. Esse estudo, a ser publicado no Journal of Urology, trouxe uma constatação que surpreendeu a própria equipe: a qualidade da atividade sexual não depende do tamanho do pênis.

Os homens que apresentavam ambiguidade sexual podem não ter os genitais tão desenvolvidos quanto os de outros homens – e não reclamaram. “Foi uma surpresa, porque os urologistas dizem que frequentemente os homens, mesmo sem distúrbios sexuais biológicos, reclamam do tamanho peniano”, diz Berenice. Marlene atribuiu esse resultado a uma satisfação maior com a identidade masculina do que simplesmente com as dimensões do pênis: “Nosso trabalho de aconselhamento psicológico propõe a exploração de outras possibilidades de satisfação sexual, erotizando o corpo todo, e não apenas os genitais”.

Esses resultados animam Berenice e sua equipe a entrar em novas situações. Uma delas foi planejada e está em andamento, sob a coordenação de Elaine: as pesquisas com um pequeno peixe de água doce, o paulistinha, também conhecido como zebrafish ou Danio rerio, com o qual pretendem examinar o surgimento de distúrbios sexuais do desenvolvimento. Outra situação foi inesperada: em um congresso realizado no ano passado nos Estados Unidos, Berenice recebeu o convite para participar de uma equipe de cinco assessores do Comitê Olímpico Internacional. Tinham de ajudar a resolver um problema difícil: uma corredora com ambiguidade sexual pode correr entre mulheres? A conclusão a que chegaram é que sim, “se essa corredora estiver sob tratamento, com níveis de testosterona normal para as mulheres”, diz Berenice. Outra proposta dos médicos para o Comitê Olímpico: “Não podemos impedir quem tem genitália ambígua de participar de qualquer modalidade esportiva”.

Esses estudos expressam um estilo de trabalho que valoriza a escolha dos pais de crianças com ambiguidade sexual ou dos próprios adultos com esses distúrbios. Dar voz aos pais implica o reconhecimento de expectativas frustradas com filhos que morreram ao nascer ou com meninas que chegaram no lugar imaginado para meninos. “Antes de o filho nascer, a mãe imagina o que o bebê vai ser; ele existe primeiro em sua mente”, diz a psicanalista Norma Lottenberg Semer, professora da Universidade Federal de São Paulo e membro associado da Sociedade Brasileira de Psicanálise de São Paulo. “O que os filhos serão, em termos sexuais e psíquicos, em parte reflete as fantasias, os sentimentos e os pensamentos dos pais.”

“As condutas de tratamento são estabelecidas em consenso entre os pais e a equipe multidisciplinar”, diz Berenice. Do diagnóstico, segundo ela, participam endocrinologistas, cirurgiões, clínicos, biólogos, psicólogos, psiquiatras e assistentes sociais. “Quando não há consenso entre a orientação médica e o desejo dos pais, o desejo dos pais deve ser respeitado.”

Uma vez sua equipe tratou de uma menina recém-nascida, hoje com 11 anos, que apresentava hiperplasia adrenal congênita, com um clitóris semelhante a um pênis, e tinha sido registrada como menino. Segundo Marlene, os pais escolheram que ela seria homem e não aceitaram a orientação de mudança para o sexo social feminino porque já tinham duas filhas e desejavam um filho. A escolha resultou também de outra razão. “A mãe achava que ser mulher era sinônimo de sofrimento e convivia com a culpa, como o marido dizia, de ter tido uma criança anormal”, conta Marlene. Na cirurgia, os médicos removeram ovários e útero dessa Maria, que terá de tomar hormônio masculino por toda a vida adulta, já que seu organismo não o produz.

Quando são adultos, eles próprios escolhem que sexo querem manter. Foi assim que outra Maria com deficiência da enzima 5-alfa-redutase-2 apareceu lá com um lenço colorido cobrindo o cabelo curto, camisa masculina abotoada até o pescoço e sutiã com enchimento. Maria tinha se apaixonado por outra funcionária da casa em que trabalhava como empregada doméstica. No hospital, Maria vestiu-se como homem e gostou. Também adotou outro nome, Moacir. “Vimos essa transformação imediata, foi linda”, conta Marlene. “O sexo social de Moacir era feminino, mas o psíquico era masculino.” Segundo Marlene, Moacir está casado e feliz.

O diagnóstico para definição do sexo ou da ambiguidade sexual inclui sete itens. Alguns são biológicos, como os níveis de hormônios e as estruturas genitais externas e internas. Outros são subjetivos, como o sexo social – pelo qual um indivíduo é reconhecido por outras pessoas – e a identidade de gênero – se essa mesma pessoa se assume psiquicamente como homem ou como mulher. “A identidade de gênero é ser e ao mesmo tempo sentir-se homem ou mulher”, diz Marlene. Uma pessoa que apenas se sente homem ou mulher, sem nenhum distúrbio biológico nem a identidade sexual correspondente, pode apresentar transtorno psíquico de identidade de gênero.

Em uma dessas vertentes, o transexualismo, uma pessoa biologicamente normal tem a convicção de pertencer a outro sexo, sem aceitar seu próprio sexo. “O transexualismo não está associado a questões genéticas”, diz Norma. “É mais um problema de identidade do que de sexualidade.” São os homens que dizem que são mulheres em corpo de homem. O mais famoso transexual brasileiro, Roberta Close, depois de muitas cirurgias para tornar-se mulher, obteve em 2005 o direito de fazer outra certidão de nascimento, mudando o nome de Luís Roberto Gambine Moreira para Roberta Gambine Moreira e o gênero, de masculino para feminino.

O homossexualismo constitui outro universo distante dos distúrbios biológicos. Nesse caso, a identidade de gênero se mantém: são homens ou mulheres que se aceitam como homens ou mulheres e escolhem outros homens ou mulheres como objetos amorosos. Já nos travestis a identidade de sexo é estável, mas a de gênero é flutuante: os travestis sabem que são homens, mas podem às vezes se comportar como mulheres.

No hospital da USP, só depois do diagnóstico e da escolha do sexo a ser adotado é que a ambiguidade sexual pode ser desfeita, por meio de uma cirurgia de correção da genitália externa masculina ou feminina, seguida de reposição hormonal. “Não queremos apenas tratar e resolver, mas entender as causas de um problema, examinando os dados e a história pessoal de cada paciente, elaborando uma hipótese e, a partir daí, pedindo os exames”, diz Berenice. “Não adianta pedir exames e mais exames sem uma hipótese a ser investigada. Só investigamos os possíveis genes envolvidos em um problema depois de termos em mãos o diagnóstico hormonal. Se não, é caro e inútil.” Ela diz que não quer formar apenas médicos, mas investigadores médicos.

Foi o que se passou com ela. Berenice chegou ao Hospital do Servidor Público Estadual em 1972 para cursar o sexto ano do curso de medicina que havia feito até então na Universidade Federal do Triângulo Mineiro, em Uberaba, Minas Gerais. Voltou um ano depois para fazer residência médica no Hospital das Clínicas da USP e conheceu Walter Bloise, que na época cuidava dos então chamados casos de intersexo.

“Aprendi muito mais do que medicina com o doutor Bloise”, lembra ela. “Aprendi que temos de tratar esses problemas com simplicidade e com tranquilidade, como se fosse uma doença cardíaca ou um lábio leporino.”

Nessa época os testes de dosagem de hormônios eram feitos por meio das clínicas dos próprios médicos, quando possível, já que não havia um laboratório de endocrinologia no hospital. Um dia Antonio Barros de Ulhoa Cintra, o chefe anterior da endocrinologia que havia sido reitor da USP e presidente da FAPESP, cobrou-lhe a dosagem hormonal de um paciente. Ela respondeu:

— Como o senhor sabe, não dosamos hormônios aqui no hospital.

— Na minha época, eu andava com um tubo com sangue de paciente no bolso para dosar cálcio.

— Hoje só de hormônios são 30. Precisamos de um laboratório, doutor Cintra.

Emílio Matar, outro professor, soube da conversa e decidiu pela compra dos equipamentos de dosagem de hormônios. Bloise a incentivou: “Por que você não faz um laboratório?”. Ela fez, em colaboração com o professor Wilian Nicolau. Hoje os 80 funcionários e pesquisadores de sua equipe cuidam da dosagem de 60 hormônios para todo o hospital. Agora ela pretende ampliar a discussão on-line de casos suspeitos de DDS com outros médicos, especialmente pediatras, de todo o país, por internet, para que as pessoas com distúrbios de desenvolvimento sejam logo identificadas e tratadas.

Outra batalha à frente – dela e de toda a equipe – é a implementação do diagnóstico em recém-nascidos das alterações 21-hidroxilase, a enzima que causa a hiperplasia adrenal congênita virilizante no estado de São Paulo. “É um teste que custa apenas R$ 5 e pode evitar erros de diagnóstico do sexo ao nascimento e a mortalidade, que afeta principalmente os meninos, que nascem com os genitais masculinos normais e não são identificados.”

Artigo científico

Mendonça, B.B.; Domenice, S.; Arnhold, I.J.; Costa, E.M. 46,XY disorders of sex development (DSD). Clinical Endocrinology. 2009, 70(2):173-87.

>Metáfora religiosa ajuda a entender a ciência? Bóson de Higgs

>
Em busca da “Partícula de Deus”

Redação do Site Inovação Tecnológica – 02/04/2007

Atlas era um dos titãs da mitologia grega, condenado para sempre a sustentar os céus sobre os ombros. Aqui, Atlas é um dos quatro gigantescos detectores que farão parte do maior acelerador de partículas do mundo, o LHC, que está em fase adiantada de testes e deverá entrar em operação nos próximos meses.

LHC é uma sigla para “Large Hadron Collider”, ou gigantesco colisor de prótons. Parece difícil exagerar as grandezas desse laboratório que está sendo construído a 100 metros de profundidade, na fronteira entre a França e a Suíça. A estrutura completa tem a forma de um anel, construída ao longo de um túnel com 27 quilômetros de circunferência.

As partículas são aceleradas por campos magnéticos ao longo dessa órbita de 27 Km, até atingir altíssimos níveis de energia. Mais especificamente, 7 trilhões de volts. Em quatro pontos do anel, sob temperaturas apenas levemente superiores ao zero absoluto, as partículas se chocam, produzindo uma chuva de outras partículas, recriando um ambiente muito parecido com as condições existentes instantes depois do Big Bang.

Nesses quatro pontos estão localizados quatro detectores. O Atlas, mostrado na foto nas suas etapas finais de montagem, é um deles. O Atlas, assim como o segundo detector, o CMS (“Compact Muon Detector”), é um detector genérico, capaz de detectar qualquer tipo de partícula, inclusive partículas ainda desconhecidas ou não previstas pela teoria. Já o LHCb e o ALICE são detectores “dedicados”, construídos para o estudo de fenômenos físicos específicos.

Bóson de Higgs

Quando os prótons se chocam no centro dos detectores as partículas geradas espalham-se em todas as direções. Para capturá-las, o Atlas e o CMS possuem inúmeras camadas de sensores superpostas, que deverão verificar as propriedades dessas partículas, medir suas energias e descobrir a rota que elas seguem.

O maior interesse dos cientistas é descobrir o Bóson de Higgs, a única peça que falta para montar o quebra-cabeças que explicaria a “materialidade” do nosso universo. Por muito tempo se acreditou que os átomos fossem a unidade indivisível da matéria. Depois, os cientistas descobriram que o próprio átomo era resultado da interação de partículas ainda mais fundamentais. E eles foram descobrindo essas partículas uma a uma. Entre quarks e léptons, férmions e bósons, são 16 partículas fundamentais: 12 partículas de matéria e 4 partículas portadoras de força.

A Partícula de Deus

O problema é que, quando consideradas individualmente, nenhuma dessas partículas tem massa. Ou seja, depois de todos os avanços científicos, ainda não sabemos o que dá “materialidade” ao nosso mundo. O Modelo Padrão, a teoria básica da Física que explica a interação de todas as partículas subatômicas, coloca todas as fichas no Bóson de Higgs, a partícula fundamental que explicaria como a massa se expressa nesse mar de energias. É por isso que os cientistas a chamam de “Partícula de Deus”.

O Modelo Padrão tem um enorme poder explicativo. Toda a nossa ciência e a nossa tecnologia foram criadas a partir dele. Mas os cientistas sabem de suas deficiências. Essa teoria cobre apenas o que chamamos de “matéria ordinária”, essa matéria da qual somos feitos e que pode ser detectada por nossos sentidos.

Mas, se essa teoria não explica porque temos massa, fica claro que o Modelo Padrão consegue dar boas respostas sobre como “a coisa funciona”, mas ainda se cala quando a pergunta é “o que é a coisa”. O Modelo Padrão também não explica a gravidade. E não pretende dar conta dos restantes 95% do nosso universo, presumivelmente preenchidos por outras duas “coisas” que não sabemos o que são: a energia escura e a matéria escura.

É por isso que se coloca tanta fé na Partícula de Deus. Ela poderia explicar a massa de todas as demais partículas. O próprio Bóson de Higgs seria algo como um campo de energia uniforme. Ao contrário da gravidade, que é mais forte onde há mais massa, esse campo energético de Higgs seria constante. Desta forma, ele poderia ser a fonte não apenas da massa da matéria ordinária, mas a fonte da própria energia escura.

Em dois ou três anos saberemos se a teoria está correta ou não. Ou, talvez, nos depararemos com um mundo todo novo, que exigirá novas teorias, novos equipamentos e novas descobertas.

>O maior túmulo do samba (isto é, as ciências cognitivas), levado ao absurdo

>
Next Big Thing in English: Knowing They Know That You Know

By PATRICIA COHEN
The New York Times, March 31, 2010

To illustrate what a growing number of literary scholars consider the most exciting area of new research, Lisa Zunshine, a professor of English at the University of Kentucky, refers to an episode from the TV series “Friends.”

(Follow closely now; this is about the science of English.) Phoebe and Rachel plot to play a joke on Monica and Chandler after they learn the two are secretly dating. The couple discover the prank and try to turn the tables, but Phoebe realizes this turnabout and once again tries to outwit them.

As Phoebe tells Rachel, “They don’t know that we know they know we know.”

This layered process of figuring out what someone else is thinking — of mind reading — is both a common literary device and an essential survival skill. Why human beings are equipped with this capacity and what particular brain functions enable them to do it are questions that have occupied primarily cognitive psychologists.

Now English professors and graduate students are asking them too. They say they’re convinced science not only offers unexpected insights into individual texts, but that it may help to answer fundamental questions about literature’s very existence: Why do we read fiction? Why do we care so passionately about nonexistent characters? What underlying mental processes are activated when we read?

Ms. Zunshine, whose specialty is 18th-century British literature, became familiar with the work of evolutionary psychologists while she was a graduate student at the University of California, Santa Barbara in the 1990s. “I thought this could be the most exciting thing I could ever learn,” she said.

At a time when university literature departments are confronting painful budget cuts, a moribund job market and pointed scrutiny about the purpose and value of an education in the humanities, the cross-pollination of English and psychology is a providing a revitalizing lift.

Jonathan Gottschall, who has written extensively about using evolutionary theory to explain fiction, said “it’s a new moment of hope” in an era when everyone is talking about “the death of the humanities.” To Mr. Gottschall a scientific approach can rescue literature departments from the malaise that has embraced them over the last decade and a half. Zealous enthusiasm for the politically charged and frequently arcane theories that energized departments in the 1970s, ’80s and early ’90s — Marxism, structuralism, psychoanalysis — has faded. Since then a new generation of scholars have been casting about for The Next Big Thing.

The brain may be it. Getting to the root of people’s fascination with fiction and fantasy, Mr. Gottschall said, is like “mapping wonderland.”

Literature, like other fields including history and political science, has looked to the technology of brain imaging and the principles of evolution to provide empirical evidence for unprovable theories.

Interest has bloomed during the last decade. Elaine Scarry, a professor of English at Harvard, has since 2000 hosted a seminar on cognitive theory and the arts. Over the years participants have explored, for example, how the visual cortex works in order to explain why Impressionist paintings give the appearance of shimmering. In a few weeks Stephen Kosslyn, a psychologist at Harvard, will give a talk about mental imagery and memory, both of which are invoked while reading.

Ms. Zunshine said that in 1999 she and about 10 others won approval from the Modern Language Association to form a discussion group on cognitive approaches to literature. Last year their members numbered more than 1,200. Unlike Mr. Gottschall, however, Ms. Zunshine sees cognitive approaches as building on other literary theories rather than replacing them.

Ms. Zunshine is particularly interested in what cognitive scientists call the theory of mind, which involves one person’s ability to interpret another person’s mental state and to pinpoint the source of a particular piece of information in order to assess its validity.

Jane Austen’s novels are frequently constructed around mistaken interpretations. In “Emma” the eponymous heroine assumes Mr. Elton’s attentions signal a romantic interest in her friend Harriet, though he is actually intent on marrying Emma. She similarly misinterprets the behavior of Frank Churchill and Mr. Knightly, and misses the true objects of their affections.

Humans can comfortably keep track of three different mental states at a time, Ms. Zunshine said. For example, the proposition “Peter said that Paul believed that Mary liked chocolate” is not too hard to follow. Add a fourth level, though, and it’s suddenly more difficult. And experiments have shown that at the fifth level understanding drops off by 60 percent, Ms. Zunshine said. Modernist authors like Virginia Woolf are especially challenging because she asks readers to keep up with six different mental states, or what the scholars call levels of intentionality.

Perhaps the human facility with three levels is related to the intrigues of sexual mating, Ms. Zunshine suggested. Do I think he is attracted to her or me? Whatever the root cause, Ms. Zunshine argues, people find the interaction of three minds compelling. “If I have some ideological agenda,” she said, “I would try to construct a narrative that involved a triangularization of minds, because that is something we find particularly satisfying.”

Ms. Zunshine is part of a research team composed of literary scholars and cognitive psychologists who are using snapshots of the brain at work to explore the mechanics of reading. The project, funded by the Teagle Foundation and hosted by the Haskins Laboratory in New Haven, is aimed at improving college-level reading skills.

“We begin by assuming that there is a difference between the kind of reading that people do when they read Marcel Proust or Henry James and a newspaper, that there is a value added cognitively when we read complex literary texts,” said Michael Holquist, professor emeritus of comparative literature at Yale, who is leading the project.

The team spent nearly a year figuring how one might test for complexity. What they came up with was mind reading — or how well an individual is able to track multiple sources. The pilot study, which he hopes will start later this spring, will involve 12 subjects. “Each will be put into the magnet” — an M.R.I. machine — “and given a set of texts of graduated complexity depending on the difficulty of source monitoring and we’ll watch what happens in the brain,” Mr. Holquist explained.

At the other end of the country Blakey Vermeule, an associate professor of English at Stanford, is examining theory of mind from a different perspective. She starts from the assumption that evolution had a hand in our love of fiction, and then goes on to examine the narrative technique known as “free indirect style,” which mingles the character’s voice with the narrator’s. Indirect style enables readers to inhabit two or even three mind-sets at a time.

This style, which became the hallmark of the novel beginning in the 19th century with Jane Austen, evolved because it satisfies our “intense interest in other people’s secret thoughts and motivations,” Ms. Vermeule said.

The road between the two cultures — science and literature — can go both ways. “Fiction provides a new perspective on what happens in evolution,” said William Flesch, a professor of English at Brandeis University.

To Mr. Flesch fictional accounts help explain how altruism evolved despite our selfish genes. Fictional heroes are what he calls “altruistic punishers,” people who right wrongs even if they personally have nothing to gain. “To give us an incentive to monitor and ensure cooperation, nature endows us with a pleasing sense of outrage” at cheaters, and delight when they are punished, Mr. Flesch argues. We enjoy fiction because it is teeming with altruistic punishers: Odysseus, Don Quixote, Hamlet, Hercule Poirot.

“It’s not that evolution gives us insight into fiction,” Mr. Flesch said, “but that fiction gives us insight into evolution.”

>Geoengenharia

>
Especiais
Caminhos para o clima

31/3/2010

Por Fábio de Castro

Agência FAPESP – Cientistas brasileiros e britânicos discutiram nesta terça-feira (30/3), por meio de videoconferência, possibilidades de cooperação entre instituições dos dois países para desenvolvimento de estudos e programas de pesquisa conjuntos na área de geoengenharia, que inclui diversos métodos de intervenção de larga escala no sistema climático do planeta, com a finalidade de moderar o aquecimento global.

O “Café Scientifique: Encontro Brasileiro-Britânico sobre Geoengenharia”, promovido pelo British Council, Royal Society e FAPESP, foi realizado nas sedes do British Council em São Paulo e em Londres, na Inglaterra.

O ponto de partida para a discussão foi o relatório Geoengenharia para o clima: Ciência, governança e incerteza, apresentado pelo professor John Shepherd, da Royal Society. Em seguida, Luiz Gylvan Meira Filho, pesquisador do Instituto de Estudos Avançados da Universidade de São Paulo (USP), apresentou um breve panorama da geoengenharia no Brasil.

A FAPESP foi representada pelo coordenador executivo do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, Carlos Afonso Nobre, pesquisador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Instituto Nacional de Pesquisas Espaciais (Inpe).

De acordo com Nobre, a reunião serviu para um contato inicial entre os cientistas dos dois países. “A reunião teve um caráter exploratório, já que o próprio conceito de geoengenharia ainda não foi definido com precisão. O objetivo principal era avaliar o interesse das duas partes em iniciar alguma pesquisa conjunta nessa área e expor potenciais contribuições que cada um pode dar nesse sentido”, disse Nobre à Agência FAPESP.

Segundo Nobre, a geoengenharia é um conjunto de possibilidades de intervenção dividido em dois métodos bastante distintos: o manejo de radiação solar e a remoção de dióxido de carbono. Durante a reunião, os brasileiros deixaram claro que têm interesse apenas na segunda vertente.

O manejo de radiação solar, de acordo com o relatório britânico, inclui técnicas capazes de refletir a luz do Sol a fim de diminuir o aquecimento global, como a instalação de espelhos no espaço, o uso de aerossóis estratosféricos – com aplicação de sulfatos, por exemplo –, reforço do albedo das nuvens e incremento do albedo da superfície terrestre, com instalação de telhados brancos nas edificações.

A remoção de dióxido de carbono, por outro lado, inclui metodologias de captura do carbono da atmosfera – ou “árvores artificiais” –, geração de carbono por pirólise de biomassa, sequestro de carbono por meio de bioenergia, fertilização do oceano e armazenamento de carbono no solo ou nos oceanos.

A principal diferença entre as duas vertentes é que os métodos de manejo de radiação solar funcionam com mais rapidez, em prazos de um ou dois anos, enquanto os métodos de remoção de gás carbônico levam várias décadas para surtirem efeito.

Sem plano B

O relatório avaliou todas as técnicas segundo eficácia, prazo de funcionamento, segurança e custo. Seria preciso ainda estudar os impactos sociais, politicos e éticos, de acordo com os cientistas britânicos.

Nobre aponta que o Brasil teria interesse em contribuir com estudos relacionados à vertente da remoção de dióxido de carbono, que seria coerente com o estágio avançado das pesquisas já realizadas no país em áreas como bioenergia e métodos de captura de carbono.

“Sou muito cético em relação ao manejo de energia de radiação solar. A implementação dessas técnicas é rápida, mas, quando esses dispositivos forem desativados – o que ocorrerá inevitavelmente, já que não é sustentável mantê-los por vários milênios –, a situação do clima voltará rapidamente ao cenário anterior. Seria preciso, necessariamente, reduzir rapidamente a causa das mudanças climáticas, que são as emissões de gases de efeito estufa”, disse Nobre.

De acordo com ele, as técnicas de manejo de energia solar são vistas, em geral, como um “plano B”, em caso de iminência de um desastre climático de grandes consequências. Ou seja, seriam acionadas emergencialmente quando os sistemas climáticos estivessem atingindo pontos de saturação que provocariam mudanças irreversíveis – os chamados tipping points.

“Mas o problema é que vários tipping points foram atingidos e já não há mais plano B. O derretimento do gelo do Ártico, por exemplo, de acordo com 80% dos glaciologistas, atingiu o ponto de saturação. Em algumas décadas, no verão, ali não haverá mais gelo. Não podemos criar a ilusão de que é possível acionar um plano B. Não há sistemas de governança capazes de definir o momento de lançar essas alternativas”, disse.

A vertente da remoção do dióxido de carbono, por outro lado, deverá ser amplamente estudada, de acordo com Nobre. “Essa vertente segue a linha lógica do restabelecimento da qualidade atmosférica. O princípio é fazer a concentração dos gases voltar a um estado de equilíbrio no qual o planeta se manteve por pelo menos 1 ou 2 milhões de anos.”

Ainda assim, essas soluções de engenharia climáticas devem ser encaradas com cuidado. “A natureza é muito complexa e as soluções de engenharia não são fáceis, especialmente em escala global. Acho que vale a pena estudar as várias técnicas de remoção de gás carbônico e definir quais delas têm potencial – mas sempre lembrando que são processos lentos que vão levar décadas ou séculos. Nada elimina a necessidade de reduzir emissões”, disse Nobre.

>Google, China and hacktivism (N.Y.Times)

>
Google Links Web Attacks to Vietnam Mine Dispute

By BETTINA WASSENER
The New York Times, March 31, 2010

HONG KONG — Google, fresh off a dispute with China over censorship and intrusion from hackers, says it has identified cyber-attacks aimed at silencing critics of a controversial, Chinese-backed bauxite mining project in Vietnam.

In attacks it described as similar to but less sophisticated than those at the core of its spat with China, Google said malicious software was used to infect “potentially tens of thousands of computers,” broadly targeting Vietnamese speaking computer users around the world.

Infected machines had been used to spy on their owners and to attack blogs containing messages of political dissent, wrote Neel Mehta of the company’s security team in a post late Tuesday on Google’s online security blog.

McAfee, the computer security firm, said in a separate blog posting that it believed “the perpetrators may have political motivations and may have some allegiance to the government of the Socialist Republic of Vietnam.”

It added: “This incident underscores that not every attack is motivated by data theft or money. This is likely the latest example of hacktivism and politically motivated cyberattacks, which are on the rise.”

Google said that while the malware itself was not especially sophisticated, “it has nonetheless been used for damaging purposes.”

“Specifically, these attacks have tried to squelch opposition to bauxite mining efforts in Vietnam, an important and emotionally charged issue in the country.”

Bauxite is a key mineral in making aluminum and one of Vietnam’s most valuable natural resources. Plans by the Vietnamese government to exploit bauxite in the Central Highlands region, in partnership with a Chinese state-run company, have generated much local criticism, including from a well-known war hero, Gen. Vo Nguyen Giap.

General Giap and other opponents say the project will be ruinous to the environment, displace ethnic minority populations and threaten the south-east Asian country’s national security with an influx of Chinese workers and economic leverage.

The role of China in the bauxite project also has stirred up anger in a nation that still fears its bigger neighbor: Vietnam was a tributary state of China for 1,000 years and was invaded by China in 1979, and the two countries continue to joust for sovereignty in the South China Sea.

>Referência em previsões climáticas

>
Agência FAPESP – 26/3/2010

O Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Instituto Nacional de Pesquisas Espaciais (Inpe), passará a integrar um seleto grupo de centros mundiais de previsão climática sazonal.

O centro foi recomendado pela Comissão para Sistemas Básicos da Organização Meteorológica Mundial (OMM) como um Global Producing Center (GPC) ou Centro Produtor Global de previsões de longo prazo.

Após confirmação da OMM – prevista para junho deste ano – o CPTEC receberá um selo de qualidade para suas previsões climáticas sazonais. Segundo avaliação dos especialistas da OMM, o CPTEC atende a vários critérios, com destaque para a metodologia empregada, disseminação de produtos de previsão na internet e existência de um ciclo operacional fixo de previsão climática sazonal.

Em contrapartida, o centro passará a participar de atividades internacionais da OMM, contribuindo com o Centro de Verificação de Previsão de Longo Prazo. Desde 2006, a OMM, por meio do Programa Global de Processamento de Dados e Sistemas de Previsão, passou a atestar a qualidade dos centros de pesquisa e de previsão climática que atendam a determinados quesitos, intitulando-os GPCs de previsões de longo prazo.

Com a recomendação, o CPTEC passará também a integrar um grupo de centros mundiais de previsão climática sazonal, como os National Centers for Environmental Prediction (Estados Unidos), o European Centre for Medium-Range Weather Forecasts (União Europeia), o UK Met Office (Reino Unido), o Meteo-France, o Metorological Service of Canada, o Bureau of Meteorology da Austrália e o Japan Meteorological Agency, entre outros.

>UnB forma primeira aluna indígena

>
UNB Agência de Notícias, 24/03/2010

Maria Amazonir, da etnia Fulni-ô, é a primeira aluna indígena a graduar-se na UnB. Ela recebeu o diploma de bacharel em Comunicação Social na última quarta feira, dia 17 de março. Amazonir está entre os 60 estudantes indígenas que entraram na UnB desde que o convênio com a Funai foi firmado, em 2004. Como jornalista, Amazonir pretende mudar a forma como os indígenas são tratados pela mídia.

Maria Amazonir entrou na UnB no primeiro semestre de 2004, por meio de transferência facultativa. Segundo ela, já trabalhava com Comunicação em sua aldeia, de forma amadora, organizando eventos e palestras para as crianças sobre conscientização dos seus direitos, mas não pensava em ser jornalista. “Era o que eu gostava de fazer e queria me profissionalizar nesta área. Mas a palavra ’jornalista’ parecia grande demais para a minha realidade. Quando mencionava, era ridicularizada pelos outros”, conta Amazonir.

Mas Amazonir não desistiu do que queria. Conseguiu ajuda de uma colega, que pagou cursinho para ela. Passou em uma faculdade particular, conseguiu fazer a matrícula com dinheiro emprestado, mas logo saiu o convênio da Funai com a UnB e a estudante conseguiu a transferência facultativa.

A estudante escolheu Jornalismo porque percebeu que havia pouco espaço para os povos indígenas na mídia e acreditava que isso se devia à falta de profissionais na área. Agora que se formou, quer dar continuidade ao trabalho que começou com seu projeto de conclusão de curso, um programa para debater questões indígenas sob o ponto de vista do índio. “Não é justa a forma de como os meios de comunicação e principalmente a televisão tratam a imagem do índio. Não somos mais dependentes, somos capazes de desenvolver qualquer função social e/ou cultural que o não-índio desenvolve”, defende.

O coordenador acadêmico dos Alunos Indígenas, Paulo Câmara, comemora a formatura de Amazonir. “É chato quando ouvimos que os índios não devem estar aqui, que universidade é só para a elite intelectual. Por isso é muito bom ver a Amazonir se formar com bom rendimento”, enfatiza.

A decana de Ensino de Graduação, Márcia Abrahão, que estava na colação de grau da aluna, acredita que a formatura de Amazonir representa a vitória da diversidade. Segundo ela, a ambientação dos alunos indígenas e o choque de cultura são desafios que ainda precisam ser contornados. “Mesmo assim, sentimos que estamos contribuindo para o desenvolvimento do país e, por outro lado, estamos ganhando, aprendendo com a cultura desses estudantes”, explica.

A UnB tem hoje 60 alunos indígenas, que entram por meio de convênio firmado entre a Funai e a UnB. A universidade disponibiliza as vagas, e a Funai oferece bolsas de permanência, que variam entre R$ 150 e R$ 900. Em 2004, quando a parceria começou, os estudantes ingressavam por transferência facultativa. Desde 2005, a seleção é feita anualmente por vestibular específico, que ano passado teve 162 inscritos para preencher dez vagas nos cursos de Agronomia, Enfermagem e Obstetrícia, Engenharia Florestal, Medicina e Nutrição.

Dificuldade de entrosamento

Camila de Magalhães
Correio Braziliense, 24/06/2009

“Caí de paraquedas na universidade”, relata Amazonir. “Quando fui jogada aqui, era que nem cego em tiroteio, acho injusto fazerem isso”, reclama. A indígena diz que sofreu muito para acompanhar os textos dados em aula. E afirma que tinha vergonha de perguntar o que era resenha ou fichamento, para não parecer ignorante.

O que mais valeu a pena, na avaliação da jornalista, foi a base acadêmica adquirida no período. No entanto, a adaptação com os colegas foi o mais difícil. “A gente tem um sentimento de inferioridade, me sinto diferente”, comenta.

Quando andava sozinha, as pessoas não percebiam sua origem pela aparência, mas ao passear pelas ruas com o ex-marido e as filhas, ela diz que as pessoas tinham um olhar desconfiado, por conta dos fortes traços indígenas. Junto com a necessidade de dedicação ao curso, o preconceito foi um dos motivos para que o companheiro quisesse deixar Brasília e voltar para a aldeia.

Para Amazonir, seu sotaque também foi um empecilho na universidade. “Fazia de tudo para não falar porque eu abria a boca e as pessoas perguntavam de onde eu era”, observa. Durante os cinco anos de experiência acadêmica, a indigena conta que não fez amizades porque a diferença de idade atrapalhava (os alunos eram mais novos) e ela não se enquadrava no tipo de grupo que faz trabalho e vai para o barzinho. “Prefiro ficar de for a, é uma auto-defesa”.

>The beginning of modern tornado forecasting

>
Fawbush and Miller

By Bill Murray
Whatever-weather.com, March 20, 2010

The Californian had little experience with forecasting Midwestern weather. He had been at Tinker Air Force Base in Oklahoma less than three weeks. When World War II broke out, he left his classes at Occidental College where he was enrolled, and enlisted in the Army Air Corps. He ended up in the weather forecaster school in Grand Rapids, Michigan. The demand was so great that new forecasters were put to work after a hurried nine month course in meteorology. His tours of duty were mainly in the South Pacific, forecasting weather for the forces that were battling the Axis. He was eventually promoted to the rank of Captain.

At the end of the war, he was assigned to Fort Benning in Georgia, where he honed his ability to map out the details of weather at different altitudes and visualize those details. This ability to understand a three dimensional picture of the atmosphere is critical to weather forecasting. On the afternoon of March 20, 1948, he plotted the weather at the surface and aloft across the vast and flat terrain of the American Plains. There was nothing on the charts out of the ordinary It looked like a dry and boring forecast with just some gusty winds through the evening hours.

He settled in to get acquainted with the backup forecaster, who was also from California. About 9 p.m., much to the forecasters’ surprise, they began to see surface reports of lightning from stations just to the southwest and west of Oklahoma City. Echoes appeared on their weather radar, less than twenty minutes away. The backup forecaster, a Staff Sergeant, sat down to type up a warning that thunderstorms were approaching. To their horror, at 9:52 p.m., a report streamed across the teletype from Will Rogers Airport, just seven miles to their southwest that a tornado was on the ground, visible from the airport. Sure enough, illuminated by lightning, a huge funnel was visible almost immediately. It roared across the base, doing $10 million worth of damage and injuring several personnel.

There were recriminations immediately. A panel of investigators from Washington flew in the next morning. The nervous weather officer and his superior answered questions. The board of inquiry listened to the facts and quickly rendered a decision. The event was not forecastable given the state of the art in meteorology. But later that day, Colonel Robert Miller and Major Ernest Fawbush were summoned to the Commanding General’s office. He directed Fawbush and Miller to investigate the possibility of forecasting tornadoes.

They reviewed the weather charts from the day before, as well as those from other tornadic events. They identified that tornadoes seemed to occur in warm, moist airmasses, with strong winds aloft. But the difficulty lay in delineating the areas which were most likely to experience the destructive storms. Issuing a tornado forecast for a single point seemed improbable.

But less than a week later on the 25th, Fawbush and Miller looked at their weather charts and then at each other. The weather pattern looked nearly identical to that of the 20th. What were the odds that another tornado would strike the base? Infinitesimal. They went to the General and told him what they saw. The General ordered the base secured. They reconvened with the General at early afternoon. It was then that they issued the first tornado forecast. Sure enough, a tornado moved across the well-prepared base that evening.

It was the beginning of modern tornado forecasting.

[This is one more historical example of the fact that unpredictability raises the specter of blame and accountability to forecasters. RT]

>Understanding Scientific Terms About Climate Change

>
Certainty vs. Uncertainty

Union of Concerned Scientists – http://www.ucsusa.org
Last Revised: 03/17/10

Uncertainty is ubiquitous in our daily lives. We are uncertain about where to go to college, when and if to get married, who will play in the World Series, and so on.

To most of us, uncertainty means not knowing. To scientists, however, uncertainty is how well something is known. And, therein lies an important difference, especially when trying to understand what is known about climate change.

In science, there’s no such thing as absolute certainty. But, research reduces uncertainty. In many cases, theories have been tested and analyzed and examined so thoroughly that their chance of being wrong is infinitesimal. Other times, uncertainties linger despite lengthy research. In those cases, scientists make it their job to explain how well something is known. When gaps in knowledge exist, scientists qualify the evidence to ensure others don’t form conclusions that go beyond what is known.

Even though it may seem counterintuitive, scientists like to point out the level of uncertainty. Why? Because they want to be as transparent as possible and it shows how well certain phenomena are understood. Scientists have even developed their own phrasing regarding uncertainty, such as “very high confidence” (9 out of 10 chances of being correct) about a certain fact and “very likely” (90 chances out of 100) to describe the chance of an outcome.

Decision makers in our society use scientific input all the time. But they could make a critically wrong choice if the unknowns aren’t taken into account. For instance, city planners could build a levee too low or not evacuate enough coastal communities along an expected landfall zone of a hurricane if uncertainty is understated. For these reasons, uncertainty plays a key role in informing public policy.

However, this culture of transparency has caused problems for climate change science. Climate change deniers link certainty projections with not knowing anything. The truth is, science knows much about climate change. We have learned, for example, that the burning of fossil fuels and the clearing or burning of land creates carbon dioxide (CO2), which is released into the atmosphere. There is no uncertainty about this. We have learned that carbon dioxide and other greenhouse gases build up in the atmosphere and trap heat through the greenhouse effect.

Again, there is no uncertainty about this. Earth is warming, and scientists are very certain that humans are the main reason for the world’s temperature increase in the past 50 years.

Scientists know with very high confidence, or even greater certainty, that:

  • Human-induced warming influences physical and biological systems throughout the world
  • Sea levels are rising
  • Glaciers and permafrost are shrinking
  • Oceans are becoming more acidic
  • Ranges of plants and animals are shifting

Scientists are uncertain, however, about how much global warming will occur in the future (between 2.1 degrees and 11 degrees Fahrenheit by 2100). They are also uncertain how soon the sea ice habitat where the ringed seal lives will disappear. Curiously, much of this uncertainty has to do with—are you ready?—humans. The choices we make in the next decade, or so, to reduce emissions of heat-trapping gasses could prevent catastrophic climate change.

So, what’s the bottom line? Science has learned much about climate change. Science tells us what is more or less likely to be true. The latest climate science underscores that there’s an urgent need to reduce heat-trapping emissions. And that is certain.

Table: Language to describe confidence about facts and the likelihood of an outcome.  SOURCE: IPCC WGI (2007).

Terminology for describing confidence about facts
Very High confidence At least 9 out of 10 chance of being correct
High confidence About 8 out of 10 chance
Medium confidence About 5 out of 10 chance
Low confidence About 2 out of 10 chance
Very low confidence Less than 1 out of 10 chance

Terminology for describing likelihood of an outcome
Virtually certain More than 99 chances out of 100
Extremely likely More than 95 chances out of 100
Very likely More than 90 chances out of 100
Likely More than 65 chances out of 100
More likely than not More than 50 chances out of 100


>The clouds of unknowing (The Economist)

>
The science of climate change

There are lots of uncertainties in climate science. But that does not mean it is fundamentally wrong

Mar 18th 2010 | From The Economist print edition

FOR anyone who thinks that climate science must be unimpeachable to be useful, the past few months have been a depressing time. A large stash of e-mails from and to investigators at the Climatic Research Unit of the University of East Anglia provided more than enough evidence for concern about the way some climate science is done. That the picture they painted, when seen in the round—or as much of the round as the incomplete selection available allows—was not as alarming as the most damning quotes taken out of context is little comfort. They offered plenty of grounds for both shame and blame.

At about the same time, glaciologists pointed out that a statement concerning Himalayan glaciers in the most recent report of the Intergovernmental Panel on Climate Change (IPCC) was wrong. This led to the discovery of other poorly worded or poorly sourced claims made by the IPCC, which seeks to create a scientific consensus for the world’s politicians, and to more general worries about the panel’s partiality, transparency and leadership. Taken together, and buttressed by previous criticisms, these two revelations have raised levels of scepticism about the consensus on climate change to new heights.

Increased antsiness about action on climate change can also be traced to the recession, the unedifying spectacle of last December’s climate-change summit in Copenhagen, the political realities of the American Senate and an abnormally cold winter in much of the northern hemisphere. The new doubts about the science, though, are clearly also a part of that story. Should they be?

In any complex scientific picture of the world there will be gaps, misperceptions and mistakes. Whether your impression is dominated by the whole or the holes will depend on your attitude to the project at hand. You might say that some see a jigsaw where others see a house of cards. Jigsaw types have in mind an overall picture and are open to bits being taken out, moved around or abandoned should they not fit. Those who see houses of cards think that if any piece is removed, the whole lot falls down. When it comes to climate, academic scientists are jigsaw types, dissenters from their view house-of-cards-ists.

The defenders of the consensus tend to stress the general consilience of their efforts—the way that data, theory and modelling back each other up. Doubters see this as a thoroughgoing version of “confirmation bias”, the tendency people have to select the evidence that agrees with their original outlook. But although there is undoubtedly some degree of that (the errors in the IPCC, such as they are, all make the problem look worse, not better) there is still genuine power to the way different arguments and datasets in climate science tend to reinforce each other.

The doubters tend to focus on specific bits of empirical evidence, not on the whole picture. This is worthwhile—facts do need to be well grounded—but it can make the doubts seem more fundamental than they are. People often assume that data are simple, graspable and trustworthy, whereas theory is complex, recondite and slippery, and so give the former priority. In the case of climate change, as in much of science, the reverse is at least as fair a picture. Data are vexatious; theory is quite straightforward. Constructing a set of data that tells you about the temperature of the Earth over time is much harder than putting together the basic theoretical story of how the temperature should be changing, given what else is known about the universe in general.

Absorb and reflect

The most relevant part of that universal what-else is the requirement laid down by thermodynamics that, for a planet at a constant temperature, the amount of energy absorbed as sunlight and the amount emitted back to space in the longer wavelengths of the infra-red must be the same. In the case of the Earth, the amount of sunlight absorbed is 239 watts per square metre. According to the laws of thermodynamics, a simple body emitting energy at that rate should have a temperature of about –18ºC. You do not need a comprehensive set of surface-temperature data to notice that this is not the average temperature at which humanity goes about its business. The discrepancy is due to greenhouse gases in the atmosphere, which absorb and re-emit infra-red radiation, and thus keep the lower atmosphere, and the surface, warm (see the diagram below). The radiation that gets out to the cosmos comes mostly from above the bulk of the greenhouse gases, where the air temperature is indeed around –18ºC.

Adding to those greenhouse gases in the atmosphere makes it harder still for the energy to get out. As a result, the surface and the lower atmosphere warm up. This changes the average temperature, the way energy moves from the planet’s surface to the atmosphere above it and the way that energy flows from equator to poles, thus changing the patterns of the weather.

No one doubts that carbon dioxide is a greenhouse gas, good at absorbing infra-red radiation. It is also well established that human activity is putting more of it into the atmosphere than natural processes can currently remove. Measurements made since the 1950s show the level of carbon dioxide rising year on year, from 316 parts per million (ppm) in 1959 to 387ppm in 2009. Less direct records show that the rise began about 1750, and that the level was stable at around 280ppm for about 10,000 years before that. This fits with human history: in the middle of the 18th century people started to burn fossil fuels in order to power industrial machinery. Analysis of carbon isotopes, among other things, shows that the carbon dioxide from industry accounts for most of the build-up in the atmosphere.

The serious disagreements start when discussion turns to the level of warming associated with that rise in carbon dioxide. For various reasons, scientists would not expect temperatures simply to rise in step with the carbon dioxide (and other greenhouse gases). The climate is a noisy thing, with ups and downs of its own that can make trends hard to detect. What’s more, the oceans can absorb a great deal of heat—and there is evidence that they have done so—and in storing heat away, they add inertia to the system. This means that the atmosphere will warm more slowly than a given level of greenhouse gas would lead you to expect.

There are three records of land-surface temperature put together from thermometer readings in common use by climatologists, one of which is compiled at the Climatic Research Unit of e-mail infamy. They all show warming, and, within academia, their reliability is widely accepted. Various industrious bloggers are not so convinced. They think that adjustments made to the raw data introduce a warming bias. They also think the effects of urbanisation have confused the data because towns, which are sources of heat, have grown up near weather stations. Anthony Watts, a retired weather forecaster who blogs on climate, has set up a site, surfacestations.org, where volunteers can help record the actual sites of weather instruments used to provide climate data, showing whether they are situated close to asphalt or affected by sources of bias.

Those who compile the data are aware of this urban heat-island effect, and try in various ways to compensate for it. Their efforts may be insufficient, but various lines of evidence suggest that any errors it is inserting are not too bad. The heat-island effect is likely to be strongest on still nights, for example, yet trends from data recorded on still nights are not that different from those from windy ones. And the temperature of waters at the surface of the seas shows similar trends to that on land over the past century, as does the record of air temperature over the oceans as measured at night (see chart 1).

A recent analysis by Matthew Menne and his colleagues at America’s National Oceanic and Atmospheric Administration, published in the Journal of Geophysical Research, argued that trends calculated from climate stations that surfacestation.org found to be poorly sited and from those it found well sited were more or less indistinguishable. Mr Watts has problems with that analysis, and promises a thorough study of the project’s findings later.

There is undoubtedly room for improvement in the surface-temperature record—not least because, at the moment, it provides only monthly mean temperatures, and there are other things people would like to know about. (When worrying about future heatwaves, for example, hot days and nights, not hot months, are the figures of most interest.) In February Britain’s Met (ie, meteorological) Office called for the creation of a new set of temperature databases compiled in rigorously transparent ways and open to analysis and interpretation by all and sundry. Such an initiative would serve science well, help restore the credibility of land-surface records, and demonstrate an openness on the part of climate science which has not always been evident in the past.

Simplify and amplify

For many, the facts that an increase in carbon dioxide should produce warming, and that warming is observed in a number of different indicators and measurements, add up to a primafacie case for accepting that greenhouse gases are warming the Earth and that the higher levels of greenhouse gases that business as usual would bring over the course of this century would warm it a lot further.

The warming caused by a given increase in carbon dioxide can be calculated on the basis of laboratory measurements which show how much infra-red radiation at which specific wavelengths carbon dioxide molecules absorb. This sort of work shows that if you double the carbon dioxide level you get about 1ºC of warming. So the shift from the pre-industrial 280ppm to 560ppm, a level which on current trends might be reached around 2070, makes the world a degree warmer. If the level were to double again, to 1,100ppm, which seems unlikely, you would get another degree.

The amount of warming expected for a doubling of carbon dioxide has become known as the “climate sensitivity”—and a climate sensitivity of one degree would be small enough to end most climate-related worries. But carbon dioxide’s direct effect is not the only thing to worry about. Several types of feedback can amplify its effect. The most important involve water vapour, which is now quite well understood, and clouds, which are not. It is on these areas that academic doubters tend to focus.

As carbon dioxide warms the air it also moistens it, and because water vapour is a powerful greenhouse gas, that will provide further warming. Other things people do—such as clearing land for farms, and irrigating them—also change water vapour levels, and these can be significant on a regional level. But the effects are not as large.

Climate doubters raise various questions about water vapour, some trivial, some serious. A trivial one is to argue that because water vapour is such a powerful greenhouse gas, carbon dioxide is unimportant. But this ignores the fact that the level of water vapour depends on temperature. A higher level of carbon dioxide, by contrast, governs temperature, and can endure for centuries.

A more serious doubting point has to do with the manner of the moistening. In the 1990s Richard Lindzen, a professor of meteorology at the Massachusetts Institute of Technology, pointed out that there were ways in which moistening might not greatly enhance warming. The subsequent two decades have seen much observational and theoretical work aimed at this problem. New satellites can now track water vapour in the atmosphere far better than before (see chart 2). As a result preliminary estimates based on simplifications have been shown to be reasonably robust, with water-vapour feedbacks increasing the warming to be expected from a doubling of carbon dioxide from 1ºC without water vapour to about 1.7ºC. Dr Lindzen agrees that for parts of the atmosphere without clouds this is probably about right.

This moistening offers a helpful way to see what sort of climate change is going on. When water vapour condenses into cloud droplets it gives up energy and warms the surrounding air. This means that in a world where greenhouse warming is wetting the atmosphere, the lower parts of the atmosphere should warm at a greater rate than the surface, most notably in the tropics. At the same time, in an effect that does not depend on water vapour, an increase in carbon dioxide will cause the upper stratosphere to cool. This pattern of warming down below and cooling up on top is expected from greenhouse warming, but would not be expected if something other than the greenhouse effect was warming the world: a hotter sun would heat the stratosphere more, not less.

During the 1990s this was a point on which doubters laid considerable weight, because satellite measurements did not show the warming in the lower atmosphere that theory would predict. Over the past ten years, though, this picture has changed. To begin with, only one team was turning data from the relevant instruments that have flown on weather satellites since the 1970s into a temperature record resolved by altitude. Now others have joined them, and identified errors in the way that the calculations (which are complex and depend on a number of finicky details) were carried out. Though different teams still get different amounts and rates of warming in the lower atmosphere, there is no longer any denying that warming is seen. Stratospheric cooling is complicated by the effects of ozone depletion, but those do not seem large enough to account for the degree of cooling that has been seen there, further strengthening the case for warming by the greenhouse effect and not some other form of climate perturbation.

On top of the effect of water vapour, though, the clouds that form from it provide a further and greater source of uncertainty. On the one hand, the droplets of water of which these are made also have a strong greenhouse effect. On the other, water vapour is transparent, whereas clouds reflect light. In particular, they reflect sunlight back into space, stopping it from being absorbed by the Earth. Clouds can thus have a marked cooling effect and also a marked warming effect. Which will grow more in a greenhouse world?

Model maze

It is at this point that detailed computer models of the climate need to be called into play. These models slice the atmosphere and oceans into stacks of three-dimensional cells. The state of the air (temperature, pressure, etc) within each cell is continuously updated on the basis of what its state used to be, what is going on in adjacent cells and the greenhousing and other properties of its contents.

These models are phenomenally complex. They are also gross oversimplifications. The size of the cells stops them from explicitly capturing processes that take place at scales smaller than a hundred kilometres or so, which includes the processes that create clouds.

Despite their limitations, climate models do capture various aspects of the real world’s climate: seasons, trade winds, monsoons and the like. They also put clouds in the places where they are seen. When used to explore the effect of an increase in atmospheric greenhouse gases on the climate these models, which have been developed by different teams, all predict more warming than greenhouse gases and water-vapour feedback can supply unaided. The models assessed for the IPCC’s fourth report had sensitivities ranging from 2.1ºC to 4.4ºC. The IPCC estimated that if clouds were not included, the range would be more like 1.7ºC to 2.1ºC. So in all the models clouds amplify warming, and in some the amplification is large.

However, there are so far no compelling data on how clouds are affecting warming in fact, as opposed to in models. Ray Pierrehumbert, a climate scientist at the University of Chicago who generally has a strong way with sceptics, is happy to agree that there might be processes by which clouds rein in, rather than exaggerate, greenhouse-warming effects, but adds that, so far, few have been suggested in any way that makes sense.

Dr Lindzen and a colleague suggested a plausible mechanism in 2001. They proposed that tropical clouds in an atmosphere with more greenhouse gas might dry out neighbouring parts of the sky, making them more transparent to outgoing infra-red. The evidence Dr Lindzen brought to bear in support of this was criticised in ways convincing enough to discourage other scientists from taking the idea further. A subsequent paper by Dr Lindzen on observations that would be compatible with his ideas about low sensitivity has also suffered significant criticisms, and he accepts many of them. But having taken them on board has not, he thinks, invalidated his line of research.

Arguments based on past climates also suggest that sensitivity is unlikely to be low. Much of the cooling during the ice ages was maintained by the presence of a large northern hemisphere ice cap reflecting away a lot of sunlight, but carbon dioxide levels were lower, too. To account for all of the cooling, especially in the southern hemisphere, is most easily done with a sensitivity of temperature to carbon dioxide higher than Dr Lindzen would have it.

Before the ice age, the Earth had a little more carbon dioxide and was a good bit warmer than today—which suggests a fairly high sensitivity. More recently, the dip in global temperatures after the eruption of Mt Pinatubo in the Philippines in 1991, which inserted a layer of sunlight-diffusing sulphur particles into the stratosphere, also bolsters the case for a sensitivity near the centre of the model range—although sensitivity to a transient event and the warming that follows a slow doubling of carbon dioxide are not exactly the same sort of thing.

Logs and blogs

Moving into data from the past, though, brings the argument to one of the areas that blog-based doubters have chosen as a preferred battleground: the temperature record of the past millennium, as construed from natural records that are both sensitive to temperature and capable of precise dating. Tree rings are the obvious, and most controversial, example. Their best known use has been in a reconstruction of temperatures over the past millennium published in Nature in 1998 and widely known as the hockey stick, because it was mostly flat but had a blade sticking up at the 20th-century end. Stephen McIntyre, a retired Canadian mining consultant, was struck by the very clear message of this graph and delved into the science behind it, a process that left him and followers of his blog, Climate Audit, intensely sceptical about its value.

In 2006 a review by America’s National Research Council endorsed points Mr McIntyre and his colleagues made on some methods used to make the hockey stick, and on doubts over a specific set of tree rings. Despite this it sided with the hockey stick’s overall conclusion, which did little to stem the criticism. The fact that tree-ring records do not capture recent warming adds to the scepticism about the value of such records.

For many of Mr McIntyre’s fans (though it is not, he says, his central concern) the important thing about this work is that the hockey stick seemed to abolish the “medieval warm period”. This is a time when temperatures are held to have been as high as or higher than today’s—a warmth associated with the Norse settlement of Greenland and vineyards in England. Many climate scientists suspect this phenomenon was given undue prominence by climatologists of earlier generations with an unduly Eurocentric view of the world. There is evidence for cooling at the time in parts of the Pacific.

Doubters for the most part are big fans of the medieval warm period, and see in the climate scientists’ arguments an attempt to rewrite history so as to maximise the drama of today’s warming and minimise the possibility that natural variation might explain the 20th-century record. The possibility of more climatic variability, though, does not, in itself, mean that greenhouse warming is not happening too. And if the medieval warmth were due to some external factor, such as a slightly brighter sun, that would suggest that the climate was indeed quite sensitive.

Looking at the more recent record, logged as it has been by thermometers, you might hope it could shed light on which of the climate models is closest to being right, and thus what the sensitivity actually is. Unfortunately, other confounding factors make this difficult. Greenhouse gases are not the only climatically active ingredients that industry, farming and land clearance add to the atmosphere. There are also aerosols—particles of pollution floating in the wind. Some aerosols cool the atmosphere. Other, sootier, ones warm it. The aggregate effect, globally, is thought to be a cooling, possibly a quite strong one. But the overall history of aerosols, which are mostly short-lived, is nothing like as well known as that of greenhouse gases, and it is unlikely that any of the models are properly capturing their chemistry or their effects on clouds.

Taking aerosols into account, climate models do a pretty good job of emulating the climate trends of the 20th century. This seems odd, since the models have different sensitivities. In practice, it appears that the way the aerosols are dealt with in the models and the sensitivity of those models tend to go hand in hand; sensitive models also have strong cooling aerosol effects.

Reto Knutti of ETH Zurich, an expert on climate sensitivity, sees this as evidence that, consciously or unconsciously, aerosols are used as counterweights to sensitivity to ensure that the trends look right. This is not evidence of dishonesty, and it is not necessarily a bad thing. Since the models need to be able to capture the 20th century, putting them together in such a way that they end up doing so makes sense. But it does mean that looking at how well various models match the 20th century does not give a good indication of the climate’s actual sensitivity to greenhouse gas.

Adding the uncertainties about sensitivity to uncertainties about how much greenhouse gas will be emitted, the IPCC expects the temperature to have increased by 1.1ºC to 6.4ºC over the course of the 21st century. That low figure would sit fairly well with the sort of picture that doubters think science is ignoring or covering up. In this account, the climate has natural fluctuations larger in scale and longer in duration (such as that of the medieval warm period) than climate science normally allows, and the Earth’s recent warming is caused mostly by such a fluctuation, the effects of which have been exaggerated by a contaminated surface-temperature record. Greenhouse warming has been comparatively minor, this argument would continue, because the Earth’s sensitivity to increased levels of carbon dioxide is lower than that seen in models, which have an inbuilt bias towards high sensitivities. As a result subsequent warming, even if emissions continue full bore, will be muted too.

It seems unlikely that the errors, misprisions and sloppiness in a number of different types of climate science might all favour such a minimised effect. That said, the doubters tend to assume that climate scientists are not acting in good faith, and so are happy to believe exactly that. Climategate and the IPCC’s problems have reinforced this position.

Using the IPCC’s assessment of probabilities, the sensitivity to a doubling of carbon dioxide of less than 1.5ºC in such a scenario has perhaps one chance in ten of being correct. But if the IPCC were underestimating things by a factor of five or so, that would still leave only a 50:50 chance of such a desirable outcome. The fact that the uncertainties allow you to construct a relatively benign future does not allow you to ignore futures in which climate change is large, and in some of which it is very dangerous indeed. The doubters are right that uncertainties are rife in climate science. They are wrong when they present that as a reason for inaction.

Comments to this article here.

>What is the best way to provide people with information about climate change?

>
Nov 7th, 2009
Climate Central

There are many ways that people can benefit from having information about climate change, including being able to make informed policy and management decisions. This is one reason why people are talking about creating a national climate service. So, what functions would a national climate service provide?

A good place to start is with an organization that has a similar name and purpose—the National Weather Service, a government agency that was established in the late 1800s. The importance of the Weather Service is almost too obvious to mention. Without accurate reports about the current weather and predictions of future weather, planes would fly into thunderstorms unawares, ships would plow directly into hurricanes and typhoons, and people wouldn’t know about blizzards barreling down on them. Also, planning for pretty much any outdoor activity would become a lot more difficult. Without good weather forecasts, the losses in economic terms and in human lives would be huge.

Climate change unfolds on a slower scale—over decades rather than in hours. But now that we know it is happening, the need for forecasting how climate change will impact us has become clear as well. Knowing how much sea level is likely to rise, and how quickly, is crucial to knowing how to protect coastal areas from increased damage. Knowing how hurricane frequency and strength might change could affect building codes and evacuation strategies. Knowing how the intensity and frequency of droughts and heat waves might change would help city and regional planners manage water resources and mitigate threats to local economies.

The knowledge that these changes will come mostly from an increase in atmospheric levels of greenhouse gases could inform decisions about how to produce and use energy, and whether to develop alternative energy and other green technologies. If the world decides that limiting climate change is a priority, then this green technology could be an economic boon to the countries that perfect it.

Realizing that businesses, local governments, and individuals need the most reliable forecasts possible of how, when, and where the climate is likely to change, and what the impacts might be, universities, government agencies, and private companies have come together over the past year or so to figure out how such an entity might operate—how it would organize information and how it would deliver that information in the most useful way.

>O Globo nega-se a publicar anúncio de campanha pró cotas raciais

>
COTAS RACIAIS
O Globo nega-se a publicar anúncio

Por Mariana Martins em 17/3/2010
Observatório da Imprensa

Reproduzido do Observatório do Direito à Comunicação, 16/3/2010; título original “O Globo nega-se a publicar anúncio de campanha pró cotas”

A negativa do jornal O Globo, no início do mês, em publicar uma peça publicitária da campanha “Afirme-se” em defesa das ações afirmativas relacionadas à questão racial recoloca de forma explícita um importante debate acerca do direito à comunicação. O episódio estabelece uma situação de fato em que liberdade de expressão é confundida com liberdade comercial das empresas privadas de comunicação. A publicação, mais antigo veículo do maior grupo de comunicação do país, alega seguir uma política comercial específica para o que chama “peças de opinião” e, por esta razão, teria mais que decuplicado o valor a ser cobrado pela veiculação do anúncio ao tomar conhecimento de que se tratava de uma campanha pró cotas.

O pesquisador sênior da Universidade de Brasília Venício A. de Lima diz que este é um caso que merece ser observado a partir das diferenças entre liberdade de imprensa e liberdade de expressão. A primeira, na opinião do professor, está relacionada à proteção dos interesses daqueles responsáveis pelos veículos de comunicação e não deve ser confundida com a segunda, que é um direito humano e, no Brasil, constitucionalmente positivado. Lima pondera que a liberdade de expressão, no atual contexto das práticas de comunicação, depende da inserção de opiniões diversas nos grandes veículos de massa. Estes, portanto, precisariam refletir não só a opinião dos seus donos.

No caso da não publicação do anúncio da “Afirme-se”, o que está colocado é, justamente, a utilização de uma política comercial, justificada supostamente pelo princípio da liberdade de imprensa, para restringir o direito da campanha publicizar sua opinião a favor das ações afirmativas e o direito dos cidadãos de receberem informação sobre o tema desde uma perspectiva diversa da dos veículos das Organizações Globo. Segundo Lima, na página de O Globo na internet o jornal apresenta a tabela de preços comerciais e nela está escrito que a empresa cobra de 30% a 70% a mais em anúncios de conteúdo opinativo. Contudo, no caso em questão, o valor variou em aproximadamente 1300%.

Preços acordados

Curiosamente, a tentativa da campanha “Afirme-se” publicar o anúncio está intimamente relacionada ao fato de os grupos a favor das ações afirmativas perceberem que não conseguiam espaço editorial, ou seja, lugar na cobertura jornalística regular para apresentar seu ponto de vista. Assim, por ocasião da audiência pública no Supremo Tribunal Federal (STF) que discutiria – entre os dias 3, 4 e 5 de março – duas ações de inconstitucionalidade movidas contra a criação de cotas nas universidades públicas para descendentes de negros e indígenas, a campanha resolveu fazer intervenções publicitárias em jornais de grande circulação nacional em defesa da constitucionalidade das leis que estão em vigor.

A intervenção publicitária produzida pela agência Propeg, que também é parceira da campanha, contava basicamente com três produtos: um manifesto ilustrado que seria publicado em jornais considerados formadores de opinião pelos organizadores da “Afirme-se”, um spot de rádio e uma vinheta, que estão disponíveis no blog da campanha.

De acordo com Fernando Conceição, um dos coordenadores da “Afirme-se”, as doações das entidades que fazem parte da campanha e a captação de recursos com outras organizações foram suficientes para pagar a publicação do manifesto em quatro jornais de grande circulação – O Estado de S. Paulo, Folha de S. Paulo, A Tarde (BA) e O Globo (RJ). “Nós resolvemos comprar especificamente nesses veículos porque eles já vêm fazendo campanhas sistemáticas contra as cotas há tempos. Como nós temos outra visão e não encontramos lugar livremente para expor um outro ponto de vista, resolvemos comprar o espaço”, explica Conceição.

Como é de praxe nas campanhas publicitárias, a agência responsável passou a negociar o preço do anúncio de uma página inteira a ser publicado no dia 3 de março com os veículos selecionados. Por se tratarem de anúncios ligados a organizações não governamentais, os preços acordados ficaram em torno de R$ 50 mil. O valor exato negociado com O Globo foi orçado em R$ 54.163,20.

Valor impraticável

Fechados os valores, a agência enviou a arte aos jornais. Dois dias antes de a campanha ser publicada, a coordenação da “Afirme-se” foi comunicada pela agência Propeg que o anúncio havia sido submetido à direção editorial de O Globo e que os responsáveis julgaram que a peça era “expressão de opinião”. O jornal dizia que, sendo assim, o valor deixava de ser o negociado anteriormente e passava para R$ 712.608,00. “Um valor irreal, impraticável até para anuncio de multinacional”, queixa-se o coordenador da campanha.

Procurado pela equipe do Observatório do Direito à Comunicação, o jornal O Globo não respondeu aos pedidos de entrevista. No entanto, o diretor comercial da publicação, Mario Rigon, concedeu entrevista ao portal Comunique-se ao qual disse que considerou a peça da campanha como “expressão de opinião” e, diante disso, “seguiu a política da empresa, que determina um valor superior para esse tipo de anúncio”. “De fato vimos que se tratava de uma expressão de opinião, mas não nos cabe julgar o mérito da causa. É a nossa política comercial, tratamos assim qualquer anunciante que queira expressar sua opinião”, disse Rigon ao portal.

Este Observatório também buscou consultar o Conselho de Autorregulamentação Publicitária (Conar). Por intermédio da assessoria de imprensa, o conselho adiantou que não tem posição sobre o caso, visto que foge do escopo da entidade se posicionar sobre a política comercial dos veículos. “Nós não nos posicionamos sobre regulação de mídia exterior, atuamos exclusivamente sobre o conteúdo das mensagens publicitárias”, disse Eduardo Correia, assessor de imprensa do Conar. O assessor disse ainda que a entidade precisa ser provocada por processos para se posicionar sobre o conteúdo de uma peça e que nas questões de política comercial das empresas ela não devem opinar.

O pesquisador Venício Lima lembra que, diante da falta de regulamentação da mídia no Brasil, as empresas privadas, na maioria das vezes, podem agir como bem entendem e praticar os preços que lhes convêm. Lima acredita ainda que seja provável que O Globo esteja, a partir da lógica comercial, protegido legalmente para fazer esse tipo de cobrança, o que é apenas “um lado da moeda”.

É fato que a liberdade comercial baseia-se na lógica de que as normas podem ser estabelecidas pelas próprias empresas e que, portanto, podem causar distorções quando estas se cruzam com questões editoriais. No caso em questão, fica evidente a falta de transparência quanto aos critérios adotados por O Globo para considerar o anúncio como conteúdo opinativo e aplicar um valor diferenciado. Os outros três jornais que publicaram a peça publicitária não tiveram a mesma compreensão e a tabela aplicada foi a de anúncio publicitário comum.

A “Afirme-se” fez uma reclamação contra O Globo no Ministério Público do Rio de Janeiro por conta do episódio. A campanha pede que, com base no que diz a Constituição Federal com relação à liberdade de expressão, o jornal seja obrigado a publicar o anúncio por um valor simbólico.

Fernando Conceição defende que a atitude de O Globo foi claramente de abuso de poder econômico e que configura dumping, prática condenada pelo próprio mercado. “Foi uma maneira que a direção de O Globo encontrou para cercear o direito constitucional que é a liberdade de expressão por meio do abuso do poder econômico”, denuncia Conceição.

Anticotas

Pesa ainda contra as Organizações Globo como um todo uma constante militância contra as ações afirmativas relativas à questão racial, dentre elas as políticas de cotas para negras e negros nas universidades públicas. Esta militância é liderada inclusive pelo atual diretor da Central Globo de Jornalismo, Ali Kamel. Kamel é autor do livro Não somos racistas: uma reação aos que querem nos transformar numa nação bicolor, que nega a existência do racismo e, portanto, da necessidade de políticas reparadoras.

Pesquisa do Observatório Brasileiro de Mídia, citada por Venicio Lima, revela que grandes revistas e jornais brasileiros apresentam posicionamento contrário aos principais pontos da agenda de interesse da população afrodescendente – ações afirmativas, cotas, Estatuto da Igualdade Racial e demarcação de terras quilombolas. A pesquisa analisou 972 matérias publicadas nos jornais Folha de S.Paulo, O Estado de S.Paulo e O Globo, e 121 nas revistas semanais Veja, Época e Isto É – 1093 matérias, no total – ao longo de oito anos.

Lima chama a atenção para o fato de a cobertura de O Globo merecer um comentário à parte na pesquisa. Dentre os três jornais pesquisados, foi aquele que mais editoriais publicou sobre o tema, mantendo inalterados, ao longo dos anos, argumentos que se mostraram falaciosos, como o de que as cotas e ações afirmativas iriam promover racismo e de que os alunos cotistas iriam baixar o nível dos cursos.

Lembrando destes dados da pesquisa, Lima acredita que O Globo estabeleceu uma barreira comercial e que, do ponto de vista legal, eles podem estar cobertos pelos princípios da livre iniciativa. “Mas, esta conduta, tendo em vista o conteúdo que deixou de ser publicado, infringe o direito à informação. A questão que fica para o Ministério Público do Rio de Janeiro é legal. Cabe a eles encontrarem alguma forma jurídica de pensar o caso sob o ponto de vista do direito à informação. Para mim, essa postura deixa as Organizações Globo numa situação difícil para posteriormente falar de liberdade de expressão”, conclui o professor.

>Imagens da loucura (Agência FAPESP)

>
Por Fábio Reynol – 16/3/2010

Agência FAPESP – A professora de artes Tatiana Fecchio da Cunha Gonçalves reuniu cerca de 800 imagens de doentes mentais em hospitais psiquiátricos, entre elas algumas registradas por quatro fotógrafos ao longo da segunda metade do século 20 em instituições brasileiras.

Foto: Estudo reúne ensaios fotográficos que registraram doentes mentais em instituições de tratamento ao longo da segunda metade do século 20 (reprod.: Henri Fuseli)

O trabalho foi feito para o doutorado no Instituto de Artes da Universidade Estadual de Campinas (Unicamp), para o qual contou com Bolsa da FAPESP. Intitulada “A representação do louco e da loucura nas imagens de quatro fotógrafos brasileiros do século 20: Alice Brill, Leonid Streliaev, Cláudio Edinger, Cláudia Martins”, a tese foi defendida e aprovada no fim de janeiro.

“Há um conjunto de construções e elementos formais que tomam o ‘louco’ por diverso, de outra ordem, patológico, a distância”, disse à Agência FAPESP. A inspiração para o estudo surgiu durante o mestrado, quando Tatiana deparou com retratos de doentes mentais registrados por Alice Brill e pelo artista plástico Lasar Segall. “Achei intrigante o interesse deles pelo tema”, disse.

Por meio de um levantamento histórico detalhado, Tatiana recuperou imagens e conceitos produzidos a partir do século 17, quando surgiram os primeiros espaços de internação para doentes mentais.

Segundo ela, a loucura tem sido compreendida de diferentes maneiras ao longo do tempo. No entanto, as suas representações mantiveram alguns aspectos que chegaram até os dias atuais. “É o caso do louco visto como o diferente, o outro, o que deve ser isolado”, disse Tatiana.

Esse distanciamento entre o fotógrafo e o doente chega a ser delimitado em algumas fotos por meio da presença de grades nas cenas com o enfermo atrás delas.

Também são mantidos nas representações mais recentes, segundo a pesquisa, alguns elementos antigos de tipificação da loucura, como o louco melancólico das obras do pintor alemão Albrecht Dürer, no início do século 16, e o louco introspectivo segurando a cabeça, presente na Iconologia do escritor italiano Cesare Ripa no século 17.

Outras representações ainda ressaltam a bestialidade e a agressividade, passando, segundo Tatiana, a ideia de ameaça, como se o louco possuísse uma força imensurável.

Para a autora, muitas dessas imagens, realizadas há séculos, naturalizaram uma forma de compreender o louco como diverso, em sua “carga de alteridade”, segundo ela refere, constituindo ainda no século 20 “a ideia de que o louco deve ser afastado da sociedade”, afirmou.

Tatiana não se deteve na representação artística, tendo investigado também as ilustrações que a medicina produziu para registrar a loucura. Os estudos fisionômicos e as medições de índices corporais, segundo conta, eram utilizados como elementos para diagnósticos e para traçar teorias a respeito da insanidade mental.

“Por esse motivo, a fotografia assumiu uma grande importância para a psiquiatria e para teorias que associavam fisionomias a determinados comportamentos”, disse.

Um desses estudos mais famosos é o do italiano Cesare Lombroso, que associou características e defeitos faciais a comportamentos criminosos. Nesse aspecto, Tatiana ressalta que a fotografia assumiu, pela suposta objetividade do aparato técnico, um reconhecimento importante como instrumento científico.

Reforma psiquiátrica

Na segunda parte da tese, a autora analisa a produção dos quatro fotógrafos que compõem o cerne de seu trabalho: Alice Brill, fotógrafa e artista plástica alemã que retrata o Hospital do Juquery (SP), no ano de 1950; Leonid Streliaev, repórter fotográfico que fez imagens do Hospital São Pedro (RS) em 1971; Cláudio Edinger, que também fotografou o Juquery em 1989 e 1990; e Cláudia Martins, que produziu imagens da Colônia Juliano Moreira, no Rio de Janeiro, enquanto era estudante de jornalismo, de 1997 a 1999.

O período desses ensaios corresponde às mudanças provocadas pela reforma psiquiátrica iniciada na década de 1960. Tatiana contou que o fim da Segunda Guerra Mundial trouxe questionamentos à sociedade em relação aos padrões de “normatização”, os quais eram impostos especialmente em instituições como as escolas, as prisões e os manicômios.

“Com a reforma foram questionados os tratamentos da época e a doença mental passou a ser compreendida menos como uma doença dos corpos e mais como um reflexo de dinâmicas sociais”, revelou a pesquisadora.

Paradoxalmente, a autora ainda encontrou na segunda metade do século 20 resquícios da caracterização da loucura de tempos anteriores, o que mostra, segundo ela, que a ruptura com os antigos estigmas não foi tão grande. Outra hipótese é a de que a crítica proposta pela reforma psiquiátrica ainda está em processo, o que ainda deve provocar alterações na forma visual de representação da loucura.

“O fotógrafo [do século 20] ainda não partilha o espaço do fotografado, ele não está no mesmo lugar do outro”, disse. Dentre os fotógrafos estudados há uma tentativa mais explícita de rompimento com essa postura somente no trabalho de Cláudia Martins, segundo a pesquisadora.

“Ela procurou fazer com que os pacientes participassem da construção da imagem, eram eles que escolhiam o pano de fundo do cenário, a pose que fariam na foto e se estariam ou não acompanhados por outros internos”, apontou.

O estudo também traçou as mudanças nas relações da sociedade com os doentes mentais ao longo do tempo. Em 1950, por exemplo, Alice Brill foi aconselhada por amigos a não entrar no Juquery porque estava grávida, sob a justificativa de que os loucos poderiam “influenciar” o bebê. Já as imagens de Edinger, no fim dos anos 1980, trazem um tema inédito em trabalhos desse gênero: a homossexualidade.

Uma das conclusões da autora é a desconstrução do mito da objetividade da fotografia e do fotógrafo, afirmação recorrente no advento dessa técnica. Diante da pintura, a fotografia era tida como descrição exata da realidade a ponto de garantir registros objetivos à medicina, de acordo com a pesquisa.

“Essa objetividade é aparente, a fotografia é composta de escolhas do fotógrafo: onde os objetos serão colocados, quais lentes serão usadas, qual será o cenário, entre outros”, disse. Em todo o material fotográfico analisado está presente a tensão anormalidade/diverso e normalidade/identidade ligados à representação do “louco”.

Esse aspecto foi relembrado por ela e associado às ideias do filósofo francês Michel Foucault, para quem a loucura seria o campo de exclusão social do diverso. A exclusão estaria associada ao advento das cidades, segundo Tatiana. “As cidades exigiram indivíduos muito bem comportados e isolaram quem não se enquadrava em seus padrões, como leprosos, prostitutas e loucos”, disse.

No entanto, ao contrário de outros estigmas, a loucura poderia ser aplicada a qualquer um. Por isso, foi muito usada como instrumento de poder. “Com diagnósticos subjetivos, qualquer comportamento fora dos padrões vigentes poderia ser diagnosticado como loucura”, disse Tatiana. Como exemplo, cita uma mulher internada como louca no Hospital Pedro II, no início do século passado, porque resolveu dissolver o casamento logo após a noite de núpcias.

De acordo com a orientadora de Tatiana, a professora Cláudia Valladão de Mattos, do Departamento de Artes Plásticas da Unicamp, um sinal da qualidade do trabalho foi a sua grande receptividade em instituições internacionais.

“Em países como França e Alemanha, com forte tradição artística, a pesquisa de Tatiana teve uma ótima receptividade”, disse a professora, explicando que o trabalho foi aceito em todos os eventos europeus em que se inscreveu.

“Eles têm muito interesse em conhecer dados sobre o Brasil. O material reunido por Tatiana é considerado raro e importante para a comparação com estudos similares feitos em instituições de tratamento europeias”, disse.

O interesse estrangeiro pelo trabalho ficou evidente durante os dez meses da pesquisa que Tatiana passou na Inglaterra na Wellcome Trust for the History of Medicine da University College London, período no qual contou com bolsa de doutorado com estágio no exterior da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes).

Cláudia também destaca o aspecto interdisciplinar da tese que envolveu arte, história e a medicina psiquiátrica. “A tese também é importante para a história da arte, e abre um campo enorme a ser investigado”, disse.

Tatiana pretende continuar a pesquisa por meio de um pós-doutorado. Dessa vez, quer analisar imagens de vídeo de doentes mentais. “Durante a pesquisa entrei em contato com um material muito grande que pretendo aproveitar agora estudando as imagens em movimento”, disse.

>Rumo a uma pedagogia da incerteza: Keats e a "negative capability"

>
Negative capability

From Wikipedia (15 mar 2010)

Negative capability is a theory of the poet John Keats describing the capacity for accepting uncertainty and the unresolved.

Theory

Keats’ theory of “negative capability” was expressed in his letter to his brother dated Sunday, 21 December 1817. He says [1]

I had not a dispute but a disquisition with Dilke, on various subjects; several things dovetailed in my mind, & at once it struck me, what quality went to form a Man of Achievement especially in literature & which Shakespeare possessed so enormously – I mean Negative Capability, that is when man is capable of being in uncertainties, Mysteries, doubts without any irritable reaching after fact & reason.

Keats believed that great people (especially poets) have the ability to accept that not everything can be resolved. Keats, as a Romantic, believed that the truths found in the imagination access holy authority. Such authority cannot otherwise be understood, and thus he writes of “uncertainties.” This “being in uncertaint[y]” is a place between the mundane, ready reality and the multiple potentials of a more fully understood existence. It relates to his metaphor of the Mansion of Many Apartments.

It could be argued that Keats explored this idea in several of his poems:
La Belle Dame sans Merci: A Ballad (1819)
Ode to a Nightingale (1819)
The Fall of Hyperion: A Dream (1819)
Ode on a Grecian Urn (1819)

Negative capability is a state of intentional open-mindedness paralleled in the literary and philosophic stances of other writers. In the 1930s, the American philosopher John Dewey cited Keatsian negative capability as having influenced his own philosophical pragmatism, and said of Keats’ letter that it “contains more of the psychology of productive thought than many treatises.” [2] [3] Nathan Scott, in his book Negative capability; studies in the new literature and the religious situation [4], notes that negative capability has been compared to Heidegger’s concept of Gelassenheit, “the spirit of disponibilité before What-Is which permits us simply to let things be in whatever may be their uncertainty and their mystery.” Walter Jackson Bate, Keats’s biographer, explored the approach in detail in his 1968 work Negative Capability: The Intuitive Approach in Keats.

Author Philip Pullman excerpts from Keats’s letter and prominently incorporates the concept in his fantasy novel The Subtle Knife.

Notes
1. Romanticism: an anthology, By Duncan Wu, Duncan Wu Edition: 3, illustrated Published by Blackwell, 2005 p.1351
2. Dewey, John. Art as Experience. New York: Penguin Perigree (2005):33-4.
3. Kestenbaum, Victor. The Grace and the Severity of the Ideal: John Dewey and the Transcendent. Chicago: University of Chicago Press (2002): 225.
4. Scott. Negative capability; studies in the new literature and the religious situation. Yale University Press (New Haven), 1969

>U.S. Scientists Urge Action on Climate Change

>
On March 11, 2000 U.S. scientists and economists signed on to a statement imploring the Senate to move swiftly and comprehensively on the issue of climate change. The signatories are all experts in relevant fields of study on climate change. The statement is the first time leading U.S. scientists and economists have come together to issue a joint message of concern on climate change. The list of signatories included eight Nobel laureates, 32 members of the National Academy of Sciences, 10 members from the National Academy of Engineering, and more than 100 members of the Intergovernmental Panel on Climate Change, who shared a 2007 Nobel Peace Prize.

“If anything, the climate problem is actually worse than reported earlier,” wrote Leon Lederman, Director Emeritus of the Fermi National Accelerator Laboratory in Batavia, Illinois, and a Nobel Prize-winning physicist, in an individual statement in the letter to the Senate. “Physicists tend to be super critical of strong conclusions, but the data on global warming now indicate the conclusions are not nearly strong enough.”

Read the statement here.

>Iphan faz levantamento para localizar fotógrafos conhecidos como lambe-lambes (O Globo)

>
O Globo – 13 de março de 2010

Foto: Osvaldo de Andrade Neves fotografa uma cliente na Praça da Matriz, em São João de Meriti/Foto de Ana Branco (Agência O Globo)

RIO – Com a chegada das máquinas instantâneas de retrato e após a explosão da fotografia digital, os lambe-lambes foram, pouco a pouco, deixando seus pontos. Para preservar a memória dos últimos representantes da categoria, o Instituto do Patrimônio Histórico e Artístico Nacional (Iphan-RJ) iniciou um levantamento desses cronistas visuais que ainda existem no estado.Testemunhas privilegiadas das transformações pelas quais o Rio passou desde o início do século XIX, os lambe-lambes estão praticamente em extinção. Até agora, foram localizados cinco fotógrafos de jardim (como a profissão era chamada em seu auge). Entre eles, há desde os que já não trabalham mais no ofício aos que ainda sobrevivem da fotografia.

– O que estamos buscando é registrar este tipo de atividade e salvaguardar a memória – explica o superintendente do Iphan no estado, Carlos Fernando Andrade, à repórter Jacqueline Costa.

O levantamento – que está sendo realizado pelo antropólogo João Carlos de Oliveira, com a ajuda da estudante de história Anne Lima – inclui entrevistas e depoimentos gravados em vídeo. O material reunido tem a chance de ser transformado em um livro ou um DVD.

Dos oito lambe-lambes que trabalhavam no Jardim do Méier, só restou um. Aos 83 anos, o português Bernardo Soares Lobo ainda marca ponto por lá, às segundas, terças e quartas. Da velha câmera, não saem mais imagens. Seu Lobo se rendeu à fotografia digital e hoje usa o antigo equipamento de trabalho apenas como um chamariz. Com orgulho, lembra de já ter fotografado Tenório Cavalcanti, político que ficou conhecido como o Homem da Capa Preta, e Dercy Gonçalves. E diz que não consegue abandonar o jardim onde está há 54 anos.

Outro que ainda não abandonou o batente e que também usa máquina digital é Osvaldo de Andrade Neves, de 66 anos. Há quatro décadas, diariamente, ele monta sua máquina na Praça da Matriz, em São João de Meriti. Ele admite que o movimento caiu com o passar dos anos, mas diz que ainda tira da fotografia o sustento da família.

Já Inácio Teodósio da Silva armou o tripé de sua máquina na Praça General Osório, em Ipanema, durante quase 30 anos. Mas, hoje, guarda com zelo o equipamento que fotografou de ilustres anônimos a personalidades cariocas. Seis de seus irmãos trabalharam na mesma profissão, em diversos pontos do Rio. Jorge Teodósio da Silva, irmão de Inácio, e Francisco Victor Cavalcanti foram os outros lambe-lambes encontrados pelo pesquisador do Iphan.

Ver artigo original e vídeo.

>Sorteio de óvulo humano gera polêmica na Grã-Bretanha (BBC Brasil)

>
BBC Brasil – 15 de março de 2010

Foto: A venda de óvulos é proibida na Grã-Bretanha.

Uma clínica de fertilização londrina gerou polêmica no país ao anunciar que fará o sorteio de um óvulo humano para ser implantado e fertilizado em uma clínica nos Estados Unidos.

A ganhadora será escolhida entre as participantes de um seminário para mulheres que desejam se submeter à fertilização artificial, marcado para quarta-feira, cujo objetivo é divulgar a recente parceria da clínica Bridge Center, em Londres, com a clínica americana Genetics and IVF Institute (GIVF), na Virgínia.

A ganhadora do sorteio poderá escolher quem será sua doadora, a partir de um banco de dados com informações como origem racial, histórico médico, formação escolar e aspectos físicos.

O sorteio foi criticado por grupos de estudo da reprodução assistida, como a organização Comentário sobre Ética Reprodutiva (Core, na sigla em inglês), por comercializar material humano, o que é proibido pela lei britânica.

“A capacidade da indústria de fertilização in vitro de mercantilizar a vida humana atinge um novo patamar com essa iniciativa deplorável”, disse Josephine Quintavalle, diretora do instituto.

“Imagine se um dia uma criança descobrir que ele ou ela veio a existir graças a uma descarada iniciativa comercial”, completou.

Parceria internacional

Por meio dessa parceria com o centro americano, a Bridge Centre pretende contornar as rígidas regras britânicas para a reprodução assistida, enviando britânicas para receberem os óvulos nos Estados Unidos.

Na Grã-Bretanha, a remuneração por doação de óvulos é proibida. O máximo que a doadora consegue é uma ajuda de custos de 250 libras, ou R$ 670. Por isso, a oferta de óvulos no país é muito restrita.

A GIVF, porém, conta com doadoras de 19 a 32 anos que chegam a receber US$ 10 mil, ou R$ 17,6 mil, por doação. Dessa forma, há muito mais óvulos disponíveis para doação nos Estados Unidos do que na Grã-Bretanha.

Um dos problemas dessa doação de óvulos é que, para doá-los, as mulheres precisam passar por um tratamento pesado, com uso de medicamentos, para ampliar a produção de óvulos por ciclo menstrual.

Diante desse quadro, a Core demonstrou preocupação com essas mulheres que doam seus óvulos por dinheiro.

“Nós temos, no entanto, uma grande preocupação com o bem-estar dessas mulheres, pois a coleta de óvulos não é de maneira alguma um processo livre de riscos e muitas daquelas envolvidas no mercado mundial de óvulos sofreram significativamente como resultado. As consequências mais sérias incluem morte, perda parcial ou total da fertilidade, várias outras complicações médicas e problemas psicológicos também”, explicou Quintavalle.

“A clínica de fertilização in vitro envolvida nessa iniciativa está alimentando a vulnerabilidade colossal de mulheres ricas e inférteis ao custo do bem-estar de jovens mulheres pobres e igualmente vulneráveis”, acrescentou.

Segundo a Core, a venda de tecidos humanos, como óvulos, é proibido em toda a Europa. Portanto, nenhuma clínica britânica deveria colaborar com esse tipo de medida.

>Austrália reconhece pessoa sem sexo pela 1ª vez (BBC Brasil)

>
BBC Brasil – 15 de março de 2010

Foto: Norrie foi registrado homem ao nascer mas tentou trocar de sexo.

Uma pessoa que mora na Austrália pode ser a primeira no mundo reconhecida oficialmente como não pertencendo a nenhum dos sexos, segundo a imprensa australiana.

O governo do Estado de New South Wales emitiu uma certidão de “Gênero Não-Específico” a Norrie May-Welby. Isso significa que o governo não reconhece Norrie como homem ou mulher.

Norrie se considera andrógino e é ativista do grupo Sex and Gender Education (Sage, na sigla em inglês), que faz campanha por direitos de pessoas com diferentes identidades sexuais.

Norrie, de 48 anos, nasceu na Escócia e foi registrado como homem. Aos 23 anos, ele passou por um tratamento hormonal e cirurgias para mudar de sexo, e foi registrado na Austrália como mulher.

No entanto, Norrie ficou insatisfeito com a mudança e interrompeu seu tratamento, preferindo denominar-se “neutro”.

‘Gaiola’ dos gêneros

“Esses conceitos de homem e mulher simplesmente não se encaixam no meu caso, eles não são a realidade e, se aplicados a mim, são fictícios”, afirma Norrie em um artigo publicado no site The Scavenger na semana passada.

Norrie assina seu nome como “norrie mAy-Welby”, um trocadilho com “may well be”, que em inglês significa “pode ser”.

Em e-mail à BBC Brasil, Norrie comemorou a decisão do governo australiano. “Liberdade da gaiola do gênero!”, escreveu.

Segundo a notícia publicada no The Scavenger, os médicos declararam em janeiro deste ano que não conseguiram determinar o sexo de Norrie – nem fisicamente nem em função do seu comportamento.

A certidão de gênero não-específico foi dada de acordo com uma recomendação de 2009 de um relatório da Comissão de Direitos Humanos da Austrália, segundo o portal. A certidão foi publicada na capa do jornal australiano Sydney Morning Herald.

Uma porta-voz da Procuradoria do governo da Austrália disse ao jornal que esta foi a primeira certidão do tipo.

A porta-voz do Sage, Tracie O’Keefe, disse ao Scavenger que a decisão tem impacto importante na vida de pessoas que não se identificam nem como homens ou mulheres.

Em entrevista ao jornal britânico Daily Telegraph, o porta-voz do grupo britânico Gender Trust, que ajuda pessoas com problemas de identidade sexual, saudou a decisão do governo de New South Wales.

>Coronelismo eletrônico: políticos aceleram concessão de rádios comunitárias (OESP)

>
Políticos aceleram concessão de rádios comunitárias

15/03/2010 – 09:22
Agência Estado

Legalizadas há 12 anos, as rádios comunitárias são cada vez mais usadas como instrumentos de política eleitoral, num processo que vem sendo chamado de novo coronelismo eletrônico. Ligadas a entidades que quase sempre têm um político municipalista por trás – um prefeito ou um vereador -, as rádios comunitárias são concedidas depois que os políticos federais desempenham o papel de despachantes de luxo no Ministério das Comunicações.

Alegando que precisam agir para vencer a intrincada burocracia de Brasília, senadores e deputados pressionam para acelerar a tramitação do processo de autorização das rádios comunitárias e ganham status de seus padrinhos políticos.

É desse jeito que passam a integrar uma teia de captura de votos. A estimativa é de que cerca de 50% das 3.911 rádios comunitárias, que hoje funcionam legalmente no País, tenham contado com as bênçãos de padrinhos políticos.

“O parlamentar intercede aqui (em Brasília) para atender o cara (prefeito ou vereador) que vota nele lá no município. Aí, essa rádio fica falando bem dele para o resto da vida”, confirma o deputado e ex-ministro das Comunicações (2004- 2005) Eunício Oliveira (PMDB-CE). “Há centenas de pedidos de políticos, mas a pressão maior ainda é de vereadores e associações. A rádio comunitária é o local da fofoca municipal. Para prefeito e vereador, ela é o cão”, atesta ele, dono de três rádios comerciais no Ceará.

Os pedidos de concessão de rádios comunitárias não têm cor partidária – mobilizam de petistas a tucanos, passando pelo DEM, pelo PTB e por outros partidos. Depois da legalização, em 1998, o boom das comunitárias ocorreu no governo do ex-presidente Fernando Henrique Cardoso, quando foram autorizadas em apenas três anos 1.707 emissoras – 569 a cada ano. Em pouco mais de sete anos do governo Lula, foram legalizadas 2.204 comunitárias – mais de 300 ao ano.

Apesar da baixa presença no Congresso, ao longo da semana passada a reportagem localizou facilmente dez exemplos de deputados e senadores confirmando que atuaram para ajudar na liberação de rádios comunitárias.

Tática permanece

No fim da década de 90, a praxe, segundo parlamentares, era procurar o titular das Comunicações para acelerar o processo. Isso ocorreu nos casos dos deputados José Linhares (PP-CE) e Arnon Bezerra (PTB-CE). Em 1999 eles se apressaram a procurar o então ministro Pimenta da Veiga (PSDB) para interceder a favor de duas rádios comunitárias, Sal da Terra e Juazeiro, localizadas em seus redutos eleitorais – Sobral e Juazeiro do Norte. “Pedi a concessão não só dessa, mas de várias (rádios) em todo o Estado onde temos acesso à votação”, conta Linhares.

Passada a fase inicial da legalização das rádios comunitárias, os deputados e senadores começaram a atuar como despachantes, não necessariamente recorrendo ao ministro de Estado, mas ao departamento responsável pela tramitação dos papéis. A tática permaneceu igual: o lobby é sempre direcionado aos redutos eleitorais.

>Marcelo Gleiser: Criação imperfeita (Folha Mais!)

>
A noção de que a natureza pode ser decifrada pelo reducionismo precisa ser abolida.

14 março 2010

Desde tempos imemoriais, ao se deparar com a imensa complexidade da natureza, o homem buscou nela padrões repetitivos, algum tipo de ordem. Isso faz muito sentido. Afinal, ao olharmos para os céus, vemos que existem padrões organizados, movimentos periódicos que se repetem, definindo ciclos naturais aos quais estamos profundamente ligados: o nascer e o pôr do Sol, as fases da Lua, as estações do ano, as órbitas planetárias.

Com Pitágoras, 2.500 anos atrás, a busca por uma ordem natural das coisas foi transformada numa busca por uma ordem matemática: os padrões que vemos na natureza refletem a matemática da criação. Cabe ao filósofo desvendar esses padrões, revelando assim os segredos do mundo.

Ademais, como o mundo é obra de um arquiteto universal (não exatamente o Deus judaico-cristão, mas uma divindade criadora mesmo assim), desvendar os segredos do mundo equivale a desvendar a “mente de Deus”. Escrevi recentemente sobre como essa metáfora permanece viva ainda hoje e é usada por físicos como Stephen Hawking e muitos outros.

Essa busca por uma ordem matemática da natureza rendeu -e continua a render- muitos frutos. Nada mais justo do que buscar uma ordem oculta que explica a complexidade do mundo. Essa abordagem é o cerne do reducionismo, um método de estudo baseado na ideia de que a compreensão do todo pode ser alcançada através do estudo das suas várias partes.

Os resultados dessa ordem são expressos através de leis, que chamamos de leis da natureza. As leis são a expressão máxima da ordem natural. Na realidade, as coisas não são tão simples. Apesar da sua óbvia utilidade, o reducionismo tem suas limitações. Existem certas questões, ou melhor, certos sistemas, que não podem ser compreendidos a partir de suas partes. O clima é um deles; o funcionamento da mente humana é outro.

Os processos bioquímicos que definem os seres vivos não podem ser compreendidos a partir de leis simples, ou usando que moléculas são formadas de átomos. Essencialmente, em sistemas complexos, o todo não pode ser reduzido às suas partes.

Comportamentos imprevisíveis emergem das inúmeras interações entre os elementos do sistema. Por exemplo, a função de moléculas com muitos átomos, como as proteínas, depende de como elas se “dobram”, isto é, de sua configuração espacial. O funcionamento do cérebro não pode ser deduzido a partir do funcionamento de 100 bilhões de neurônios.

Sistemas complexos precisam de leis diferentes, que descrevem comportamentos resultantes da cooperação de muitas partes. A noção de que a natureza é perfeita e pode ser decifrada pela aplicação sistemática do método reducionista precisa ser abolida. Muito mais de acordo com as descobertas da ciência moderna é que devemos adotar uma abordagem múltipla, e que junto ao reducionismo precisamos utilizar outros métodos para lidar com sistemas mais complexos. Claro, tudo ainda dentro dos parâmetros das ciências naturais, mas aceitando que a natureza é imperfeita e que a ordem que tanto procuramos é, na verdade, uma expressão da ordem que buscamos em nós mesmos.

É bom lembrar que a ciência cria modelos que descrevem a realidade; esses modelos não são a realidade, só nossas representações dela. As “verdades” que tanto admiramos são aproximações do que de fato ocorre.

As simetrias jamais são exatas. O surpreendente na natureza não é a sua perfeição, mas o fato de a matéria, após bilhões de anos, ter evoluído a ponto de criar entidades capazes de se questionarem sobre a sua existência.

MARCELO GLEISER é professor de física teórica no Dartmouth College, em Hanover (EUA) e autor do livro “A Criação Imperfeita”