Arquivo da tag: ciência

Manifesto da Sociedade Brasileira de Bioquímica e Biologia Molecular

JC e-mail 4846, de 31 de outubro de 2013

Texto assinado pelo presidente da SBBq, Moacir Wajner, manifesta repúdio à invasão do Instituto Royal

A Sociedade Brasileira de Bioquímica e Biologia Molecular vem a público manifestar seu repúdio aos atos terroristas/vandalismo de depredação de mais uma unidade dedicada à investigação científica, desta vez o Instituto Royal em São Roque, São Paulo. O Instituto Royal é instituição dedicada à investigação para confirmação da ausência de efeitos adversos tanto de medicamentos como também de substâncias cujo alto potencial de uso como novo medicamento já tenha sido avaliado por estudos prévios.

Este tipo de ação prejudica, mais do que a instituição atingida diretamente, a toda Sociedade Brasileira que fica debilitada em sua capacidade de fazer avançar a ciência e de desenvolver medicamentos próprios e também impedida de explorar o pleno potencial de sua biodiversidade para elevar o nível da sáude humana e dos animais. Fica também comprometida em sua independência e autonomia para controlar plenamente a pertinência e qualidade de medicamentos trazidos de outros países, ficando o país a mercê de exploradores internacionais e segurança da saúda da população fragilizada. Atitudes como esta contribuem para levar o Brasil a uma posição subalterna perante empresas internacionais e facilitar a exploração do povo brasileiro.

A Sociedade Brasileira de Bioquímica e Biologia Molecular também alerta a Sociedade Brasileira para não se deixar iludir pelos interesses dos vendedores da ilusão de que a pesquisa biomédica e o desenvolvimento e controle de medicamentos possa ser feito sem a utilização de ferramentas que requerem o emprego de animais de laboratório. Embora o grande avanço no estabelecimento de metodologias que substituem o uso desses animais, essas tecnologias são ainda aplicáveis a apenas um número ainda restrito de situações.

No atual estágio do desenvolvimento científico, não há conhecimento que permita prever que, sequer que a médio prazo, estudos empregando animais de laboratório possam ser totalmente eliminados. Inclusive, até mesmo o desenvolvimento desses métodos substitutivos requer o emprego de animais de laboratório. Atualmente, no Brasil, da mesma maneira que nos países mais desenvolvidos do mundo, o emprego de animais em qualquer tipo de experimento científico ou de controle da qualidade de medicamentos é regulado por lei específica, rigidamente observada, que exige o exame rigoroso e aprovação por parte de Comissões de Ética no Uso de Animais dos protocolos a que cada animal, individualmente, será submetido e também da comprovação de que não há método alternativo ou possibilidade de diminuir o número de animais necessários.

(Moacir Wajner, presidente da SBBq)

De ratos e cães (Folha de S. Paulo)

JC e-mail 4845, de 30 de outubro de 2013

Por Hélio Schwartsman

“O coração tem suas razões que a razão desconhece”, escreveu Pascal. O pensamento do filósofo se aplica bem aos paulistanos e seu amor pelos animais.

Segundo o Datafolha, 66% dos entrevistados se opõem ao uso de cães em pesquisas científicas. O índice baixa para 59% quando as cobaias são macacos, 57% caso sejam coelhos e apenas 29% se forem ratos.

Esses resultados, embora não surpreendentes, contrastam com o discurso dos ativistas, para os quais infligir sofrimento a bichos constitui um caso de especismo, delito moral que os militantes mais radicais equiparam ao racismo e ao escravagismo.

Em termos puramente filosóficos, esse é um raciocínio consistente, se aceitarmos as premissas consequencialistas de pensadores como Peter Singer, para o qual todos os seres sencientes são dignos de igual consideração. Se há uma hierarquia entre eles, ela é dada pela capacidade de sentir dor e prazer de cada espécie e indivíduo. Um ser humano vale mais que uma lesma; o problema é que os mamíferos, em geral, estão todos mais ou menos no mesmo plano.

Sob essa chave interpretativa, proteger cães em detrimento dos ratos constituiria especismo. Seria o equivalente de, na escravidão, defender a libertação dos nagôs e jejes, mas não dos hauçás e axantis, para citar alguns dos grupos étnicos entre os quais o Brasil fez mais vítimas.

O que a pesquisa Datafolha mostra, no fim das contas, é que as pessoas definitivamente não pensam por meio de categorias filosóficas.

Ao rejeitar a lógica consequencialista com base em emoções, o paulistano revela a principal dificuldade dessa matriz ética, que é exigir um igualitarismo tão forte que se torna desumano. Um consequencialista consequente, afinal, precisaria atribuir ao próprio filho o mesmo valor que dá ao filho de um desconhecido.

Não importa o que digam Singer e a filosofia, nos corações dos paulistanos um cão vale mais do que um rato.

http://www1.folha.uol.com.br/fsp/opiniao/136412-de-ratos-e-caes.shtml

Admirável mundo novo animal (Canal Ibase)

29/10/2013

Renzo Taddei

Colunista do Canal Ibase

Se avaliada pela repercussão que obteve na imprensa, a libertação dos 178 beagles do Instituto Royal foi um marco histórico. Nem na época do debate sobre a regulamentação do uso de células-tronco tanta gente graduada veio a público defender suas práticas profissionais. O tema está na capa das principais revistas semanais do país. A análise dos argumentos apresentados na defesa do uso de animais como cobaias de laboratório é, no entanto, desanimadora. E o é porque expõe o quanto nossos cientistas estão despreparados para avaliar, de forma ampla, as implicações éticas e morais do que fazem.

Vejamos: no debate aprendemos que há pesquisas para as quais as alternativas ao uso de animais não são adequadas. Aprendemos que muitas das doenças que são hoje de fácil tratamento não o seriam sem os testes feitos em animais; desta forma, muitas vidas humanas foram salvas. (Exemplificando como a razão pode sucumbir à emoção – até mesmo entre os mais aguerridos racionalistas -, um pesquisador da Fiocruz chegou ao desatino de afirmar que os “animais experimentais são grandes responsáveis pela sobrevivência da raça humana no planeta”). Adicionalmente, o fato de cientistas importantes do passado, como Albert Sabin, Carlos Chagas ou Louis Pasteur, terem usado animais como cobaias de laboratório em suas pesquisas mostra que os cientistas, por sua contribuição à humanidade, não podem ser tratados como criminosos. Ainda pior que isso tudo, se o Brasil proibir testes com animais, a ciência brasileira perderá autonomia e competitividade, porque dependerá de resultados de pesquisas feitas em outros países para o seu avanço.

Além do mais, há que se levar o animal em consideração: é consenso entre cientistas de que os animais de laboratório não devem sofrer. Providências foram tomadas nesse sentido, como a criação do Conselho Nacional de Controle de Experimentação Animal, e da obrigatoriedade das instituições terem cada uma sua Comissão de Ética no Uso de Animais, com assento para representante de sociedades protetoras de animais legalmente constituídas. E, finalmente, os “próprios animais” são beneficiados, em razão de como as experiências de laboratório supostamente contribuem com o desenvolvimento da ciência veterinária.

De forma geral, o que temos aí resumido é o seguinte: os animais são coisas, e devem ser usados como tais; ou os animais não são coisas, mas infelizmente devem ser usados como tais. Há algo maior que se impõe (e sobre a qual falarei mais adiante), de forma determinante, de modo que se os animais são ou não são coisas, isso é um detalhe menor, que os cientistas logo aprendem a desprezar em seu treinamento profissional.

Foto: Ruth Elison/Flickr

A ideia de que os animais são coisas é antiga: Aristóteles, em seu livro Política, escrito há dois mil e trezentos anos, afirmou que os animais não são capazes de uso da linguagem e, por essa razão, não são capazes de uma existência ética. Sendo assim, conclui o filósofo, os animais foram criados para servir os humanos. Ideia semelhante está no Gênesis bíblico: “E disse Deus: Façamos o homem à nossa imagem, conforme a nossa semelhança; e domine sobre os peixes do mar, e sobre as aves dos céus, e sobre o gado, e sobre toda a terra, e sobre todo o réptil que se move sobre a terra” (Gênesis 1:26). Santo Agostinho e São Tomás de Aquino reafirmam a desconexão entre os animais e Deus. (São Francisco é, na história cristã, claramente um ponto fora da curva). A ideia chegou aos nossos dias praticamente intacta. O Catecismo Católico afirma, em seu parágrafo 2415, que “Os animais, tal como as plantas e os seres inanimados, são naturalmente destinados ao bem comum da humanidade, passada, presente e futura”. A ciência renascentista, através de Descartes e outros autores, fundou o humanismo que a caracteriza sobre essa distinção entre humanos e animais, exacerbando-a: o animal (supostamente) irracional passa a ser entendido como a antítese do humano (supostamente) racional. O tratamento de animais como coisas pela ciência contemporânea tem, desta forma, raízes históricas antigas.

Ocorre, no entanto, que essa ideia se contrapõe à existência cotidiana da maioria da humanidade, em todas as épocas. Em sociedades e culturas não-ocidentais, é comum que se atribua alguma forma de consciência e personalidade “humana” aos animais. Nas sociedades ocidentais, quem tem animal de estimação sabe que estes têm muito mais do que a simples capacidade de sentir dor: são capazes de fazer planos; de interagir entre si e com humanos em tarefas complexas, tomando decisões autônomas; integram-se na ecologia emocional das famílias humanas de forma significativa, construindo maneiras inteligentes de comunicar suas emoções. (Isso sem mencionar como animais humanizados são onipresentes em nosso imaginário cultural, dos desenhos animados infantis aos símbolos de times de futebol, de personagens do folclore popular a blockbusters hollywoodianos). De fato, o contraste entre essa percepção cotidiana e o que sugerem os pensamentos teológico e teórico mencionados acima faz parecer que há racionalização em excesso em tais argumentos. E onde há racionalização demais, ao invés de uma descrição do mundo, o mais provável é que haja uma tentativa de controle da realidade. Ou seja, trata-se mais de um discurso político, que tenta estabilizar relações desiguais de poder, do que qualquer outra coisa (nada de novo, aqui, para as ciências sociais ou para a filosofia da ciência).

É da própria atividade científica, no entanto, que vêm as evidências mais contundentes de que os animais são muito mais do que seres sencientes. No dia 7 de julho de 2012, um grupo de neurocientistas, neurofarmacologistas, neurofisiologistas, neuroanatomistas e cientistas da neurocomputação, reunidos na Universidade de Cambridge, produziu o documento intitulado Manifesto de Cambridge sobre a Consciência, onde se afirma o seguinte: “a ausência de neocortex não parece impedir um organismo de experimentar estados afetivos. Evidências convergentes indicam que animais não-humanos têm os substratos neuroanatômicos, neuroquímicos e neurofisiológicos necessários para a geração de estados conscientes, aliados à capacidade de exibir comportamento intencional. Consequentemente, as evidências indicam que os humanos não são únicos em possuir substratos neurológicos que geram consciência. Animais não-humanos, incluindo todos os mamíferos e aves, e muitas outras criaturas, como os polvos, também possuem tais substratos neurológicos” (tradução livre). O manifesto foi assinado em jantar que contou com a presença de Stephen Hawking. Phillip Low, um dos neurocientistas que redigiu o manifesto, disse em entrevista à revista Veja (edição 2278, 18 jul. 2012): “É uma verdade inconveniente: sempre foi fácil afirmar que animais não têm consciência. Agora, temos um grupo de neurocientistas respeitados que estudam o fenômeno da consciência, o comportamento dos animais, a rede neural, a anatomia e a genética do cérebro. Não é mais possível dizer que não sabíamos”.

Outro grupo de pesquisas com resultados problemáticos para a manutenção de mamíferos em laboratórios vem das ciências que estudam a vida social dos animais, em seus ambientes selvagens. Animais são seres sociais; alguns, como os estudos em primatologia nos mostram, têm sua vida social pautada por dinâmicas políticas complexas, onde os indivíduos não apenas entendem suas relações de parentesco de forma sofisticada, mas também ocupam postos específicos em hierarquias sociais que podem ter quatro níveis de diferenciação. Estudos da Universidade de Princeton  com babuínos mostraram que fêmeas são capazes de induzir uma ruptura política no bando, o que resulta na formação de um novo grupo social. Há muitos outros animais que vivem em sociedades hierárquicas complexas, como os elefantes, por exemplo. Cães, gatos, coelhos e ratos são também, naturalmente, animais sociais, ainda que a complexidade de seus grupos não seja equiparável ao que se vê entre babuínos e elefantes.

Além disso tudo, está amplamente documentado que muitos primatas são capazes de inventar soluções tecnológicas para seus problemas cotidianos – criando ferramentas para quebrar cascas de sementes, por exemplo – e de transmitir o que foi inventado aos demais membros dos grupos; inclusive aos filhotes. Tecnicamente, isso significa que possuem cultura, isto é, vida simbólica. As baleias mudam o “estilo” de seu canto de um ano para o outro, sem que isso tenha causas estritamente biológicas. Segundo o filósofo e músico Bernd M. Scherer, não há como explicar a razão pela qual o canto de um pássaro seja estruturado pela repetição de uma sequência de sons de 1 ou 2 segundos, enquanto outros pássaros cantam em sequências muito mais longas, usando apenas as ideias de marcação de território e atração de fêmeas. Scherer, através de suas pesquisas (que incluem a interação musical, em estilo jazzístico, com pássaros e baleias), está convencido de que há uma dimensão estética presente no canto dos pássaros. Ele afirma, também, que grande parte dos pássaros precisa aprender a cantar, e não nasce com o canto completamente pré-definido geneticamente.

Não há razão para pensar que isso tudo não se aplique também às vacas, porcos e galinhas. Annie Potts, da Universidade de Canterbury, descreve no livro Animals and Society, de Margo DeMello (2012), sua observação da amizade de duas galinhas, Buffy e Mecki, no santuário de galinhas mantido pela pesquisadora. Em determinado momento, Buffy adoeceu, e sua saúde deteriorou-se a ponto de ela não poder mais sair de debaixo de um arbusto. Sua amiga Mecki manteve-se sentada ao seu lado, a despeito de toda a atividade das demais galinhas do santuário, bicando-a suavemente ao redor da face e em suas costas, enquanto emitia sons suaves. Quando Buffy finalmente morreu, Mecki retirou-se para dentro do galinheiro, e por determinado período recusou-se a comer e a acompanhar as outras galinhas em suas atividades. As galinhas são susceptíveis ao luto, conclui Potts.

Quanto mais se pesquisa a existência dos animais – especialmente aves e mamíferos -, mais se conclui que entre eles e nós há apenas diferenças de grau, e não de qualidade. Ambos temos consciência, inteligência, intencionalidade, inventividade, capacidade de improvisação e habilidade no uso de símbolos para a comunicação; ao que parece, os animais não-humanos fazem uso de tais capacidades de forma menos complexa que os humanos, e essa é toda a diferença. Vivemos o momento da descoberta de um admirável mundo novo animal. Nosso mundo tem muito mais subjetividades do que imaginávamos; talvez devêssemos parar de procurar inteligência em outros planetas e começar a olhar mais cuidadosamente ao nosso redor. O problema é que, quando o fazemos, o que vemos não é agradável. Se os animais têm a capacidade de serem sujeitos de suas próprias vidas, como apontam as evidências, ao impedir que o façam os humanos incorrem em ações, no mínimo, eticamente condenáveis.

Voltemos aos argumentos de defesa do uso de animais em laboratórios, citados no início desse texto. A maior parte das razões listadas se funda em razões utilitárias: “assim é mais eficaz; se fizermos de outra forma, perderemos eficiência”. Não se pode fundamentar uma discussão ética sobre pressupostos utilitaristas. Se assim não o fosse, seria aceitável matar um indivíduo saudável para salvar (através da doação de seus órgãos, por exemplo) outros cinco indivíduos doentes. O que boa parte dos cientistas não consegue enxergar é que se trata de um problema que não se resume à dimensão da técnica; trata-se de uma questão política (no sentido filosófico do termo, ou seja, que diz respeito ao problema existencial de seres vivos que coexistem em conflito de interesses).

Mas há outro elemento a pautar, silenciosamente, a lógica da produção científica: a competitividade mercadológica. Na academia, isso se manifesta através do produtivismo exacerbado, onde qualquer alteração metodológica que implique em redução de eficiência no ritmo de pesquisas e publicações encontra resistência. Em laboratórios privados, além da pressa imposta pela concorrência, há a pressão pela redução dos custos de pesquisa. É preciso avançar, a todo custo. Essa percepção do ritmo das coisas parece “natural”, mas não o é: os argumentos falam da colocação em risco das pesquisas que levarão à cura da AIDS ou da criação da vacina para a dengue, como se essas coisas já pré-existissem em algum lugar, e o seu tempo de “descoberta” fosse definido. Isso é uma ficção: não apenas científica, mas também política. As coisas não pré-existem, e o ritmo das coisas não tem nada de “natural”. O tempo é parte da política: é a sociedade quem deve escolher em qual ritmo deve seguir, e é absolutamente legítimo reduzir o ritmo dos avanços técnico-científicos, se as implicações morais para tais avanços forem inaceitáveis.

De todos os cientistas que se pronunciaram nos últimos dias, foi Sidarta Ribeiro, no Estadão do último domingo, o único que colocou, abertamente, o problema de os animais não serem coisas. Mas, para desânimo do leitor, e decepção dos que o admiram, como eu, suas conclusões caíram na vala comum do simplismo burocrático: o problema se resolveu com a criação do aparato burocrático de regulamentação do uso de animais, já mencionado anteriormente, no início desse texto. Ora, se os animais são seres dotados de intencionalidade, inteligência e afeto, e se a plenitude da sua existência depende de vida social complexa, a simples manutenção do seu organismo vivo e (supostamente) sem dor é suficiente para fazer com que eles “não sofram”? Sidarta coloca, de forma acertada, que é preciso atentar para o fato de que coisas muito piores ocorrem na indústria da carne, e também em muitas áreas da existência humana. Mas erra ao criar a impressão de que uma coisa existe em contraposição à outra (algo como “lutem pela humanização dos humanos desumanizados e deixem a ciência em paz”). Todas elas são parte do mesmo problema: a negação do direito a ser sujeito da própria vida. Uma atitude ética coerente implica a não diferenciação de espécie, considerando todos aqueles que efetivamente podem ser sujeitos da própria vida. O resto é escravidão, de animais humanos e não humanos.

Os protocolos de ética em pesquisa com sujeitos humanos foram desenvolvidos após a constatação dos horrores da experimentação médica nazista em judeus. Parece-me inevitável que, em algumas décadas, venhamos a pensar na experimentação com sujeitos-animais em laboratórios com o mesmo sentimento de indignação e horror.

Renzo Taddei é doutor em antropologia pela Universidade de Columbia. É professor da Universidade Federal de São Paulo.

 

A ciência e os beagles (Fórum)

O episódio envolvendo a invasão do Instituto Royal para o resgate de 178 cães da raça beagle até agora gerou mais ruído e discussão sem sentido que oportunidade de reflexão sobre uma questão de enorme importância

30/10/2013 11:51 am

Por Ulisses Capozzoli, no Observatório da Imprensa

O episódio envolvendo a invasão do Instituto Royal para o resgate de 178 cães da raça beagle, em São Roque, a 66 km de São Paulo, ao que tudo indica até agora gerou mais ruído e discussão sem sentido que oportunidade de reflexão sobre uma questão de enorme importância.

A invasão da unidade da empresa e retirada dos animais que serviam de cobaias para experimentos científicos veiculada de maneira um tanto sensacionalista pela mídia até agora só produziu dois blocos antagônicos: um favorável e outro contrário à operação.

A questão, no entanto, é mais complexa e não tem como ser encaminhada de forma promissora com apego, por exemplo, a certa ortodoxia legal, de um lado, e liberdade de ação ilimitada, de outro. Daí a necessidade de uma reflexão mais equilibrada e promissora sobre o caso.

A invasão do Instituto Royal pelos ambientalistas faz sentido de um ponto de vista, digamos, histórico. Mas a operação em si, independentemente de outras consequências, traz riscos que certa ingenuidade dos ambientalistas não considerou.

Vamos a cada uma delas.

Os ambientalistas já haviam estimulado o Ministério Público a se pronunciar sobre a situação da pesquisa com os beagles, mas esse processo, como se sabe, é indesejavelmente lento (Reprodução)

Direito natural

A brutalidade e desamor com animais, especialmente os domésticos e em particular envolvendo cães, tratados pela mídia nos últimos tempos têm sensibilizado toda e qualquer pessoa com um mínimo de percepção e preocupação quanto aos direitos elementares que se deve ter com tudo o que vive: humanos e animais. Nos dois casos, no entanto, o noticiário da TV em horário nobre, e as páginas de jornais e revistas, têm demonstrado a crise de valores em que vivemos e as consequências amplas e complexas dessa situação em termos de violência, brutalidade e desamor.

Animais mutilados, arrastados, presos a carros e motocicletas como forma de punição, espancados como via de liberação de rancor, ódio e outras formas de transgressões patológicas certamente criaram, no conjunto da sociedade, um sentimento de impunidade em relação aos infratores. Sem falar dos odiosos rodeios de espetáculos grotestos, como as chamadas “festas de peão boiadeiro”, cópias precárias do que ocorre no Texas, nos Estados Unidos, e disseminadas pelo país como cogumelos que brotam em qualquer lugar.

Da mesma forma, os relatos de cães que aguardam fielmente pelo retorno de seus donos mortos e que jamais retornarão (caso de um mecânico e de um tratador, entre outros) sensibilizam e sugerem que os animais podem ser mais sensíveis e “generosos” que boa parte dos humanos.

Certamente esse tipo de procedimento esteve presente na decisão dos ambientalistas em invadir a sede do Instituto Royal e liberar os 178 beagles utilizados em experimentos científicos exatamente por serem dóceis e gentis no trato.

Os advogados do instituto alegam que a empresa tinha autorização legal para realizar pesquisas com os animais e que, portanto, os ambientalistas são raivosos, inconsequentes e especialmente criminosos, neste último caso por mais de uma razão. A verdade, no entanto, é que o fato de o Instituto Royal dispor de licença para pesquisa com os beagles é, certamente, uma situação necessária mas não suficiente – e exatamente neste ponto pode estar o núcleo fundamental de toda a questão.

Isso significa que o instituto, seguramente informado do inconformismo dos ambientalistas (nada disso ocorre da noite para o dia sem certa fermentação de ânimos), deveria ter tratado a questão mais cientificamente e, o que significa dizer com mais responsabilidade e eficiência.

E isso não aconteceu.

O Instituto Royal deveria ter convidado um grupo de representante dos ambientalistas, com participação do Ministério Público, para conhecer e discutir a situação dos animais.

E isso não aconteceu.

Os ambientalistas já haviam estimulado o Ministério Público a se pronunciar sobre a situação da pesquisa com os beagles, mas esse processo, como se sabe, é indesejavelmente lento, burocrático e, em boa parte dos casos, absolutamente frustrante. Então, se o Instituto Royal não teve procedimento devido (procedimento científico, pode se dizer) para lidar com o entorno social em sua sede de pesquisa com animais, é preciso que isso seja formalmente reconhecido e que o instituto seja responsabilizado por isso.

E, certamente, o mais importante que apenas a responsabilização do Instituto Royal por isso: que o reconhecimento dessa situação seja capaz de criar um ambiente novo e promissor em relação ao uso de animais como cobaias na produção de medicamentos para humanos.

Pode-se, como defendem alguns, dispensar inteiramente o uso de cobaias vivas nesse tipo de investigação científica?

A resposta, aqui, está muito longe de um puro “sim” ou “não”. É mais complexa e desafiadora. E exatamente por isso deve ser analisada num contexto mais amplo e sempre com a preocupação de evitar, de forma crescente, o uso dessas cobaias vivas.

As razões para isso são de diversas ordens e uma delas é o elementar direito natural de os animais poderem viver de forma digna, da mesma forma que os humanos, ainda que ambos, homens e animais, partilhem neste momento de um mundo violento, insensível e aparentemente sem muita perspectiva de mudança no futuro imediato.

História emblemática

A Sociedade Brasileira para o Progresso da Ciência (SBPC) liberou, semana passada, uma nota para a mídia condenando a invasão do Instituto Royal pelos ambientalistas e isso foi aproveitado pela empresa para se passar por vítima de truculência por parte dos ambientalistas.

Na verdade, a nota da SBPC não foi uma iniciativa muito inteligente, porque foi unilateral, restrita e para ser claro: ortodoxa e formal. Para posicionar-se devidamente num caso como este, a respeitabilíssima SBPC teria a obrigação de fazer uma reflexão mais ampla e colocar a questão na dimensão necessária.

E isso não aconteceu.

Quanto aos ambientalistas, invadindo o laboratório como fizeram, poderiam (ou podem) ter sido vítima de contaminações de que, provavelmente, sequer suspeitaram quando se decidiram pela iniciativa. Essa é uma situação ameaçadora que não pode ser desconsiderada nem em relação ao grupo invasor, nem em termos de saúde pública.

Também o ministro da Ciência, Tecnologia e Inovação, Marco Antonio Raupp (ex-presidente da SBPC) teve uma fala aparentemente mal humorada com jornalistas, quando se referiu a esse acontecimento e condenou de forma unilateral a invasão dos ambientalistas para liberar os 178 beagles cobaia do Instituto Royal. O ministro Raupp, uma pessoa afável, brilhante e com julgamento criterioso e por isso mesmo equilibrado (eu o conheço há tempos e convivi profissionalmente com ele tanto no Instituto Nacional de Pesquisas Espaciais, o Inpe, quanto na própria SBPC), soou autoritário e excludente em sua fala.

E isso foi uma grande pena.

O ministro disse que o momento de se debater o uso ou não de animais como cobaias em laboratórios já havia ficado para trás e com isso desqualificou sumariamente os ambientalistas.

Os fatos, no entanto, em casos como esse, não são definitivos da mesma forma que, em ciência, as coisas também podem não ser definitivas. Uma teoria científica, por exemplo, só pode ser aceita se for refutável – e isso significa que o destino de uma teoria científica é literalmente o de viver na corda bamba.

Numa noite da semana passada, o âncora de um canal de TV aberta e popular se meteu a comentar o caso da invasão do Instituto Royal, aparentemente encorajado pela sumária nota liberada pela SBPC. O fato, no entanto, é que o pobre homem mal sabia do que falava, em um discurso superficial, obscuro, desinformado e por isso mesmo com todo potencial para aumentar a confusão sem lançar uma única semente com possibilidade de frutificar uma perspectiva mais inteligente, necessária e mais bem fundamentada, envolvendo todos os protagonistas de uma história emblemática como a liberação dos 178 pequenos beagles do Instituto Royal em São Roque.

***Ulisses Capozzoli, jornalista especializado em divulgação científica, é mestre e doutor em ciências pela Universidade de São Paulo e editor de Scientific American Brasil

Ainda não há opção a macaco, dizem cientistas (Folha de S.Paulo)

JC e-mail 4846, de 31 de outubro de 2013

Reportagem da Folha repercute entrevista com Esper Kallás, da Faculdade de Medicina da USP

Até agora, não há alternativa aos uso dos macacos para checar se novos tratamentos contra o HIV são seguros o suficiente para serem testados em humanos, segundo Esper Kallás, da Faculdade de Medicina da USP.

Em breve, uma vacina contra o HIV desenvolvida no Brasil começará a ser aplicada em macacos resos no Instituto Butantan.

Michel Nussenzweig, da Universidade Rockefeller, que usa macacos resos em seus estudos, afirma que animais não devem ser usados em pesquisas quando há alternativas.

“Não acho que animais devam ser usados para testar cosméticos. Só quando não houver escolha e quando a pesquisa tem a chance de beneficiar as pessoas.”

O roubo de 178 beagles do Instituto Royal, em São Roque, há quase duas semanas, trouxe o tema da pesquisa em animais à tona. O laboratório usava as cobaias para estudos com medicamentos contra câncer, entre outros.

“Infelizmente, não teria outra forma de fazer esse estudo [sobre HIV] sem os macacos. Levo isso muito a sério. Não podemos abusar dos animais. Tentamos criar as condições mais humanas possíveis durante os testes.”

Segundo Kallás, pesquisador nenhum gosta de sacrificar animais, mas é preciso pesar custo e benefício.

“São 35 milhões de pessoas com HIV no mundo. Até hoje, quantos macacos foram usados em pesquisas? Um número infinitamente menor. Ninguém gosta de testar macaco. Mas quais são as prioridades da saúde pública brasileira e mundial?”

O professor de imunologia da USP, que realiza pesquisas com seres humanos, afirma que a regulamentação brasileira já é bem rigorosa para os testes com animais e com pessoas.

Para ele, a demora na aprovação dos testes clínicos chega a ser excessiva. “O rigor aqui é maior do que lá fora. Acabamos sofrendo com isso, demoro um ano e meio para aprovar um teste clínico.”

Kallás afirma que quem faz pesquisa no Brasil hoje está “esmagado” entre o debate da sociedade sobre o uso de cobaias e a burocracia necessária para aprovar os testes.

“Esses movimentos [contra pesquisa em animais] já aconteceram na Europa e nos EUA há 20 anos. Sempre tem alguém que acha que salvar um coelho é mais importante do que salvar uma pessoa.”

http://www1.folha.uol.com.br/fsp/cienciasaude/136538-ainda-nao-ha-opcao-a-macaco-dizem-cientistas.shtml

Will U.S. Hurricane Forecasting Models Catch Up to Europe’s? (National Geographic)

Photo of a satellite view of Hurricane Sandy on October 28, 2012.

A satellite view of Hurricane Sandy on October 28, 2012.

Photograph by Robert Simmon, ASA Earth Observatory and NASA/NOAA GOES Project Science team

Willie Drye

for National Geographic

Published October 27, 2013

If there was a bright spot amid Hurricane Sandy’s massive devastation, including 148 deaths, at least $68 billion in damages, and the destruction of thousands of homes, it was the accuracy of the forecasts predicting where the storm would go.

Six days before Sandy came ashore one year ago this week—while the storm was still building in the Bahamas—forecasters predicted it would make landfall somewhere between New Jersey and New York City on October 29.

They were right.

Sandy, which had by then weakened from a Category 2 hurricane to an unusually potent Category 1, came ashore just south of Atlantic City, a few miles from where forecasters said it would, on the third to last day of October.

“They were really, really excellent forecasts,” said University of Miami meteorologist Brian McNoldy. “We knew a week ahead of time that something awful was going to happen around New York and New Jersey.”

That knowledge gave emergency management officials in the Northeast plenty of time to prepare, issuing evacuation orders for hundreds of thousands of residents in New Jersey and New York.

Even those who ignored the order used the forecasts to make preparations, boarding up buildings, stocking up on food and water, and buying gasoline-powered generators.

But there’s an important qualification about the excellent forecasts that anticipated Sandy’s course: The best came from a European hurricane prediction program.

The six-day-out landfall forecast arrived courtesy of a computer program known as the European Centre for Medium-range Weather Forecasting (ECMWF), which is based in England.

Most of the other models in use at the National Hurricane Center in Miami, including the U.S. Global Forecast System (GFS), didn’t start forecasting a U.S. landfall until four days before the storm came ashore. At the six-day-out mark, that model and others at the National Hurricane Center had Sandy veering away from the Atlantic Coast, staying far out at sea.

“The European model just outperformed the American model on Sandy,” says Kerry Emanuel, a meteorologist at Massachusetts Institute of Technology.

Now, U.S. weather forecasting programmers are working to close the gap between the U.S. Global Forecast System and the European model.

There’s more at stake than simple pride. “It’s to our advantage to have two excellent models instead of just one,” says McNoldy. “The more skilled models you have running, the more you know about the possibilities for a hurricane’s track.”

And, of course, the more lives you can save.

Data, Data, Data

The computer programs that meteorologists rely on to predict the courses of storms draw on lots of data.

U.S. forecasting computers and their European counterparts rely on radar that provides information on cloud formations and the rotation of a storm, on orbiting satellites that show precisely where a storm is, and on hurricane-hunter aircraft that fly into storms to collect wind speeds, barometric pressure readings, and water temperatures.

Hundreds of buoys deployed along the Atlantic and Gulf coasts, meanwhile, relay information about the heights of waves being produced by the storm.

All this data is fed into computers at the National Centers for Environmental Prediction at Camp Springs, Maryland, which use it to run the forecast models. Those computers, linked to others at the National Hurricane Center, translate the computer models into official forecasts.

The forecasters use data from all computer models—including the ECMWF—to make their forecasts four times daily.

Forecasts produced by various models often diverge, leaving plenty of room for interpretation by human forecasters.

“Usually, it’s kind of a subjective process as far as making a human forecast out of all the different computer runs,” says McNoldy. “The art is in the interpretation of all of the computer models’ outputs.”

There are two big reasons why the European model is usually more accurate than U.S. models. First, the European Centre for Medium-range Weather Forecasting model is a more sophisticated program that incorporates more data.

Second, the European computers that run the program are more powerful than their U.S. counterparts and are and able to do more calculations more quickly.

“They don’t have any top-secret things,” McNoldy said. “Because of their (computer) hardware, they can implement more sophisticated code.”

A consortium of European nations began developing the ECMWF in 1976, and the model has been fueled by a series of progressively more powerful supercomputers in England. It got a boost when the European Union was formed in 1993 and member states started contributing taxes for more improvements.

The ECMWF and the GFS are the two primary models that most forecasters look at, said Michael Laca, producer of TropMet, a website that focuses on hurricanes and other severe weather events.

Laca said that forecasts and other data from the ECMWF are provided to forecasters in the U.S. and elsewhere who pay for the information.

“The GFS, on the other hand, is freely available to everyone, and is funded—or defunded—solely through (U.S.) government appropriations,” Laca said.

And since funding for U.S. research and development is subject to funding debates in Congress, U.S. forecasters are “in a hard position to keep pace with the ECMWF from a research and hardware perspective,” Laca said.

Hurricane Sandy wasn’t the first or last hurricane for which the ECMWF was the most accurate forecast model. It has consistently outperformed the GFS and four other U.S. and Canadian forecasting models.

Greg Nordstrom, who teaches meteorology at Mississippi State University in Starkville, said the European model provided much more accurate forecasts for Hurricane Isaac in August 2012 and for Tropical Storm Karen earlier this year.

“This doesn’t mean the GFS doesn’t beat the Euro from time to time,” he says.  “But, overall, the Euro is king of the global models.”

McNoldy says the European Union’s generous funding of research and development of their model has put it ahead of the American version. “Basically, it’s a matter of resources,” he says. “If we want to catch up, we will. It’s important that we have the best forecasting in the world.”

European developers who work on forecasting software have also benefited from better cooperation between government and academic researchers, says MIT’s Emanuel.

“If you talk to (the National Oceanic and Atmospheric Administration), they would deny that, but there’s no real spirit of cooperation (in the U.S.),” he says. “It’s a cultural problem that will not get fixed by throwing more money at the problem.”

Catching Up Amid Chaos

American computer models’ accuracy in forecasting hurricane tracks has improved dramatically since the 1970s. The average margin of error for a three-day forecast of a hurricane’s track has dropped from 500 miles in 1972 to 115 miles in 2012.

And NOAA is in the middle of a ten-year program intended to dramatically improve the forecasting of hurricanes’ tracks and their likelihood to intensify, or become stronger before landfall.

One of the project’s centerpieces is the Hurricane Weather Research and Forecasting model, or HWRF. In development since 2007, it’s similar to the ECMWF in that it will incorporate more data into its forecasting, including data from the GFS model.

Predicting the likelihood that a hurricane will intensify is difficult. For a hurricane to gain strength, it needs humid air, seawater heated to at least 80ºF, and no atmospheric winds to disrupt its circulation.

In 2005, Hurricane Wilma encountered those perfect conditions and in just 30 hours strengthened from a tropical storm with peak winds of about 70 miles per hour to the most powerful Atlantic hurricane on record, with winds exceeding 175 miles per hour.

But hurricanes are as delicate as they are powerful. Seemingly small environmental changes, like passing over water that’s slightly cooler than 80ºF or ingesting dryer air, can rapidly weaken a storm. And the environment is constantly changing.

“Over the next five years, there may be some big breakthrough to help improve intensification forecasting,” McNoldy said. “But we’re still working against the basic chaos in the atmosphere.”

He thinks it will take at least five to ten years for the U.S. to catch up with the European model.

MIT’s Emanuel says three factors will determine whether more accurate intensification forecasting is in the offing: the development of more powerful computers that can accommodate more data, a better understanding of hurricane intensity, and whether researchers reach a point at which no further improvements to intensification forecasting are possible.

Emanuel calls that point the “prediction horizon” and says it may have already been reached: “Our level of ignorance is still too high to know.”

Predictions and Responses

Assuming we’ve not yet hit that point, better predictions could dramatically improve our ability to weather hurricanes.

The more advance warning, the more time there is for those who do choose to heed evacuation orders. Earlier forecasting would also allow emergency management officials more time to provide transportation for poor, elderly, and disabled people unable to flee on their own.

More accurate forecasts would also reduce evacuation expenses.

Estimates of the cost of evacuating coastal areas before a hurricane vary considerably, but it’s been calculated that it costs $1 million for every mile of coastline evacuated. That includes the cost of lost commerce, wages and salaries by those who leave, and the costs of actual evacuating, like travel and shelter.

Better forecasts could reduce the size of evacuation areas and save money.

They would also allow officials to get a jump on hurricane response.  The Federal Emergency Management Administration tries to stockpile relief supplies far enough away from an expected hurricane landfall to avoid damage from the storm but near enough so that the supplies can quickly be moved to affected areas afterwards.

More reliable landfall forecasts would help FEMA position recovery supplies closer to where they’ll be.

Whatever improvements are made, McNoldy warns that forecasting will never be foolproof. However dependable, he said, “Models will always be imperfect.”

Salvamento de Beagles usados como cobaias no Instituto Royal

JC e-mail 4839, de 22 de outubro de 2013

Especialista da Fiocruz considera equívoco invasão ao Instituto Royal (Jornal da Ciência)

Para Marco Aurélio Martins, o ataque de ativistas aos experimentos científicos é uma tentativa de desinformar “irresponsavelmente” a população

É preocupante a invasão “equivocada” de grupos defensores de animais ao Instituto Royal, levando 178 cães da raça beagle, além de outras cobaias científicas. A afirmação é do pesquisador chefe do Laboratório de Inflamação da Fundação Oswaldo Cruz (Fiocruz), Marco Aurélio Martins. “É preocupante pelo discurso equivocado sobre a importância que a pesquisa tem”, diz ele, em entrevista ao Jornal da Ciência. A invasão aconteceu na madrugada da última sexta-feira (18), na instituição instalada em São Roque, a 51 km de São Paulo.

Para ele, o ataque de ativistas aos experimentos científicos é uma tentativa de desinformar “irresponsavelmente” a população em geral, leiga dos conhecimentos científicos. “Passar para população de que a experimentação animal é algo simplesmente cruel, que agride os animais, que só faz mal a eles sem nenhum benefício nem para os seres humanos, nem para os próprios animais, é desinformar”, declara.

Martins reforça que o uso de animais nos experimentos científicos ainda é necessário para estudar várias áreas da saúde pública,desde as doenças tropicais, como malária e outras mais graves, como câncer, asma e hipertensão. “Como podemos abrir mão de estudar esses problemas tão complexos se não tivermos ferramentas experimentais?”, pergunta. “Todos os medicamentos disponíveis nas prateleiras das farmácias e no mercado veterinário dependeram da experimentação animal, em algum momento.”

O pesquisador insiste em dizer que todos os testes científicos com animais obedecem às normas nacionais, previstas na Lei Arouca Nº 11.794, em vigor há três anos. De acordo com ele, o uso de animais nos experimentos científicos não é exclusividade do Brasil. Conforme entende o biólogo, todos os países avançados em ciência e tecnologia permanecem usando os animais em experimentação. “Não é verdadeiro dizer que não se faz mais uso de animais na Europa e nos Estados Unidos”, diz. A restrição é maior (apenas) para primatas, como macacos e chimpanzés.”

JC – O senhor conhece a política do Instituto Royal aplicada nos experimentos científicos de animais?
Martins – Sou ligado a um instituto nacional de ciência e tecnologia de fármacos, INCT-Inofar, do qual o Royal é um dos colaboradores. Conheço a reputação e a seriedade do Instituto. Mas nunca o visitei e nunca utilizei o centro como prestador de serviços.

Qual a sua avaliação sobre a invasão dos ativistas ao Instituto Royal?
Vejo com muita preocupação. É uma radicalização. Já tivemos iniciativas semelhantes no Brasil no passado, mas nada tão veemente. Na própria Fiocruz, por volta de 2000, houve uma invasão, quando pesquisadores foram processados pelo fato de gambás serem encontrados fora da caixa deles. Mas nunca vi algo tão radical, como agora, de ver o pessoal entrar e liberar os animais. Me preocupa muito este momento, no qual o Brasil vive uma tensão social, de manifestações, como os Black Blocs. Já vimos esse filme em outros países, em que esse ativismo levou a problemas enormes, de agressividade.

Esse cenário preocupa a área científica?
Preocupa pela desinformação irresponsável. Passar para a população em geral, leiga, de que a experimentação animal é algo simplesmente cruel, que agride aos animais, que só faz mal aos animais sem nenhum benefício para os seres humanos e nem para os próprios animais. Isso é desinformar. Não é difícil sensibilizar, sobretudo, as pessoas que não sabem como as pesquisas são realizadas. Ou informar, equivocamente, de que apenas o Brasil é o único país que utiliza os animais em experimentos científicos. Preocupa o discurso equivocado sobre a importância que a pesquisa tem. Os profissionais da ciência do Brasil se deparam hoje com uma responsabilidade muito grande. Temos de ser muito hábeis e contar com a colaboração da imprensa para que as palavras não sejam deturpadas. É preciso ter cuidado de passar para a população em geral, de tranquilizá-la, de que os centros de pesquisas estabelecidos no Brasil são de excelência, não são centros de terror.

Quais os benefícios que o experimento cientifico com animal traz para a população e para os próprios animais?
Todos os medicamentos disponíveis nas prateleiras das farmácias e no mercado veterinário dependeram da experimentação animal, em algum momento. O risco de não fazermos isso, de não fazer os experimentos é enorme para a população na hora de disponibilizar os potenciais medicamentos.

Os experimentos científicos com animais precisam atender à legislação interna…
Claro que a comunidade científica sabe que precisa seguir as regras. Somos obrigados a obter licenças, existem leis que controlam a experimentação animal, tanto no Brasil como no mundo. No Brasil, a legislação é a Lei Arouca, em vigor há três anos. No caso, se houvesse uma denúncia de maus tratos na Fiocruz ou mesmo no Instituto Royal, o Concea [Conselho Nacional de Controle de Experimentação Animal] tem o papel de receber a denúncia, de avaliar e investigar para tomar as atitudes. Os maus-tratos de animais de experimentação são passíveis de criminalização. Se tiver acontecendo irregularidade, isso tem de ser exemplarmente punido. O que não pode é autorizar que as pessoas saiam invadindo o local e liberando animais de experimentação. Isso trará prejuízos não apenas para o andamento das pesquisas científicas, mas para a credibilidade do desenvolvimento de novos fármacos no país, para a população e para os próprios animais. Se é que existem maus tratos aos animais que isso seja levado aos órgãos competentes e que se puna quem tiver agindo de maneira errada.

É o caso do Instituto Royal?
Não acredito que seja. Pelo que conheço sobre a reputação das pessoas responsáveis não tenho razão nenhuma para acreditar que tivesse ocorrendo algum tipo de irregularidade interna. Se tivesse acontecendo, numa hipótese terrível, hoje a nossa sociedade já dispõe de um canal, que é Concea.

As pesquisas ainda são necessárias com os animais?
Claro que são, porque precisamos de mecanismos para avançar nas formas de tratamento (de saúde) que temos hoje, na terapia. Ainda temos problemas enormes em várias áreas da saúde pública, desde as doenças tropicais, como malária e outras mais graves, como câncer, asma e hipertensão. Como podemos abrir mão de estudar esses problemas tão complexos se não tivermos ferramentas experimentais? Como impedir cientistas e especialistas, dentro das condições de boas práticas e de boa conduta ética, de entender as doenças e buscar uma forma de controlá-las? Isso seria interromper a investigação científica. Não se pode passar para a opinião pública a ideia de que não se pode mais usar os animais em experimentos científicos.

Outros países ainda usam animais em experimentos científicos?
Claro que usam. Todos os países considerados avançados em ciência e tecnologia continuam usando os animais em experimentação. Não é verdadeiro dizer que não se faz mais uso de animais na Europa ou nos Estados Unidos. A restrição é maior (apenas) para primatas, como macacos e chimpanzés.

Os protocolos proíbem a crueldade nos animais?
Não pode haver crueldade. Isso é crime. Ao montar um protocolo experimental o pesquisador tem de garantir que o animal esteja dentro das condições de bem estar, para que possa, inclusive, acreditar nos resultados a serem obtidos da experimentação.

(Viviane Monteiro – Jornal da Ciência)

Outras matérias sobre o assunto:

Revista Galileu

‘Um dia reduziremos. Mas acabar com testes em animais agora é impossível’

http://revistagalileu.globo.com/Revista/Common/0,,EMI344225-17770,00-UM+DIA+REDUZIREMOS+MAS+ACABAR+COM+TESTES+EM+ANIMAIS+AGORA+E+IMPOSSIVEL.html

Folha de S.Paulo

Retirada de cães de instituto afeta pesquisa anticâncer, diz cientista

http://www1.folha.uol.com.br/fsp/cotidiano/135127-retirada-de-caes-de-instituto-afeta-pesquisa-anticancer-diz-cientista.shtml

Experimentação animal

http://www1.folha.uol.com.br/fsp/opiniao/135050-experimentacao-animal.shtml

Deputado fica com ‘guarda’ e dá nome de filhas a beagles

http://www1.folha.uol.com.br/fsp/cotidiano/135124-deputado-fica-com-guarda-e-da-nome-de-filhas-a-beagles.shtml

O Globo

Ministério Público de SP espera investigação da polícia para decidir sobre beagles

http://oglobo.globo.com/pais/ministerio-publico-de-sp-espera-investigacao-da-policia-para-decidir-sobre-beagles-10467368#ixzz2iSUmfYZr

O Estado de S.Paulo

Ladrões de cobaias

http://www.estadao.com.br/noticias/impresso,ladroes-de-cobaias-,1088290,0.htm

Instituto doará beagles que forem recuperados

http://www.estadao.com.br/noticias/impresso,instituto-doara-beagles-que-forem-recuperados,1088254,0.htm

Zero Hora

Sentimentalismo e direitos dos animais

http://wp.clicrbs.com.br/opiniaozh/2013/10/22/sentimentalismo-e-direitos-dos-animais/?topo=13,1,1,,,13

Agência Câmara Notícias

Comissão investigará denúncias de maus-tratos contra animais no Instituto Royal

http://www2.camara.gov.br/camaranoticias/noticias/CIENCIA-E-TECNOLOGIA/455160-COMISSAO-INVESTIGARA-DENUNCIAS-DE-MAUS-TRATOS-CONTRA-ANIMAIS-NO-INSTITUTO-ROYAL.html

*   *   *

22/10/2013 – 03h00

Retirada de cães de instituto afeta teste anticâncer, diz cientista (Folha de S.Paulo)

JAIRO MARQUES e RAFAEL GARCIA

DE SÃO PAULO

A retirada de 178 cães da raça beagle de um laboratório em São Roque (a 66 km de São Paulo) comprometeu experimentos avançados de um medicamento para tratamento contra câncer –além de fitoterápicos para usos diversos.

A informação é do médico Marcelo Marcos Morales, um dos secretários da Sociedade Brasileira para o Progresso da Ciência e coordenador do Concea (Conselho Nacional de Controle de Experimentação Animal), ligado ao Ministério da Ciência e Tecnologia.

“Um trabalho que demorou anos para ser produzido, que tinha resultados promissores para o desenvolvimento do país, foi jogado no lixo”, disse ele, em referência à invasão do Instituto Royal por ativistas na semana passada.

“O prejuízo é incalculável para a ciência e para o benefício das pessoas”, afirmou.

O cientista não revelou o nome do medicamento desenvolvido, que é protegido por contrato, nem para qual tipo de câncer ele seria usado. Mas informou que se tratava de um tipo de remédio produzido fora do país e que teve a patente quebrada.

Sala é encontrada com objetos revirados no Instituto Royal, em São Roque (SP)

O Royal também não detalha os experimentos alegando restrição contratual.

Os fitoterápicos eram baseados em plantas da flora nacional e poderiam ser usados, por exemplo, para combater dor e inflamações.

Ativistas dizem que os cães sofriam maus-tratos. O instituto nega. Ontem ele disse que, quando recuperados, receberão tratamento e podem “ser colocados para doação”.

Doutor em biofísica, Morales afirma que os cientistas “também não querem trabalhar com animais”, mas que o método é ainda o mais eficaz para testes de tratamentos médicos e vacinas.

“Seria possível não nos alimentarmos mais com carne? Com pesquisa é a mesma relação. Deixamos de usar animais e vamos testar vacinas em nossas crianças?”

Para Morales, as pessoas estão “confundindo” animais domésticos com cães que nasceram dentro de biotérios, sob condições controladas e rígidas para o uso científico.

“O apelo do cão é muito grande, tanto é que levaram todos os beagles, mas deixaram todos os ratos.”

A autoridade brasileira responsável por aprovar pesquisas com humanos, a Conep (Comissão Nacional de Ética em Pesquisa), não avaliza projetos de drogas que não tenham passado por testes de segurança em animais.

Cachorros estão em uma parcela pequena de experimentos científicos –nos quais os camundongos respondem por 74% dos animais. A maioria dos cães é usada para averiguar a toxicidade de medicamentos.

Editoria de arte/Folhapress

 

Terrestrial Ecosystems at Risk of Major Shifts as Temperatures Increase (Science Daily)

Oct. 8, 2013 — Over 80% of the world’s ice-free land is at risk of profound ecosystem transformation by 2100, a new study reveals. “Essentially, we would be leaving the world as we know it,” says Sebastian Ostberg of the Potsdam Institute for Climate Impact Research, Germany. Ostberg and collaborators studied the critical impacts of climate change on landscapes and have now published their results inEarth System Dynamics, an open access journal of the European Geosciences Union (EGU).

This image shows simulated ecosystem change by 2100, depending on the degree of global temperature increase: 2 degrees Celsius (upper image) or five degrees Celsius (lower image) above preindustrial levels. The parameter “ (Gamma) measures how far apart a future ecosystem under climate change would be from the present state. Blue colours (lower “) depict areas of moderate change, yellow to red areas (higher “) show major change. The maps show the median value of the “ parameter across all climate models, meaning at least half of the models agree on major change in the yellow to red areas, and at least half of the models are below the threshold for major change in the blue areas. (Credit: Ostberg et al., 2013)

The researchers state in the article that “nearly no area of the world is free” from the risk of climate change transforming landscapes substantially, unless mitigation limits warming to around 2 degrees Celsius above preindustrial levels.

Ecosystem changes could include boreal forests being transformed into temperate savannas, trees growing in the freezing Arctic tundra or even a dieback of some of the world’s rainforests. Such profound transformations of land ecosystems have the potential to affect food and water security, and hence impact human well-being just like sea level rise and direct damage from extreme weather events.

The new Earth System Dynamics study indicates that up to 86% of the remaining natural land ecosystems worldwide could be at risk of major change in a business-as-usual scenario (see note). This assumes that the global mean temperature will be 4 to 5 degrees warmer at the end of this century than in pre-industrial times — given many countries’ reluctance to commit to binding emissions cuts, such warming is not out of the question by 2100.

“The research shows there is a large difference in the risk of major ecosystem change depending on whether humankind continues with business as usual or if we opt for effective climate change mitigation,” Ostberg points out.

But even if the warming is limited to 2 degrees, some 20% of land ecosystems — particularly those at high altitudes and high latitudes — are at risk of moderate or major transformation, the team reveals.

The researchers studied over 150 climate scenarios, looking at ecosystem changes in nearly 20 different climate models for various degrees of global warming. “Our study is the most comprehensive and internally consistent analysis of the risk of major ecosystem change from climate change at the global scale,” says Wolfgang Lucht, also an author of the study and co-chair of the research domain Earth System Analysis at the Potsdam Institute for Climate Impact Research.

Few previous studies have looked into the global impact of raising temperatures on ecosystems because of how complex and interlinked these systems are. “Comprehensive theories and computer models of such complex systems and their dynamics up to the global scale do not exist.”

To get around this problem, the team measured simultaneous changes in the biogeochemistry of terrestrial vegetation and the relative abundance of different vegetation species. “Any significant change in the underlying biogeochemistry presents an ecological adaptation challenge, fundamentally destabilising our natural systems,” explains Ostberg.

The researchers defined a parameter to measure how far apart a future ecosystem under climate change would be from the present state. The parameter encompasses changes in variables such as the vegetation structure (from trees to grass, for example), the carbon stored in the soils and vegetation, and freshwater availability. “Our indicator of ecosystem change is able to measure the combined effect of changes in many ecosystem processes, instead of looking only at a single process,” says Ostberg.

He hopes the new results can help inform the ongoing negotiations on climate mitigation targets, “as well as planning adaptation to unavoidable change.”

Note

Even though 86% of land ecosystems are at risk if global temperature increases by 5 degrees Celsius by 2100, it is unlikely all these areas will be affected. This would mean that the worst case scenario from each climate model comes true.

Journal Reference:

  1. S. Ostberg, W. Lucht, S. Schaphoff, D. Gerten. Critical impacts of global warming on land ecosystemsEarth System Dynamics, 2013; 4 (2): 347 DOI: 10.5194/esd-4-347-2013

IPCC climate report: humans ‘dominant cause’ of warming – and other articles (BBC)

27 September 2013 Last updated at 09:12 GMT

By Matt McGrathEnvironment correspondent, BBC News, Stockholm

Climate change “threatens our planet, our only home”, warns Thomas Stocker, IPCC co-chair

A landmark report says scientists are 95% certain that humans are the “dominant cause” of global warming since the 1950s.

The report by the UN’s climate panel details the physical evidence behind climate change.

On the ground, in the air, in the oceans, global warming is “unequivocal”, it explained.

It adds that a pause in warming over the past 15 years is too short to reflect long-term trends.

The panel warns that continued emissions of greenhouse gases will cause further warming and changes in all aspects of the climate system.

To contain these changes will require “substantial and sustained reductions of greenhouse gas emissions”.

Infographic

Projections are based on assumptions about how much greenhouse gases might be released

After a week of intense negotiations in the Swedish capital, the summary for policymakers on the physical science of global warming has finally been released.

The first part of an IPCC trilogy, due over the next 12 months, this dense, 36-page document is considered the most comprehensive statement on our understanding of the mechanics of a warming planet.

It states baldly that, since the 1950s, many of the observed changes in the climate system are “unprecedented over decades to millennia”.

Each of the last three decades has been successively warmer at the Earth’s surface, and warmer than any period since 1850, and probably warmer than any time in the past 1,400 years.

“Our assessment of the science finds that the atmosphere and ocean have warmed, the amount of snow and ice has diminished, the global mean sea level has risen and that concentrations of greenhouse gases have increased,” said Qin Dahe, co-chair of IPCC working group one, who produced the report.

Speaking at a news conference in the Swedish capital, Prof Thomas Stocker, another co-chair, said that climate change “challenges the two primary resources of humans and ecosystems, land and water. In short, it threatens our planet, our only home”.

Since 1950, the report’s authors say, humanity is clearly responsible for more than half of the observed increase in temperatures.

Dr Rajendra Pachauri said he was confident the report would convince the public on global climate change

But a so-called pause in the increase in temperatures in the period since 1998 is downplayed in the report. The scientists point out that this period began with a very hot El Nino year.

“Trends based on short records are very sensitive to the beginning and end dates and do not in general reflect long-term climate trends,” the report says.

Prof Stocker, added: “I’m afraid there is not a lot of public literature that allows us to delve deeper at the required depth of this emerging scientific question.

“For example, there are not sufficient observations of the uptake of heat, particularly into the deep ocean, that would be one of the possible mechanisms to explain this warming hiatus.”

“Likewise we have insufficient data to adequately assess the forcing over the last 10-15 years to establish a relationship between the causes of the warming.”

However, the report does alter a key figure from the 2007 study. The temperature range given for a doubling of CO2 in the atmosphere, called equilibrium climate sensitivity, was 2.0C to 4.5C in that report.

In the latest document, the range has been changed to 1.5C to 4.5C. The scientists say this reflects improved understanding, better temperature records and new estimates for the factors driving up temperatures.

In the summary for policymakers, the scientists say that sea level rise will proceed at a faster rate than we have experienced over the past 40 years. Waters are expected to rise, the document says, by between 26cm (at the low end) and 82cm (at the high end), depending on the greenhouse emissions path this century.

The scientists say ocean warming dominates the increase in energy stored in the climate system, accounting for 90% of energy accumulated between 1971 and 2010.

For the future, the report states that warming is projected to continue under all scenarios. Model simulations indicate that global surface temperature change by the end of the 21st Century is likely to exceed 1.5 degrees Celsius, relative to 1850.

Prof Sir Brian Hoskins, from Imperial College London, told BBC News: “We are performing a very dangerous experiment with our planet, and I don’t want my grandchildren to suffer the consequences of that experiment.”

What is the IPCC?

In its own words, the IPCC is there “to provide the world with a clear scientific view on the current state of knowledge in climate change and its potential environmental and socio-economic impacts”.

The offspring of two UN bodies, the World Meteorological Organization and the United Nations Environment Programme, it has issued four heavyweight assessment reports to date on the state of the climate.

These are commissioned by the governments of 195 countries, essentially the entire world. These reports are critical in informing the climate policies adopted by these governments.

The IPCC itself is a small organisation, run from Geneva with a full time staff of 12. All the scientists who are involved with it do so on a voluntary basis.

Document

PDF download IPCC Summary for Policymakers

Related Stories

Ahead of IPCC report, fossil-fuel groups organize climate denial campaign (Grist)

By , 20 Sep 2013 11:38 AM

tiny man, huge megaphone
Shutterstock
If only they would shut up.

Watch out: A tsunami of stupidity is due to crash over the world next Friday.

That’s when the Intergovernmental Panel on Climate Change will release a summary of its big new climate assessment report, the first since 2007. But that’s not the stupid part.

A global campaign funded by fossil-fuel interests has been steadily building to discredit the report. That’s where the stupidity comes in. From The Guardian:

Organisations that dismiss the science behind climate change and oppose curbs on greenhouse gas pollution have made a big push to cloud the release of the IPCC report, the result of six years of work by hundreds of scientists.

Those efforts this week extended to promoting the fiction of a recovery in the decline of Arctic sea ice.

The IPCC assessments, produced every six or seven years, are seen as the definitive report on climate change, incorporating the key findings from some 9,000 articles published in scientific journals.

Climate deniers are pushing their messages out through blogs as well as old-fashioned outlets like the Daily MailFrom Skeptical Science:

Like the way a picnic on a sunny afternoon in August tends to attract lots of annoying wasps, major events on the climate change timeline tend to see certain contrarian figures and organisations dialling up the rhetorical output.

This is frustrating yet it has over the years become quite predictable: arguing with some climate change contrarians is similar to attempting debate with a well-trained parrot. Imagine: the parrot has memorised some twenty statements that it can squawk out at random. Thus it will follow up on ‘no warming since 1997′ with ‘in the 1970s they said there’d be an ice-age’ and so on. Another piece in the UK-based Daily Mail’s Sunday edition of September 8th 2013, written by a figure familiar to Skeptical Science readers, Mail and Vanity Fair journalist David Rose, gives a classic example of such parroting. There’s another in the UK’s Daily Telegraph along remarkably similar lines (it could even be the same parrot).

Meanwhile, the Koch-funded Heartland Institute has already published a compilation of lies in its own preemptive report. Its “experts” are so desperate to get their climate-denying messages out that they would probably turn up at your kid’s birthday party if you asked them nicely enough.

The news here is predictable but not terrible. Scientists and activists are doing better jobs of organizing communication strategies in the face of anti-science blather. From Inside Climate News:

Dozens of prominent scientists involved with drafting IPCC reports formed a Climate Science Rapid Response Team that punches back against misleading claims about climate research.

Kevin Trenberth is part of that team as well as a climate scientist at the National Center for Atmospheric Research and an author and editor on the forthcoming IPCC report. He explained that nearly every time there is a scientific paper linking man-made carbon dioxide emissions to climate change, the “denial-sphere” immediately responds with accusations that the research is wrong.

“The scientists get nasty emails. Certain websites comment. … So a bunch of us formed this rapid response team to deflate these arguments.” The group has been very busy in recent weeks.

Although those who make a living by denying climate science are screaming as loudly as ever, most people are getting better at tuning out their histrionics. Again from the Inside Climate News article:

Cindy Baxter, a longtime climate campaigner, said she thinks climate skeptics “are getting more shrill, but getting less notice,” because Americans are more convinced that global warming is real.

“Hurricane Sandy. Droughts. Flooding. Wildfires. People are feeling the effects of climate change. That makes it harder to deny,” said Baxter, who is also a co-author of Greenpeace’s new report Dealing in Doubt, which chronicles the history of climate skeptic campaigns. Polls say a larger majority of Americans from both parties see recent waves of deadly weather as a sign of climate change.

Unfortunately, this denier campaign will be around for a while. The IPCC report due out next Friday is just the first of four scheduled to be released over the coming year. Maybe after the final one comes out, the denial pushers will finally potter off to find new work, perhaps as baby-seal clubbers, orphan poisoners, or textbook reviewers for the Texas State Board of Education.

John Upton is a science fan and green news boffin who tweets, posts articles to Facebook, and blogs about ecology. He welcomes reader questions, tips, and incoherent rants: johnupton@gmail.com.

Sociological explanations for climate change denial (resilience.org)

by Olga Bonfiglio, originally published by Energy Bulletin  | MAR 17, 2012

Talk about climate change seems to be a taboo subject in America today.

Three years ago promises by both major political parties to do something have gone by the wayside while today’sRepublican presidential candidates reject evidence that humans are responsible for the warming of the earth

The mainstream media routinely report on extreme weather, like this winter’s high temperatures and last summer’s droughts, but reporters and commentators typically veer away from connecting it to climate change.

Last October, the New York Times reported that those who believed the Earth was warming dropped from 79 percent in 2006 to 59 percent.  However, a month laterpolling experts blamed this decline on a collapse in media coverage and pollsters’ deeply flawed questions.

It turns out that the United States is one of the few countries in the world still quibbling over climate change, and its influence is stymieing progress at environmental summits like Durbin (2011), Cancun (2010), and Copenhagen (2009).

What’s going on?

As you may expect, it’s about money, politics, culture and media bias.

Ron Kramer, a sociologist at Western Michigan University, has been studying how sociological and cultural factors are preventing Americans from talking about or acting on climate change.  He drew on the research of sociologist Stanley Cohen, professor emeritus at the London School of Economics, who says that denial “refers to the maintenance of social worlds in which an undesirable situation (event, condition, phenomenon) is unrecognized, ignored or made to seem normal.”

He cites three categories of denial:

  • literal denial is: “the assertion that something did not happen or is not true.”
  • With an interpretive denial, the basic facts are not denied, however, “…they are given a different meaning from what seems apparent to others.” People recognize that something is happening but that it’s good for us.
  • Implicatory denial “covers the multitude of vocabularies, justifications, rationalizations, evasions that we use to deal with our awareness of so many images of unmitigated suffering.” Here, “knowledge itself is not an issue. The genuine challenge is doing the ‘right’ thing with this knowledge.”

Through literal and interpretive denial, climate change deniers declare that the earth is not warming even though 98 percent of our scientists have written thousands of peer-reviewed papers and reports concluding that climate change is real and caused by human activity.

Actually, deniers are organized by conservative think tanks funded by the fossil fuel industry that attempt to create doubt about climate science and block actions that would reduce greenhouse gas emissions and create clean energy alternatives.

To do this they use conspiracy theories and “fake” experts with no background in climate science.  They insist on absolute certainty, cherry-pick the data and ignore the larger body of evidence or misrepresent data and promote logical fallacies like “the climate has changed in the past, therefore current change is natural.”

“Creating doubt blocks any action,” said Kramer.  “This is the same tactic the tobacco industry used to deny that smoking was harmful to people’s health. And, some of the same people are now doing this with climate change.”

The “conservative climate change denial counter-movement,” as Kramer calls it, was led by the George W. Bush administration and congressional Republicans who obstruct and manipulate the political system to promote their view.  They are complemented by right-wing media outlets such as Fox News and Rush Limbaugh.  The mainstream media’s “balancing norm” practice then allows the denialists to be placed on par with the climate scientists.

The rationale behind this counter-movement is that corporations make money if Americans continue their materialistic attitudes and practices so they lobby politicians to protect their interests and they fund think tanks that accuse “eco-scientists” of destroying capitalism, as revealed by the New YorkTimes.

Corporations provide research monies to university scientists, who rely on them as support from state legislatures and benefactors dwindles.  They advance narratives that people from other parts of the world are worse off than Americans, so we don’t have to change.  They make claims to virtue on TV ads about all they are doing for the environment (a.k.a. “greenwashing”).  And, they argue that doing something about global warming will cost too much and cause them to lose their competitive edge.

Research shows that conservative white males are more likely to espouse climate change denial than other groups for two reasons.  They tend to filter out any information that is different from their already-held worldview because it threatens the identity, status and esteem they receive by being part of their group, he said.  Sociologists call this “Identity Protective Cognition.”

Secondly, conservative white males have a stronger need to justify the status quo and resist attempts to change it.  Sociologists call this “System Justification.”

For example, successful conservative white males stridently defend the capitalist system because it has worked well for them. For anyone to imply the system is not functioning is an unfathomable impossibility akin to blasphemy. [Climatewire via Scientific American]

“Identity Protective Cognition” should also inform environmental activists that the information deficit model of activism is not always a good approach, warned Kramer.  Just providing more information may not change anyone’s views given their commitment to a particular cultural worldview.

In implicatory denial people recognize that something untoward is happening but they fail to act because they are emotionally uncomfortable or troubled about it.

For example, there are the people who are aware of climate change and have some information about it, but take no action, make no behavioral changes and remain apathetic.

This response occurs when people confront confusing and conflicting information from political leaders and the media.  Consequently, they have yet another reason for denial—or they believe the problem can be overcome with technology and they can go on with their lives.

“At some level people understand that climate change can alter human civilization, but they feel a sense of helplessness and powerlessness at the prospect,” said Kramer.  “Others feel guilty that they may have caused the problem.”

Several cultural factors also thwart any decisive action on climate change, said Kramer.

Americans have a tendency toward “anti-intellectualism,” so “nerdy” climate scientists are easily suspect.

Our strong sense of “individualism” helps us strive toward our individual goals, but it likewise keeps us from joining together to do something about climate change.  They ask:  “What good does it do to recycle or drive less when we have such a huge, complex problem as climate change?”

“American exceptionalism” celebrates the American way of life, which has given us a vast bounty of wealth and material goods.  We want to continue this life and, in fact, deserve it.  Nothing bad will happen to us.

Finally, “political alienation” keeps us from trusting our political system to tackle the problem.

“What we ultimately need is international agreement about what to do about climate change,” said Kramer.  “Nothing will happen, however, until the United States commits to doing something.”

What to do about climate change?

Kramer believes we should regard climate change as a matter of social justice and not just science because the people most affected by it are not the ones who created it.

North American and European lifestyles, which are based on easy and cheap access to fossil fuels for energy, agriculture and consumer products have inadvertently caused much suffering, poverty and environmental degradation to the people of the Global South.

To illustrate, analysts at Maplecroft have produced a map that measures of the risk of climate change impacts and the social and financial ability of communities and governments to cope with it.  The most vulnerable nations are Haiti, Bangladesh and Zimbabwe.

Second, Kramer emphasized the moral obligation we have to future generations and other species.  Simply put, we must reduce our use of fossil fuels that are largely responsible for emitting greenhouse gases into the atmosphere and causing extreme weather conditions like hurricanes, floods, drought, tsunami, earthquakes, heat waves, warm winters and melting polar ice caps.

Again, people’s lives, livelihoods and communities are affected and it shouldn’t escape notice that human encroachment on animal habitats is contributing to massive species losses, what some call the Sixth Great Extinction.  Criminologists are grappling with the language characterizing this wonton disregard with words like “ecocide” and “biocide.”

Kramer suggests that we shift our lifestyles from a culture based on materialistic consumption to a culture based on the caretaking of the Earth, as advocated by Scott Russell Sanders in A Conservationist Manifesto (2009).  Sanders asks such questions as (see a video with Sanders)

  • What would a truly sustainable economy look like?
  • What responsibilities do we bear for the well-being of future generations?
  • What responsibilities do we bear toward Earth’s millions of other species?
  • In a time of ecological calamity and widespread human suffering, how should we imagine a good life?

Third, Kramer calls for a more “prophetic imagination” as put forward by Walter Brueggeman, a theologian and professor emeritus at Columbia Theological Seminary, where we take a reasoned approach and face the realities of climate change, confront the truth, “penetrate the numbness and despair,” and avoid drowning in our sense of loss and grief that is paralyzing us from action.

Such an approach can give voice to a “hope-filled responsibility” where people are empowered to act rather than left listless and inattentive.

“It’s not about someone being responsible, but all of us,” said Kramer, “because we are all affected by climate change.”

One major way we can do that is by reducing greenhouse gas emissions—and we have a way to measure our progress.

Bill McKibben, author of The End of Nature (1988), one of the first popularized books about global warming, contends that rising counts in greenhouse gas emissions are threatening our world.  Today, we are at 400 parts per million (ppm) and heading toward 550-650 ppm compared to pre-industrial counts that measured at 275 ppm.  McKibben advocates a goal of 350 ppm and has encouraged people in 188 countries to reduce carbon emissions in their communities.  (See the video explaining this charge.)

However, can people really be motivated to act given the complexity of the problem?

Kramer harkens to Howard Zinn’s autobiographical book, You Can’t Be Neutral on a Moving Train (1994).  In it Zinn says that we have to “look to history” to see that people working at the grassroots level were able to make change despite tremendous and entrenched obstacles.  It was people who ended slavery and Apartheid, liberated India, dismantled the Soviet Union and initiated the Arab Spring of 2011.  (See a video with Zinn)

“Climate change is a political issue” Kramer insisted.  “We know what to do.  We know that we need to mitigate the carbon emissions from fossil fuels.  What we lack is the political will and the mechanisms to move forward.”

Kramer insisted that climate change is not a party or ideological issue but rather a humanity issue.

“Planet Earth will survive,” he concluded, “but will human civilization?”

Quinto relatório do IPCC: repercussão

Documento divulgado nesta sexta (27/09) afirma que a temperatura do planeta pode subir quase 5 °C durante este século, o que poderá elevar o nível dos oceanos em até 82 centímetros (foto do Oceano Ártico: Nasa)

Especiais

Quinto relatório do IPCC mostra intensificação das mudanças climáticas

27/09/2013

Por Karina Toledo, de Londres

Agência FAPESP – Caso as emissões de gases do efeito estufa continuem crescendo às atuais taxas ao longo dos próximos anos, a temperatura do planeta poderá aumentar até 4,8 graus Celsius neste século – o que poderá resultar em uma elevação de até 82 centímetros no nível do mar e causar danos importantes na maior parte das regiões costeiras do globo.

O alerta foi feito pelos cientistas do Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês), da Organização das Nações Unidas (ONU), que divulgaram no dia 27 de setembro, em Estocolmo, na Suécia, a primeira parte de seu quinto relatório de avaliação (AR5). Com base na revisão de milhares de pesquisas realizadas nos últimos cinco anos, o documento apresenta as bases científicas da mudança climática global.

De acordo com Paulo Artaxo, professor do Instituto de Física da Universidade de São Paulo (USP) e um dos seis brasileiros que participaram da elaboração desse relatório, foram simulados quatro diferentes cenários de concentrações de gases de efeito estufa, possíveis de acontecer até o ano de 2100 – os chamados “Representative Concentration Pathways (RCPs)”.

“Para fazer a previsão do aumento da temperatura são necessários dois ingredientes básicos: um modelo climático e um cenário de emissões. No quarto relatório (divulgado em 2007) também foram simulados quatro cenários, mas se levou em conta apenas a quantidade de gases de efeito estufa emitida. Neste quinto relatório, nós usamos um sistema mais completo, que leva em conta os impactos dessas emissões, ou seja, o quanto haverá de alteração no balanço de radiação do sistema terrestre”, explicou Artaxo, que está em Londres para a FAPESP Week London, onde participou de um painel sobre mudança climática.

O balanço de radiação corresponde à razão entre a quantidade de energia solar que entra e que sai de nosso planeta, indicando o quanto ficou armazenada no sistema terrestre de acordo com as concentrações de gases de efeito estufa, partículas de aerossóis emitidas e outros agentes climáticos.

O cenário mais otimista prevê que o sistema terrestre armazenará 2,6 watts por metro quadrado (W/m2) adicionais. Nesse caso, o aumento da temperatura terrestre poderia variar entre 0,3 °C e 1,7 °C de 2010 até 2100 e o nível do mar poderia subir entre 26 e 55 centímetros ao longo deste século.

“Para que esse cenário acontecesse, seria preciso estabilizar as concentrações de gases do efeito estufa nos próximos 10 anos e atuar para sua remoção da atmosfera. Ainda assim, os modelos indicam um aumento adicional de quase 2 °C na temperatura – além do 0,9 °C que nosso planeta já aqueceu desde o ano 1750”, avaliou Artaxo.

O segundo cenário (RCP4.5) prevê um armazenamento de 4,5 W/m2. Nesse caso, o aumento da temperatura terrestre seria entre 1,1 °C e 2,6 °C e o nível do mar subiria entre 32 e 63 centímetros. No terceiro cenário, de 6,0 W/m2, o aumento da temperatura varia de 1,4 °C até 3,1 °C e o nível do mar subiria entre 33 e 63 centímetros.

Já o pior cenário, no qual as emissões continuam a crescer em ritmo acelerado, prevê um armazenamento adicional de 8,5 W/m2. Em tal situação, segundo o IPCC, a superfície da Terra poderia aquecer entre 2,6 °C e 4,8 °C ao longo deste século, fazendo com que o nível dos oceanos aumente entre 45 e 82 centímetros.

“O nível dos oceanos já subiu em média 20 centímetros entre 1900 e 2012. Se subir outros 60 centímetros, com as marés, o resultado será uma forte erosão nas áreas costeiras de todo o mundo. Rios como o Amazonas, por exemplo, sofrerão forte refluxo de água salgada, o que afeta todo o ecossistema local”, disse Artaxo.

Segundo o relatório AR5 do IPCC, em todos os cenários, é muito provável (90% de probabilidade) que a taxa de elevação dos oceanos durante o século 21 exceda a observada entre 1971 e 2010. A expansão térmica resultante do aumento da temperatura e o derretimento das geleiras seriam as principais causas.

O aquecimento dos oceanos, diz o relatório, continuará ocorrendo durante séculos, mesmo se as emissões de gases-estufa diminuírem ou permanecerem constantes. A região do Ártico é a que vai aquecer mais fortemente, de acordo com o IPCC.

Segundo Artaxo, o aquecimento das águas marinhas tem ainda outras consequências relevantes, que não eram propriamente consideradas nos modelos climáticos anteriores. Conforme o oceano esquenta, ele perde a capacidade de absorver dióxido de carbono (CO2) da atmosfera. Se a emissão atual for mantida, portanto, poderá haver uma aceleração nas concentrações desse gás na atmosfera.

“No relatório anterior, os capítulos dedicados ao papel dos oceanos nas mudanças climáticas careciam de dados experimentais. Mas nos últimos anos houve um enorme avanço na ciência do clima. Neste quinto relatório, por causa de medições feitas por satélites e de observações feitas com redes de boias – como as do Projeto Pirata que a FAPESP financia no Atlântico Sul –, a confiança sobre o impacto dos oceanos no clima melhorou muito”, afirmou Artaxo.

Acidificação dos oceanos

Em todos os cenários previstos no quinto relatório do IPCC, as concentrações de CO2 serão maiores em 2100 em comparação aos níveis atuais, como resultado do aumento cumulativo das emissões ocorrido durante os séculos 20 e 21. Parte do CO2 emitido pela atividade humana continuará a ser absorvida pelos oceanos e, portanto, é “virtualmente certo” (99% de probabilidade) que a acidificação dos mares vai aumentar. No melhor dos cenários – o RCP2,6 –, a queda no pH será entre 0,06 e 0,07. Na pior das hipóteses – o RCP8,5 –, entre 0,30 e 0,32.

“A água do mar é alcalina, com pH em torno de 8,12. Mas quando absorve CO2 ocorre a formação de compostos ácidos. Esses ácidos dissolvem a carcaça de parte dos microrganismos marinhos, que é feita geralmente de carbonato de cálcio. A maioria da biota marinha sofrerá alterações profundas, o que afeta também toda a cadeia alimentar”, afirmou Artaxo.

Ao analisar as mudanças já ocorridas até o momento, os cientistas do IPCC afirmam que as três últimas décadas foram as mais quentes em comparação com todas as anteriores desde 1850. A primeira década do século 21 foi a mais quente de todas. O período entre 1983 e 2012 foi “muito provavelmente” (90% de probabilidade) o mais quente dos últimos 800 anos. Há ainda cerca de 60% de probabilidade de que tenha sido o mais quente dos últimos 1.400 anos.

No entanto, o IPCC reconhece ter havido uma queda na taxa de aquecimento do planeta nos últimos 15 anos – passando de 0,12 °C por década (quando considerado o período entre 1951 e 2012) para 0,05°C (quando considerado apenas o período entre 1998 e 2012).

De acordo com Artaxo, o fenômeno se deve a dois fatores principais: a maior absorção de calor em águas profundas (mais de 700 metros) e a maior frequência de fenômenos La Niña, que alteram a taxa de transferência de calor da atmosfera aos oceanos. “O processo é bem claro e documentado em revistas científicas de prestígio. Ainda assim, o planeta continua aquecendo de forma significativa”, disse.

Há 90% de certeza de que o número de dias e noites frios diminuíram, enquanto os dias e noites quentes aumentaram na escala global. E cerca de 60% de certeza de que as ondas de calor também aumentaram. O relatório diz haver fortes evidências de degelo, principalmente na região do Ártico. Há 90% de certeza de que a taxa de redução da camada de gelo tenha sido entre 3,5% e 4,1% por década entre 1979 e 2012.

As concentrações de CO2 na atmosfera já aumentaram mais de 20% desde 1958, quando medições sistemáticas começaram a ser feitas, e cerca de 40% desde 1750. De acordo com o IPCC, o aumento é resultado da atividade humana, principalmente da queima de combustíveis fósseis e do desmatamento, havendo uma pequena participação da indústria cimenteira.

Para os cientistas há uma “confiança muito alta” (nove chances em dez) de que as taxas médias de CO2, metano e óxido nitroso do último século sejam as mais altas dos últimos 22 mil anos. Já mudanças na irradiação solar e a atividade vulcânica contribuíram com uma pequena fração da alteração climática. É “extremamente provável” (95% de certeza) de que a influência humana sobre o clima causou mais da metade do aumento da temperatura observado entre 1951 e 2010.

“Os efeitos da mudança climática já estão sendo sentidos, não é algo para o futuro. O aumento de ondas de calor, da frequência de furacões, das inundações e tempestades severas, das variações bruscas entre dias quentes e frios provavelmente está relacionado ao fato de que o sistema climático está sendo alterado”, disse Artaxo.

Impacto persistente

Na avaliação do IPCC, muitos aspectos da mudança climática vão persistir durante muitos séculos mesmo se as emissões de gases-estufa cessarem. É “muito provável” (90% de certeza) que mais de 20% do CO2 emitido permanecerá na atmosfera por mais de mil anos após as emissões cessarem, afirma o relatório.

“O que estamos alterando não é o clima da próxima década ou até o fim deste século. Existem várias publicações com simulações que mostram concentrações altas de CO2 até o ano 3000, pois os processos de remoção do CO2 atmosférico são muito lentos”, contou Artaxo.

Para o professor da USP, os impactos são significativos e fortes, mas não são catastróficos. “É certo que muitas regiões costeiras vão sofrer forte erosão e milhões de pessoas terão de ser removidas de onde vivem hoje. Mas claro que não é o fim do mundo. A questão é: como vamos nos adaptar, quem vai controlar a governabilidade desse sistema global e de onde sairão recursos para que países em desenvolvimento possam construir barreiras de contenção contra as águas do mar, como as que já estão sendo ampliadas na Holanda. Quanto mais cedo isso for planejado, menores serão os impactos socioeconômicos”, avaliou.

Os impactos e as formas de adaptação à nova realidade climática serão o tema da segunda parte do quinto relatório do IPCC, previsto para ser divulgado em janeiro de 2014. O documento contou com a colaboração de sete cientistas brasileiros. Outros 13 brasileiros participaram da elaboração da terceira parte do AR5, que discute formas de mitigar a mudança climática e deve sair em março.

De maneira geral, cresceu o número de cientistas vindos de países em desenvolvimento, particularmente do Brasil, dentro do IPCC. “O Brasil é um dos países líderes em pesquisas sobre mudança climática atualmente. Além disso, o IPCC percebeu que, se o foco ficasse apenas nos países desenvolvidos, informações importantes sobre o que está acontecendo nos trópicos poderiam deixar de ser incluídas. E é onde fica a Amazônia, um ecossistema-chave para o planeta”, disse Artaxo.

No dia 9 de setembro, o Painel Brasileiro de Mudanças Climáticas (PBMC) divulgou o sumário executivo de seu primeiro Relatório de Avaliação Nacional (RAN1). O documento, feito nos mesmos moldes do relatório do IPCC, indica que no Brasil o aumento de temperatura até 2100 será entre 1 °C e 6 °C, em comparação à registrada no fim do século 20. Como consequência, deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

“A humanidade nunca enfrentou um problema cuja relevância chegasse perto das mudanças climáticas, que vai afetar absolutamente todos os seres vivos do planeta. Não temos um sistema de governança global para implementar medidas de redução de emissões e verificação. Por isso, vai demorar ainda pelo menos algumas décadas para que o problema comece a ser resolvido”, opinou Artaxo.

Para o pesquisador, a medida mais urgente é a redução das emissões de gases de efeito estufa – compromisso que tem de ser assumido por todas as nações. “A consciência de que todos habitamos o mesmo barco é muito forte hoje, mas ainda não há mecanismos de governabilidade global para fazer esse barco andar na direção certa. Isso terá que ser construído pela nossa geração”, concluiu.

*   *   *

JC e-mail 4822, de 27 de Setembro de 2013.

IPCC lança na Suécia novo relatório sobre as mudanças climáticas (O Globo)

O documento reúne previsões do aquecimento global até 2100 apontando aumento de temperatura superior a 2 graus. ‘A influência humana no clima é clara’, diz trabalho

A previsão do Painel Intergovernamental sobre Mudanças Climáticas da ONU (IPCC) é que o aquecimento global até o final do século 21 seja “provavelmente superior” a 2 graus (com pelo menos 66% de chances disto acontecer), superando o limite considerado seguro pelos especialistas. Até 2100, o nível do mar deve aumentar perigosamente de 45 a 82 centímetros, considerando o pior cenário (ou de 26 a 55 centímetros, no melhor), e o gelo do Ártico pode diminuir até 94% durante o verão local.

Além disso, o relatório do IPCC — publicado na manhã desta sexta-feira em Estocolmo, na Suécia, com as bases científicas mais atualizadas sobre as mudanças climáticas — considera que há mais de 95% de certeza para afirmar que o homem causou mais da metade da elevação média da temperatura entre 1951 e 2010. Neste período, o nível dos oceanos aumentou 19 centímetros.

O documento, com o trabalho de 259 cientistas e representantes dos governos de 195 países, inclusive o Brasil, ressalta que parte das emissões de CO2 provocadas pelo homem continuará a ser absorvida pelos oceanos. Por isso, é praticamente certo (99% de probabilidade) que a acidificação dos mares vai aumentar, afetando profundamente a vida marinha.

– A mudança de temperatura da superfície do planeta deve exceder 1,5 grau, e, provavelmente, será superior a 2 graus – disse o copresidente do trabalho Thomas Stocker. – É muito provável que as ondas de calor ocorram com mais frequência e durem mais tempo. Com o aquecimento da Terra, esperamos ver regiões atualmente úmidas recebendo mais chuvas, e as áridas, menos, apesar de haver exceções.

Os especialistas fizeram quatro projeções considerando situações diferentes de emissões de gases-estufa. Em todas, há aumento de temperatura. As mais brandas ficam entre 0,3 ºC e 1,7 ºC. Nestes casos, seria necessário diminuir muito as emissões. Já no cenário mais pessimista, o aquecimento ficaria entre 2,6 ºC e 4,8 ºC.

– Na minha opinião, o relatório é muito bom, repleto de informações e todas muito bem fundamentadas – comentou a especialista brasileira Suzana Kahn, que faz parte do grupo de pesquisadores do IPCC em Estocolmo. – No fundo, o grande ganho é a comprovação do que tem sido dito há mais tempo, com muito mais informação sobre o papel dos oceanos, das nuvens e aerossóis. Isto é muito importante para o mundo científico, pois aponta para áreas que precisam ser mais investigadas.

Suzana conta que a dificuldade de fazer projeções e análises para o Hemisfério Sul causou muita polêmica. O grande problema é a falta de dados:

– Acho que isto foi interessante para comprovar que estávamos certos ao criar o Painel Brasileiro de Mudança Climática para suprir esta lacuna.

De acordo com Carlos Rittl, Coordenador do Programa de Mudanças Climáticas e Energias do WWF-Brasil, o relatório do IPCC deixa uma mensagem clara: o aquecimento global é incontestável. E é preciso começar agora contra os piores efeitos.

– O relatório do IPCC reafirma algumas certezas e vai além. Aponta a perda de massa de gelo, o aumento do nível dos oceanos, o incremento de chuvas onde já se chove muito, além da diminuição da umidade nas regiões mais áridas. No Brasil, o semiárido pode se tornar mais árido. Por outro lado, o Sul e Sudeste podem ter mais chuvas do que hoje – enumerou Rittl. – É importante ressaltar que o relatório fala de médias. Ou seja, em algumas regiões do país pode haver aumento de seis graus, com picos de mais de oito graus. A gente não está preparado para isso. E nossas emissões nos colocam numa trajetória de altíssimo risco, mais próxima dos piores cenários.

Para Rittl, a ciência está dando uma mensagem clara: é preciso diminuir as emissões. Isso significa levar os temas relacionados às mudanças climáticas para as decisões políticas:

– Hoje o aquecimento global ainda é um tema marginal. Os investimentos em infraestrutura, energia, o plano Safra, todos os grandes investimentos da escala de trilhões de reais não têm praticamente nenhuma vinculação com a lógica de baixo carbono. Estamos sendo pouco responsáveis.

Diplomacia e ciência
John Kerry, secretário de Estado dos EUA, ressalta que o relatório do IPCC não deve ser esquecido num armário, nem interpretado como uma peça política feita por políticos: “é ciência”, resume. De acordo com ele, os Estados Unidos estão “profundamente comprometidos em combater as mudanças climáticas”, reduzindo emissões de gases-estufa e investindo em formas eficientes de energia.

Este é mais um chamado de atenção: aqueles que negam a ciência ou procuram desculpas para evitar a ação estão brincando com fogo – afirmou Kerry. – O resumo do relatório do IPCC é este: a mudança climática é real, está acontecendo agora, os seres humanos são a causa dessa transformação, e somente a ação dos seres humanos pode salvar o mundo de seus piores impactos.

Lançado a cada seis anos, os relatórios do IPCC estão sob críticas de especialistas. O processo de análise dos documentos por representantes do governo acaba chegando a uma situação intermediária entre diplomacia e ciência, explica Emilio La Rovere, pesquisador da Coppe/UFRJ.

– O resultado é um meio termo entre diplomacia e ciência – afirmou Rovere.
Um dos pontos mais polêmicos são os chamados hiatos, períodos de cerca de 15 anos em que a temperatura média do planeta não aumenta. Por exemplo, a Agência Estatal de Meteorologia da Espanha anunciou, nesta semana, que o último trimestre na Península Ibérica foi o menos quente desde 2008. Entretanto, o relatório de 2007 do IPCC não citou estas pausas do aquecimento, dando argumento aos céticos.

Limite do aquecimento global
As informações do IPCC são importantes para a criação de estratégias de combate às mudanças climáticas. Na Convenção do Clima da Dinamarca (COP-15, realizada em 2009), foi criada a meta de limitar o aquecimento global em 2 graus. Para isso acontecer em 2050, explica Emilio La Rovere, da Coppe/UFRJ, seria necessário cortar 80% das emissões em comparação com 1990:

– Os modelos matemáticos simulando evolução demográfica, economia mundial, demanda e oferta de energia mostram que fica realmente quase impossível atingir este objetivo.

Este é o Quinto Relatório do IPCC, que será lançado em quatro partes, entre setembro de 2013 e novembro de 2014. Nesta sexta-feira, foi publicado o documento do Grupo de Trabalho I (sobre os aspectos científicos das mudanças climáticas). Entre os dias 25 e 29 de março de 2014, será a vez do Grupo de Trabalho II (analisando os impactos, a adaptação e a vulnerabilidade), que se reunirá em Yokohama, no Japão. O Grupo de Trabalho III (especializado na mitigação dos impactos das mudanças climáticas) está previsto para os dias 7 e 11 de abril em Berlim, na Alemanha. Por fim, será criado um relatório síntese, cujos trabalhos ocorrerão entre os dias 27 e 31 de outubro, em Copenhague, na Dinamarca.

(Cláudio Motta/O Globo)

http://oglobo.globo.com/ciencia/ipcc-lanca-na-suecia-novo-relatorio-sobre-as-mudancas-climaticas-10173671#ixzz2g6D6tmU6

Matéria complementar de O Globo:

Relatório destaca como a ação humana agrava o aquecimento
http://oglobo.globo.com/ciencia/relatorio-destaca-como-acao-humana-agrava-aquecimento-1-10171896#ixzz2g6MfZIsl

Veja mais em:

Folha de S.Paulo
Relatório sobe tom de alerta sobre aquecimento
http://www1.folha.uol.com.br/fsp/saudeciencia/131005-relatorio-sobe-tom-de-alerta-sobre-aquecimento.shtml

Agência Estado
ONU culpa atividades humanas por aquecimento global
http://www.territorioeldorado.limao.com.br/noticias/not297255.shtm

Zero Hora
Temperatura da Terra subirá entre 0,3°C e 4,8°C neste século, aponta IPCC
http://zerohora.clicrbs.com.br/rs/geral/planeta-ciencia/noticia/2013/09/temperatura-da-terra-subira-entre-0-3c-e-4-8c-neste-seculo-aponta-ipcc-4283083.html

Correio Braziliense
Temperatura do planeta subirá entre 0,3 e 4,8ºC no século 21, diz IPCC
http://www.correiobraziliense.com.br/app/noticia/ciencia-e-saude/2013/09/27/interna_ciencia_saude,390388/temperatura-do-planeta-subira-entre-0-3-e-4-8-c-no-seculo-21-diz-ipcc.shtml

 

Por trás do desmatamento da Amazônia (Fapesp)

Mais de 50% das emissões de gases de efeito estufa do bioma são causados pela demanda do restante do país e do exterior por insumos produzidos na região, aponta estudo feito na USP (Nasa)

Especiais

20/09/2013

Por Elton Alisson

Agência FAPESP – O consumo interno do Brasil e as exportações de soja, carne bovina e outros produtos primários provenientes da Amazônia são responsáveis por mais da metade das taxas de desmatamento e, consequentemente, das emissões de gases de efeito estufa (GEE) registradas pelo bioma.

A avaliação é de um estudo realizado por pesquisadores da Faculdade de Economia, Administração e Contabilidade (FEA), da Universidade de São Paulo (USP), no âmbito de um Projeto Temático, realizado no Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG).

Os resultados do estudo foram apresentados no dia 12 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima), realizada pela FAPESP em parceria com a Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), em São Paulo.

“Mais da metade das emissões de GEE da Amazônia acontecem por conta da demanda de consumo fora da região, para abastecimento interno do país ou para exportação”, disse Joaquim José Martins Guilhoto, professor da FEA e um dos pesquisadores participantes do projeto.

De acordo com dados apresentados pelo pesquisador, obtidos do segundo Inventário Nacional de Emissões de Gases de Efeito Estufa – publicado no final de 2010, abrangendo o período de 1990 a 2005 –, em 2005 o Brasil emitiu mais de 2,1 gigatoneladas de CO2 equivalente. A Amazônia contribui com mais de 50% das emissões de GEE do país.

A fim de identificar e entender os fatores econômicos causadores do desmatamento e, por conseguinte, das emissões de GEE na Amazônia naquele ano, os pesquisadores fizeram um mapeamento das emissões diretas por atividade produtiva separando a Região Amazônica do restante do Brasil e calcularam a parcela de contribuição de cada um na emissão de CO2 equivalente, assim como a participação das exportações.

Os cálculos revelaram que as exportações diretas da Amazônia são responsáveis por 16,98% das emissões de GEE da região. Já as exportações do resto do país são responsáveis por mais 6,29% das emissões da Amazônia, uma vez que há produtos provenientes da região que são processados e exportados por outros estados brasileiros.

O consumo interno, por sua vez, responde por 46,13% das emissões amazônicas, sendo 30,01% pelo consumo no restante do país e 16,12% pelo consumo dentro da própria Região Amazônica, aponta o estudo.

“A soma desses percentuais demonstra que mais de 50% das emissões de GEE da Amazônia ocorrem por conta do consumo de bens produzidos na região, mas consumidos fora dela”, afirmou Guilhoto. “Essa constatação indica que os fatores externos são mais importantes para explicar as emissões de GEE pela Amazônia.”

Segundo o estudo, a pecuária, a produção de soja e de outros produtos agropecuários são os setores produtivos que mais contribuem para as emissões de GEE pela Amazônia. Mas, além deles, há outros setores econômicos, como o de mobiliário, entre outros, que são fortemente dependentes de insumos produzidos na região.

“Os dados obtidos no estudo mostram que, de modo geral, apesar de haver uma dependência muito maior da Amazônia pelos insumos produzidos pelo resto do Brasil, a pouca dependência que o resto do Brasil tem do bioma se dá em insumos fortemente relacionados com a emissão de GEE na região”, resumiu Guilhoto.

Redução do desmatamento

Em outro estudo também realizado por pesquisadores da FEA, no âmbito do Projeto Temático, constatou-se que entre 2002 e 2009 houve uma grande expansão da área de produção agropecuária brasileira e, ao mesmo tempo, uma redução drástica das taxas de desmatamento da Amazônia.

A cana-de-açúcar, a soja e o milho responderam por 95% da expansão líquida da área colhida entre 2002 e 2009, enquanto o rebanho bovino teve um acréscimo de 26 milhões de cabeças de gado. Nesse mesmo período a Amazônia registrou uma queda de 79% do desmatamento.

A fim de investigar os principais vetores do desmatamento no país, uma vez que boa parte dos eventos de expansão agropecuária ocorre fora da Amazônia, os pesquisadores fizeram um estudo usando análises espaciais integradas do território brasileiro, incluindo os seis biomas do país.

Para isso, utilizaram dados sobre desmatamento obtidos do Projeto Prodes, do Ministério do Meio Ambiente (MMA) e do Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais (Ibama), além de imagens georreferenciadas obtidas dos satélites Landsat, da agência espacial norte-americana Nasa.

O estudo revelou que, no período de 2002 a 2009, foram desmatados 12,062 milhões de hectares da Amazônia, 10,015 milhões de hectares do Cerrado, 1,846 milhão de hectares da Caatinga, 447 mil hectares do Pantanal, 375 mil hectares da Mata Atlântica e 257 mil hectares do Pampa.

“A soma desses números indica que o Brasil desmatou em sete anos o equivalente ao Estado de São Paulo mais o Triângulo Mineiro ou uma Grã-Bretanha”, calculou Rafael Feltran-Barbieri, pesquisador da FEA e um dos autores do estudo.

De acordo com o pesquisador, uma das principais conclusões do estudo foi que os outros biomas estão funcionando como uma espécie de “amortecedor” do desmatamento da Amazônia.

“Quando consideramos a expansão agropecuária do Brasil como um todo, vemos que boa parte da redução das taxas de desmatamento da Amazônia se deve ao fato de que os outros biomas estão sofrendo essas consequências [registrando aumento no desmatamento]”, afirmou.

Outra conclusão do estudo é de que há um impacto espacial sinérgico dos vetores do desmatamento no Brasil, uma vez que a expansão das diversas atividades agropecuárias – como o cultivo da cana e da soja ou a criação de gado – ocorre de forma concomitante e disputa território.

No caso da cana-de-açúcar, uma das constatações foi que, no período de 2002 a 2009, a cultura passou a ocupar áreas desmatadas por outras atividades agropecuárias, embora ela própria não tenha vocação para desmatar.

“Estamos percebendo que existe uma formação quase complementar entre as expansões [nos diferentes biomas] e isso faz com que os efeitos de desmatamento sejam altamente correlacionados”, disse Feltran-Barbieri.

“Essa constatação leva à conclusão de que, se o Brasil pretende assumir uma posição de fato responsável em relação às mudanças climáticas – e disso depende a agropecuária –, é preciso fazer planejamento estratégico do território, porque o planejamento setorial não está dando conta de compreender esses efeitos sinérgicos”, avaliou.

And now it’s global COOLING! Record return of Arctic ice cap as it grows by 60% in a year (Daily Mail)

  • Almost a million more square miles of ocean covered with ice than in 2012
  • BBC reported in 2007 global warming would leave Arctic ice-free in summer by 2013
  • Publication of UN climate change report suggesting global warming caused by humans pushed back to later this month

By DAVID ROSE

PUBLISHED: 23:37 GMT, 7 September 2013 | UPDATED: 12:01 GMT, 8 September 2013

A chilly Arctic summer has left nearly a million more square miles of ocean covered with ice than at the same time last year – an increase of 60 per cent.

The rebound from 2012’s record low comes six years after the BBC reported that global warming would leave the Arctic ice-free in summer by 2013.

Instead, days before the annual autumn re-freeze is due to begin, an unbroken ice sheet more than half the size of Europe already stretches from the Canadian islands to Russia’s northern shores.

global cooling

The Northwest Passage from the Atlantic to the Pacific has remained blocked by pack-ice all year. More than 20 yachts that had planned to sail it have been left ice-bound and a cruise ship attempting the route was forced to turn back.

Some eminent scientists now believe the world is heading for a period of cooling that will not end until the middle of this century – a process that would expose computer forecasts of imminent catastrophic warming as dangerously misleading.

The disclosure comes 11 months after The Mail on Sunday triggered intense political and scientific debate by revealing that global warming has ‘paused’ since the beginning of 1997 – an event that the computer models used by climate experts failed to predict.

In March, this newspaper further revealed that temperatures are about to drop below the level that the models forecast with ‘90 per cent certainty’.

The pause – which has now been accepted as real by every major climate research centre – is important, because the models’ predictions of ever-increasing global temperatures have made many of the world’s economies divert billions of pounds into ‘green’ measures to counter  climate change.

Those predictions now appear gravely flawed.

THERE WON’T BE ANY ICE AT ALL! HOW THE BBC PREDICTED CHAOS IN 2007

Only six years ago, the BBC reported that the Arctic would be ice-free in summer by 2013, citing a scientist in the US who claimed this was a ‘conservative’ forecast. Perhaps it was their confidence that led more than 20 yachts to try to sail the Northwest Passage from the Atlantic to  the Pacific this summer. As of last week, all these vessels were stuck in the ice, some at the eastern end of the passage in Prince Regent Inlet, others further west at Cape Bathurst.

Shipping experts said the only way these vessels were likely to be freed was by the icebreakers of the Canadian coastguard. According to the official Canadian government website, the Northwest Passage has remained ice-bound and impassable  all summer.

The BBC’s 2007 report quoted scientist  Professor Wieslaw Maslowski, who based his views on super-computer models and the fact that ‘we use a high-resolution regional model for the Arctic Ocean and sea ice’.

He was confident his results were ‘much more realistic’ than other projections, which ‘underestimate the amount of heat delivered to the sea ice’. Also quoted was Cambridge University expert

Professor Peter Wadhams. He backed Professor Maslowski, saying his model was ‘more efficient’ than others because it ‘takes account of processes that happen internally in the ice’.

He added: ‘This is not a cycle; not just a fluctuation. In the end, it will all just melt away quite suddenly.’

BBC

The continuing furore caused by The Mail on Sunday’s revelations – which will now be amplified by the return of the Arctic ice sheet – has forced the UN’s climate change body to hold a crisis meeting.

The UN Intergovernmental Panel on Climate Change (IPCC) was due in October to start publishing its Fifth Assessment Report – a huge three-volume study issued every six or seven years. It will now hold a pre-summit in Stockholm later this month.

Leaked documents show that governments which support and finance the IPCC are demanding more than 1,500 changes to the report’s ‘summary for policymakers’. They say its current draft does not properly explain the pause.

At the heart of the row lie two questions: the extent to which temperatures will rise with carbon dioxide levels, as well as how much of the warming over the past 150 years – so far, just 0.8C – is down to human greenhouse gas emissions and how much is due to natural variability.

In its draft report, the IPCC says it is ‘95 per cent confident’ that global warming has been caused by humans – up from 90 per cent in 2007.

This claim is already hotly disputed. US climate expert Professor Judith Curry said last night: ‘In fact, the uncertainty is getting bigger. It’s now clear the models are way too sensitive to carbon dioxide. I cannot see any basis for the IPCC increasing its confidence level.’

She pointed to long-term cycles  in ocean temperature, which have a huge influence on climate and  suggest the world may be approaching a period similar to that from 1965 to 1975, when there was a clear cooling trend. This led some scientists at the time to forecast an imminent ice age.

Professor Anastasios Tsonis, of the University of Wisconsin, was one of the first to investigate the ocean cycles. He said: ‘We are already in a cooling trend, which I think will continue for the next 15 years at least. There is no doubt the warming of the 1980s and 1990s has stopped.

Then... NASA satelite images showing the spread of Artic sea ice 27th August 2012Then… NASA satelite images showing the spread of Artic sea ice 27th August 2012

...And now, much bigger: The spread of Artic sea ice on August 15 2013…And now, much bigger: The same Nasa image taken in 2013

‘The IPCC claims its models show a pause of 15 years can be expected. But that means that after only a very few years more, they will have to admit they are wrong.’

Others are more cautious. Dr Ed Hawkins, of Reading University, drew the graph published by The Mail on Sunday in March showing how far world temperatures have diverged from computer predictions. He admitted the cycles may have caused some of the recorded warming, but insisted that natural variability alone could not explain all of the temperature rise over the past 150 years.

Nonetheless, the belief that summer Arctic ice is about to disappear remains an IPCC tenet, frequently flung in the face of critics who point to the pause.

Yet there is mounting evidence that Arctic ice levels are cyclical. Data uncovered by climate historians show that there was a massive melt in the 1920s and 1930s, followed by intense re-freezes that ended only in 1979 – the year the IPCC says that shrinking began.

Professor Curry said the ice’s behaviour over the next five years would be crucial, both for understanding the climate and for future policy. ‘Arctic sea ice is the indicator to watch,’ she said.

Read more: http://www.dailymail.co.uk/news/article-2415191/Global-cooling-Arctic-ice-caps-grows-60-global-warming-predictions.html#ixzz2foMLmebr 
Follow us: @MailOnline on Twitter | DailyMail on Facebook

Seca no semiárido deve se agravar nos próximos anos – e outros artigos relacionados à Conclima (Fapesp)

Pesquisadores alertam para necessidade de executar ações urgentes de adaptação e mitigação aos impactos das mudanças climáticas previstos na região (foto: Fred Jordão/Acervo ASACom)

12/09/2013

Por Elton Alisson

Agência FAPESP – Os problemas de seca prolongada registrados atualmente no semiárido brasileiro devem se agravar ainda mais nos próximos anos por causa das mudanças climáticas globais. Por isso, é preciso executar ações urgentes de adaptação e mitigação desses impactos e repensar os tipos de atividades econômicas que podem ser desenvolvidas na região.

A avaliação foi feita por pesquisadores que participaram das discussões sobre desenvolvimento regional e desastres naturais realizadas no dia 10 de setembro durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima).

Organizado pela FAPESP e promovido em parceria com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), o evento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com dados do Centro Nacional de Gerenciamento de Riscos e Desastres (Cenad), só nos últimos dois anos foram registrados 1.466 alertas de municípios no semiárido que entraram em estado de emergência ou de calamidade pública em razão de seca e estiagem – os desastres naturais mais recorrentes no Brasil, segundo o órgão.

O Primeiro Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (PBMC) – cujo sumário executivo foi divulgado no dia de abertura da Conclima – estima que esses eventos extremos aumentem principalmente nos biomas Amazônia, Cerrado e Caatinga e que as mudanças devem se acentuar a partir da metade e até o fim do século 21. Dessa forma, o semiárido sofrerá ainda mais no futuro com o problema da escassez de água que enfrenta hoje, alertaram os pesquisadores.

“Se hoje já vemos que a situação é grave, os modelos de cenários futuros das mudanças climáticas no Brasil indicam que o problema será ainda pior. Por isso, todas as ações de adaptação e mitigação pensadas para ser desenvolvidas ao longo dos próximos anos, na verdade, têm de ser realizadas agora”, disse Marcos Airton de Sousa Freitas, especialista em recursos hídricos e técnico da Agência Nacional de Águas (ANA).

Segundo o pesquisador, o semiárido – que abrange Bahia, Sergipe, Alagoas, Pernambuco, Rio Grande do Norte, Paraíba, Ceará, Piauí e o norte de Minas Gerais – vive hoje o segundo ano do período de seca, iniciado em 2011, que pode se prolongar por um tempo indefinido.

Um estudo realizado pelo órgão, com base em dados de vazão de bacias hidrológicas da região, apontou que a duração média dos períodos de seca no semiárido é de 4,5 anos. Estados como o Ceará, no entanto, já enfrentaram secas com duração de quase nove anos, seguidos por longos períodos nos quais choveu abaixo da média estimada.

De acordo com Freitas, a capacidade média dos principais reservatórios da região – com volume acima de 10 milhões de metros cúbicos de água e capacidade de abastecer os principais municípios por até três anos – está atualmente na faixa de 40%. E a tendência até o fim deste ano é de esvaziarem cada vez mais.

“Caso não haja um aporte considerável de água nesses grandes reservatórios em 2013, poderemos ter uma transição do problema de seca que se observa hoje no semiárido, mais rural, para uma seca ‘urbana’ – que atingiria a população de cidades abastecidas por meio de adutoras desses sistemas de reservatórios”, alertou Freitas.

Ações de adaptação

Uma das ações de adaptação que começou a ser implementada no semiárido nos últimos anos e que, de acordo com os pesquisadores, contribuiu para diminuir sensivelmente a vulnerabilidade do acesso à água, principalmente da população rural difusa, foi o Programa Um Milhão de Cisternas (P1MC).

Lançado em 2003 pela Articulação Semiárido Brasileiro (ASA) – rede formada por mais de mil organizações não governamentais (ONGs) que atuam na gestão e no desenvolvimento de políticas de convivência com a região semiárida –, o programa visa implementar um sistema nas comunidades rurais da região por meio do qual a água das chuvas é capturada por calhas, instaladas nos telhados das casas, e armazenada em cisternas cobertas e semienterradas. As cisternas são construídas com placas de cimento pré-moldadas, feitas pela própria comunidade, e têm capacidade de armazenar até 16 mil litros de água.

O programa tem contribuído para o aproveitamento da água da chuva em locais onde chove até 600 milímetros por ano – comparável ao volume das chuvas na Europa – que evaporam e são perdidos rapidamente sem um mecanismo que os represe, avaliaram os pesquisadores.

“Mesmo com a seca extrema na região nos últimos dois anos, observamos que a água para o consumo da população rural difusa tem sido garantida pelo programa, que já implantou cerca de 500 mil cisternas e é uma ação política de adaptação a eventos climáticos extremos. Com programas sociais, como o Bolsa Família, o programa Um Milhão de Cisternas tem contribuído para atenuar os impactos negativos causados pelas secas prolongadas na região”, afirmou Saulo Rodrigues Filho, professor da Universidade de Brasília (UnB).

Como a água tende a ser um recurso natural cada vez mais raro no semiárido nos próximos anos, Rodrigues defendeu a necessidade de repensar os tipos de atividades econômicas mais indicadas para a região.

“Talvez a agricultura não seja a atividade mais sustentável para o semiárido e há evidências de que é preciso diversificar as atividades produtivas na região, não dependendo apenas da agricultura familiar, que já enfrenta problemas de perda de mão de obra, uma vez que o aumento dos níveis de educação leva os jovens da região a se deslocar do campo para a cidade”, disse Rodrigues.

“Por meio de políticas de geração de energia mais sustentáveis, como a solar e a eólica, e de fomento a atividades como o artesanato e o turismo, é possível contribuir para aumentar a resiliência dessas populações a secas e estiagens agudas”, afirmou.

Outras medidas necessárias, apontada por Freitas, são de realocação de água entre os setores econômicos que utilizam o recurso e seleção de culturas agrícolas mais resistentes à escassez de água enfrentada na região.

“Há culturas no semiárido, como capim para alimentação de gado, que dependem de irrigação por aspersão. Não faz sentido ter esse tipo de cultura que demanda muito água em uma região que sofrerá muito os impactos das mudanças climáticas”, afirmou Freitas.

Transposição do Rio São Francisco

O pesquisador também defendeu que o projeto de transposição do Rio São Francisco tornou-se muito mais necessário agora – tendo em vista que a escassez de água deverá ser um problema cada vez maior no semiárido nas próximas décadas – e é fundamental para complementar as ações desenvolvidas na região para atenuar o risco de desabastecimento de água.

Alvo de críticas e previsto para ser concluído em 2015, o projeto prevê que as águas do Rio São Francisco cheguem às bacias do Rio Jaguaribe, que abastece o Ceará, e do Rio Piranhas-Açu, que abastece o Rio Grande do Norte e a Paraíba.

De acordo com um estudo realizado pela ANA, com financiamento do Banco Mundial e participação de pesquisadores da Universidade Federal do Ceará, entre outras instituições, a disponibilidade hídrica dessas duas bacias deve diminuir sensivelmente nos próximos anos, contribuindo para agravar ainda mais a deficiência hídrica do semiárido.

“A transposição do Rio Francisco tornou-se muito mais necessária e deveria ser acelerada porque contribuiria para minimizar o problema do déficit de água no semiárido agora, que deve piorar com a previsão de diminuição da disponibilidade hídrica nas bacias do Rio Jaguaribe e do Rio Piranhas-Açu”, disse Freitas à Agência FAPESP.

O Primeiro Relatório de Avaliação Nacional do PBMC, no entanto, indica que a vazão do Rio São Francisco deve diminuir em até 30% até o fim do século, o que colocaria o projeto de transposição sob ameaça.

Freitas, contudo, ponderou que 70% do volume de água do Rio São Francisco vem de bacias da região Sudeste, para as quais os modelos climáticos preveem aumento da vazão nas próximas décadas. Além disso, de acordo com ele, o volume total previsto para ser transposto para as bacias do Rio Jaguaribe e do Rio Piranhas-Açu corresponde a apenas 2% da vazão média da bacia do Rio São Francisco.

“É uma situação completamente diferente do caso do Sistema Cantareira, por exemplo, no qual praticamente 90% da água dos rios Piracicaba, Jundiaí e Capivari são transpostas para abastecer a região metropolitana de São Paulo”, comparou.

“Pode-se argumentar sobre a questão de custos da transposição do Rio São Francisco. Mas, em termos de necessidade de uso da água, o projeto reforçará a operação dos sistemas de reservatórios existentes no semiárido”, afirmou.

De acordo com o pesquisador, a água é distribuída de forma desigual no território brasileiro. Enquanto 48% do total do volume de chuvas que cai na Amazônia é escoado pela Bacia Amazônica, segundo Freitas, no semiárido apenas em média 7% do volume de água precipitada na região durante três a quatro meses chegam às bacias do Rio Jaguaribe e do Rio Piranhas-Açu. Além disso, grande parte desse volume de água é perdido pela evaporação. “Por isso, temos necessidade de armazenar essa água restante para os meses nos quais não haverá disponibilidade”, explicou.

As apresentações feitas pelos pesquisadores na conferência, que termina no dia 13, estarão disponíveis em: www.fapesp.br/conclima

 

Mudanças no clima do Brasil até 2100

10/09/2013

Por Elton Alisson*

Mais calor, menos chuva no Norte e Nordeste do país e mais chuva no Sul e Sudeste são algumas das projeções do Relatório de Avaliação Nacional do Painel Brasileiro de Mudanças Climáticas (foto: Eduardo Cesar/FAPESP)

Agência FAPESP – O clima no Brasil nas próximas décadas deverá ser mais quente – com aumento gradativo e variável da temperatura média em todas as regiões do país entre 1 ºC e 6 ºC até 2100, em comparação à registrada no fim do século 20.

No mesmo período, também deverá diminuir significativamente a ocorrência de chuvas em grande parte das regiões central, Norte e Nordeste do país. Nas regiões Sul e Sudeste, por outro lado, haverá um aumento do número de precipitações.

As conclusões são do primeiro Relatório de Avaliação Nacional (RAN1) do Painel Brasileiro de Mudanças Climáticas (PBMC), cujo sumário executivo foi divulgado nesta segunda-feira (09/08), durante a 1ª Conferência Nacional de Mudanças Climáticas Globais (Conclima). Organizado pela FAPESP e promovido com a Rede Brasileira de Pesquisa e Mudanças Climáticas Globais (Rede Clima) e o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC), oevento ocorre até a próxima sexta-feira (13/09), no Espaço Apas, em São Paulo.

De acordo com o relatório, tendo em vista que as mudanças climáticas e os impactos sobre as populações e os setores econômicos nos próximos anos não serão idênticos em todo o país, o Brasil precisa levar em conta as diferenças regionais no desenvolvimento de ações de adaptação e mitigação e de políticas agrícolas, de geração de energia e de abastecimento hídrico para essas diferentes regiões.

Dividido em três partes, o Relatório 1 – em fase final de elaboração – apresenta projeções regionalizadas das mudanças climáticas que deverão ocorrer nos seis diferentes biomas do Brasil até 2100, e indica quais são seus impactos estimados e as possíveis formas de mitigá-los.

As projeções foram feitas com base em revisões de estudos realizados entre 2007 e início de 2013 por 345 pesquisadores de diversas áreas, integrantes do PBMC, e em resultados científicos de modelagem climática global e regional.

“O Relatório está sendo preparado nos mesmos moldes dos relatórios publicados pelo Painel Intergovernamental das Mudanças Climáticas [IPCC, na sigla em inglês], que não realiza pesquisa, mas avalia os estudos já publicados”, disse José Marengo, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e coordenador do encontro.

“Depois de muito trabalho e interação, chegamos aos resultados principais dos três grupos de trabalho [Bases científicas das mudanças climáticas; Impactos, vulnerabilidades e adaptação; e Mitigação das mudanças climáticas]”, ressaltou.

Principais conclusões

Uma das conclusões do relatório é de que os eventos extremos de secas e estiagens prolongadas, principalmente nos biomas da Amazônia, Cerrado e Caatinga, devem aumentar e essas mudanças devem se acentuar a partir da metade e no fim do século 21.

A temperatura na Amazônia deverá aumentar progressivamente de 1 ºC a 1,5 ºC até 2040 – com diminuição de 25% a 30% no volume de chuvas –, entre 3 ºC e 3,5 ºC no período de 2041 a 2070 – com redução de 40% a 45% na ocorrência de chuvas –, e entre 5 ºC a 6 ºC entre 2071 a 2100.

Enquanto as modificações do clima associadas às mudanças globais podem comprometer o bioma em longo prazo, a questão atual do desmatamento decorrente das intensas atividades de uso da terra representa uma ameaça mais imediata para a Amazônia, ponderam os autores do relatório.

Os pesquisadores ressaltam que estudos observacionais e de modelagem numérica sugerem que, caso o desmatamento alcance 40% na região no futuro, haverá uma mudança drástica no padrão do ciclo hidrológico, com redução de 40% na chuva durante os meses de julho a novembro – o que prolongaria a duração da estação seca e provocaria o aquecimento superficial do bioma em até 4 ºC.

Dessa forma, as mudanças regionais decorrentes do efeito do desmatamento se somariam às provenientes das mudanças globais e constituíram condições propícias para a savanização da Amazônia – problema que tende a ser mais crítico na região oriental, ressaltam os pesquisadores.

“As projeções permitirão analisar melhor esse problema de savanização da Amazônia, que, na verdade, percebemos que poderá ocorrer em determinados pontos da floresta, e não no bioma como um todo, conforme previam alguns estudos”, destacou Tércio Ambrizzi, um dos autores coordenadores do sumário executivo do grupo de trabalho sobre a base científica das mudanças climáticas.

A temperatura da Caatinga também deverá aumentar entre 0,5 ºC e 1 ºC e as chuvas no bioma diminuirão entre 10% e 20% até 2040. Entre 2041 e 2070 o clima da região deverá ficar de 1,5 ºC a 2,5 ºC mais quente e o padrão de chuva diminuir entre 25% e 35%. Até o final do século, a temperatura do bioma deverá aumentar progressivamente entre 3,5 ºC e 4,5 ºC  e a ocorrência de chuva diminuir entre 40% e 50%. Tais mudanças podem desencadear o processo de desertificação do bioma.

Por sua vez, a temperatura no Cerrado deverá aumentar entre 5 ºC e 5,5 ºC e as chuvas diminuirão entre 35% e 45% no bioma até 2100. No Pantanal, o aquecimento da temperatura deverá ser de 3,5ºC a 4,5ºC até o final do século, com diminuição acentuada dos padrões de chuva no bioma – com queda de 35% a 45%.

Já no caso da Mata Atlântica, como o bioma abrange áreas desde a região Sul do país, passando pelo Sudeste e chegando até o Nordeste, as projeções apontam dois regimes distintos de mudanças climáticas.

Na porção Nordeste deve ocorrer um aumento relativamente baixo na temperatura – entre 0,5 ºC e 1 ºC – e decréscimo nos níveis de precipitação (chuva) em torno de 10% até 2040. Entre 2041 e 2070, o aquecimento do clima da região deverá ser de 2 ºC a 3 ºC, com diminuição pluviométrica entre 20% e 25%. Já para o final do século – entre 2071 e 2100 –, estimam-se condições de aquecimento intenso – com aumento de 3 ºC a 4 ºC na temperatura – e diminuição de 30% a 35% na ocorrência de chuvas.

Nas porções Sul e Sudeste as projeções indicam aumento relativamente baixo de temperatura entre 0,5 ºC e 1 ºC até 2040, com aumento de 5% a 10% no número de chuva. Entre 2041 e 2070 deverão ser mantidas as tendências de aumento gradual de 1,5 ºC a 2 ºC na temperatura e de 15% a 20% de chuvas.

Tais tendências devem se acentuar ainda mais no final do século, quando o clima deverá ficar entre 2,5 ºC e 3 ºC mais quente e entre 25% e 30% mais chuvoso.

Por fim, para o Pampa, as projeções indicam que até 2040 o clima da região será entre 5% e 10% mais chuvoso e até 1 ºC mais quente. Já entre 2041 e 2070, a temperatura do bioma deverá aumentar entre 1 ºC e 1,5 ºC  e haverá uma intensificação das chuvas entre 15% e 20%. As projeções para o clima da região no período entre 2071 e 2100 são mais agravantes, com aumento de temperatura de 2,5 ºC a 3 ºC e ocorrência de chuvas entre 35% e 40% acima do normal.

“O que se observa, de forma geral, é que nas regiões Norte e Nordeste do Brasil a tendência é de um aumento de temperatura e de diminuição das chuvas ao longo do século”, resumiu Ambrizzi.

“Já nas regiões mais ao Sul essa tendência se inverte: há uma tendência tanto de aumento da temperatura – ainda que não intenso – e de precipitação”, comparou.

Impactos e adaptação

As mudanças nos padrões de precipitação nas diferentes regiões do país, causadas pelas mudanças climáticas, deverão ter impactos diretos na agricultura, na geração e distribuição de energia e nos recursos hídricos das regiões, uma vez que a água deve se tornar mais rara nas regiões Norte e Nordeste e mais abundante no Sul e Sudeste, alertam os pesquisadores.

Por isso, será preciso desenvolver ações de adaptação e mitigação específicas e rever decisões de investimento, como a construção de hidrelétricas nas regiões leste da Amazônia, onde os rios poderão ter redução da vazão da ordem de até 20%, ressalvaram os pesquisadores.

“Essas variações de impactos mostram que qualquer tipo de estratégia planejada para geração de energia no leste da Amazônia está ameaçada, porque há uma série de fragilidades”, disse Eduardo Assad, pesquisador da Empresa Brasileira de Pesquisa Agropecuária (Embrapa).

“Dará para contar com água. Mas até quando e onde encontrar água nessas regiões são incógnitas”, disse o pesquisador, que é um dos coordenadores do Grupo de Trabalho 2 do relatório, sobre Impactos, vulnerabilidades e adaptação.

De acordo com Assad, é muito caro realizar ações de adaptação às mudanças climáticas no Brasil em razão das fragilidades que o país apresenta tanto em termos naturais – com grandes variações de paisagens – como socioeconômicas.

“A maior parte da população brasileira – principalmente a que habita as regiões costeiras do país – está vulnerável aos impactos das mudanças climáticas. Resolver isso não será algo muito fácil”, estimou.

Entre os setores econômicos do país, segundo Assad, a agricultura é um dos poucos que vêm se adiantando para se adaptar aos impactos das mudanças climáticas.

“Já estamos trabalhando com condições de adaptação há mais de oito anos. É possível desenvolver cultivares tolerantes a temperaturas elevadas ou à deficiência hídrica [dos solos], disse Assad.

O pesquisador também ressaltou que os grupos populacionais com piores condições de renda, educação e moradia sofrerão mais intensamente os impactos das mudanças climáticas no país. “Teremos que tomar decisões rápidas para evitar que tragédias aconteçam.”

Mitigação

Mercedes Bustamante, professora da Universidade de Brasília (UnB), e uma das coordenadoras do Grupo de Trabalho 3, sobre Mitigação das Mudanças Climáticas, apresentou uma síntese de estudos e pesquisas sobre o tema, identificando lacunas do conhecimento e direcionamentos futuros em um cenário de aquecimento global.

Bustamante apontou que a redução das taxas de desmatamento entre 2005 e 2010 – de 2,03 bilhões de toneladas de CO2 equivalente para 1,25 bilhão de toneladas – já teve efeitos positivos na redução das emissões de gases de efeito estufa (GEE) decorrentes do uso da terra.

“As emissões decorrentes da geração de energia e da agricultura, no entanto, aumentaram em termos absolutos e relativos, indicando mudanças no perfil das emissões brasileiras”, disse.

Mantidas as políticas atuais, a previsão é de que as emissões decorrentes dos setores de energia e de transportes aumentem 97% até 2030. Será preciso mais eficiência energética, mais inovação tecnológica e políticas de incentivo ao uso de energia renovável para reverter esse quadro.

Na área de transporte, as recomendações vão desde a transformação de um modal – fortemente baseado no transporte rodoviário – e o uso de combustíveis tecnológicos. “É preciso transferir do individual para o coletivo, investindo, por exemplo, em sistemas aquaviários e em veículos elétricos e híbridos”, ressaltou Bustamante.

O novo perfil das emissões de GEE revela uma participação crescente do metano – de origem animal – e do óxido nitroso – relacionado ao uso de fertilizantes. “Apesar desses resultados, a agricultura avançou no desenvolvimento de estratégias de mitigação e adaptação”, ponderou.

Para a indústria, responsável por 4% das emissões de GEE, a lista de recomendações para a mitigação passa pela reciclagem, pela utilização de biomassa renovável, pela cogeração de energia, entre outros.

As estratégias de mitigação das mudanças climáticas exigem, ainda, uma revisão do planejamento urbano de forma a garantir a sustentabilidade também das edificações de forma a controlar, por exemplo, o consumo da madeira e garantir maior eficiência energética na construção civil.

Informação para a sociedade

Os pesquisadores participantes da redação do relatório destacaram que, entre as virtudes do documento, está a de reunir dados de estudos científicos realizados ao longo dos últimos anos no Brasil que estavam dispersos e disponibilizar à sociedade e aos tomadores de decisão informações técnico-científicas críveis capazes de auxiliar no desenvolvimento de estratégias de adaptação e mitigação para os possíveis impactos das mudanças climáticas.

“Nós, cientistas, temos o desafio de conseguir traduzir a seriedade e a gravidade do momento e as oportunidades que as mudanças climáticas globais encerram para a sociedade. Sabemos que a inação representa a ação menos inteligente que a sociedade pode tomar”, disse Paulo Nobre, coordenador da Rede Clima.

Por sua vez, Celso Lafer, presidente da FAPESP, destacou, na abertura do evento, que a Fundação tem interesse especial nas pesquisas sobre mudanças climáticas, expresso no Programa FAPESP de Pesquisa em Mudanças Climáticas Globais (PFPMCG), mantido pela instituição.

“Uma das preocupações básicas da FAPESP é pesquisar e averiguar o impacto das mudanças climáticas globais naquilo que afeta as especificidades do Brasil e do Estado de São Paulo”, afirmou.

Também participaram da abertura do evento Bruno Covas, secretário do Meio Ambiente do Estado de São Paulo, Carlos Nobre, secretário de Políticas e Programa de Pesquisa e Desenvolvimento (Seped) do Ministério da Ciência, Tecnologia e Inovação (MCTI), e Paulo Artaxo, membro da coordenação do PFPMCG.

Carlos Nobre ressaltou que o relatório será a principal fonte de informações que orientará o Plano Nacional de Mudanças Climáticas que, no momento, está em revisão.

“É muito importante que os resultados desse estudo orientem os trabalhos em Brasília e em várias partes do Brasil, em um momento crítico de reorientar a política nacional, que tem de ir na direção de tornar a economia, a sociedade e o ambiente mais resilientes às inevitáveis mudanças climáticas que estão por vir”, afirmou.

Segundo ele, o Brasil já sinalizou compromisso com a mitigação, materializado na Política Nacional de Mudanças Climáticas e que prevê redução de 10% e 15% das emissões entre 2010 e 2020, respectivamente, relativamente a 2005.

“São Paulo lançou, em 2009, um programa ambicioso, de redução de 20% das emissões, já que a questão da mudança no uso da terra não é uma questão tão importante no Estado, mas sim o avanço tecnológico na geração de energia e em processos produtivos. O Brasil é o único país em desenvolvimento com metas voluntárias para redução de emissões”.

Ele ressaltou, entretanto, que “a adaptação ficou desassistida”. “Não é só mitigar; é preciso também se adaptar às mudanças climáticas. As três redes de pesquisa – Clima, INCT e FAPESP – avançam na adaptação, que é o guia para o desenvolvimento sustentável.”

* Colaboraram Claudia Izique e Noêmia Lopes

 

Modelo para entender as variações climáticas no país

10/09/2013

Por Noêmia Lopes

Modelo Brasileiro do Sistema Terrestre é considerado fundamental para pesquisas sobre o clima(foto:Nasa)

Agência FAPESP – O desmatamento da Amazônia, as queimadas, os processos de interação entre o Oceano Atlântico e a atmosfera são algumas das questões climáticas particulares do Brasil que o Modelo Brasileiro do Sistema Terrestre (BESM, na sigla em inglês) leva em consideração e pretende dar conta de uma forma que mesmo os melhores modelos do mundo não são capazes de fazer.

O modelo foi apresentado em detalhes na segunda-feira (09/09) na abertura da 1ª Conferência Nacional de Mudanças Climáticas Globais, realizada em São Paulo.

Determinar o quanto o clima já mudou, o quanto as suas características ainda vão se alterar e onde isso ocorrerá é a base para o planejamento de políticas públicas de adaptação aos impactos das mudanças climáticas globais, segundo Paulo Nobre, coordenador geral do BESM e da Rede Brasileira de Pesquisa sobre Mudanças Climáticas Globais (Rede Clima), na abertura do evento.

“O BESM é um eixo estruturante da pesquisa em mudanças climáticas no Brasil e oferece subsídios para o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), para a Rede Clima e para o Instituto Nacional de Ciência e Tecnologia para Mudanças Climáticas (INCT-MC)”, disse Nobre.

Com o intuito de colaborar com as previsões sobre as consequências do aquecimento global e o consequente aumento na frequência dos eventos extremos, o BESM roda no supercomputador Tupã da Rede Clima/PFPMCG, reunindo fluxos atmosféricos, oceânicos, de superfície e, em breve, químicos. Adquirido pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) com apoio da FAPESP, o Tupã está instalado na unidade do Instituto Nacional de Pesquisas Espaciais (Inpe) de Cachoeira Paulista

Embora ainda não esteja em sua versão final e completa, o modelo já consegue, por exemplo, reconstituir a ocorrência dos últimos El Niños e estimar o retorno desse fenômeno, explicar as chuvas na Zona de Convergência do Atlântico Sul e até estimar a variação do gelo no globo de maneira satisfatória.

“Os cenários mais atuais, de 2013, estão disponíveis no supercomputador. Estamos tomando medidas para que o acesso seja disponibilizado ao público em geral até o final do ano”, afirmou Nobre.

Trinta pesquisadores estão diretamente envolvidos no desenvolvimento do BESM e outros 40 estão ligados indiretamente. De acordo com Nobre, esse número deve duplicar em cinco anos e duplicar novamente em 10 anos. “Para tanto, é preciso que cada vez mais jovens doutores integrem esse desafio.”

Nobre ressaltou ainda as graves consequências que o aumento da frequência dos eventos extremos – tais como secas, enchentes e tornados – tem sobre a vida das populações: “Nossas cidades e nossos campos não foram projetados para conviver com esse novo clima, o que torna essencial a entrada do Brasil na modelagem das mudanças climáticas”, disse.

Os quatro componentes

Iracema Cavalcanti, pesquisadora do Inpe, apresentou, durante o primeiro dia da conferência, os resultados já obtidos a partir do componente atmosférico do BESM.

Em comparação com os dados observados, o modelo consegue alcançar boas simulações de variabilidade sazonal (modificações climatológicas das estações), fluxos de umidade, variabilidade interanual (diferença entre anomalias de pressão), variabilidade da precipitação, entre outros. “Ainda há deficiências, como na maioria dos modelos globais. Mas as características gerais estão contempladas”, disse Cavalcanti.

Em relação aos oceanos, não é possível separá-los do que ocorre no modelo atmosférico, daí a modelagem acoplada ser estratégica para o funcionamento eficiente do BESM. A avaliação é de Leo Siqueira, também do Inpe, que apresentou os desafios desse componente.

“Já conseguimos boas representações, mas queremos melhorar as simulações de temperatura dos oceanos, principalmente nos trópicos, e do gelo marinho. Também queremos criar uma discussão saudável sobre qual modelo de gelo terrestre será adotado dentro do BESM”, disse Siqueira.

A modelagem do terceiro componente, superfície, foi apresentada por Marcos Heil Costa, da Universidade Federal de Viçosa (UFV). “A principal função de um modelo que integra processos superficiais é fornecer fluxos de energia e vapor d’água entre a vegetação e a atmosfera. Isso é o básico. Mas o aprimoramento do sistema, ocorrido ao longo dos últimos anos, permitiu que outros processos fossem incorporados”, afirmou.

Alguns desses processos são: fluxos de radiação, energia e massa; ciclos do carbono e do nitrogênio terrestres; recuperação de áreas abandonadas; incêndios na vegetação natural; culturas agrícolas; vazão e áreas inundadas sazonais; uso do solo por ações humanas (desmatamento); representação específica dos ecossistemas; fertilidade do solo; entre outros.

Química é o quarto e mais recente dos componentes. “Sem um modelo químico, os demais precisam ser constantemente ajustados”, disse Sérgio Correa, pesquisador da Universidade Estadual do Rio de Janeiro (UERJ). Correa está à frente de estudos sobre química atmosférica que permitirão refinar os dados do BESM quando esse componente for acoplado ao modelo – uma das próximas fases previstas.

Colaborações com pesquisadores de instituições estrangeiras e treinamentos são outras estratégias que estão em vigor para melhorar as representações do Brasil e da América do Sul, com alcance também global.

Mais informações sobre a 1ª Conferência Nacional de Mudanças Climáticas Globais: www.fapesp.br/conclima

Climate Change’s Silver Bullet? Our Interview With One Of The World’s Top Geoengineering Scholars (Climate Progress)

BY ARI PHILLIPS ON SEPTEMBER 6, 2013 AT 1:10 PM

Clive HamiltonMELBOURNE, Australia — Since coming to Australia almost two months ago I’ve heard about Clive Hamilton in the process of reporting just about every story I’ve done. Then I picked up his new book Earthmasters: The Dawn of the Age of Climate Engineeringand now I see what all the fuss is about.

In all of the debates over how to address climate change, climate engineering — or geoengineering — is among the most contentious. It involves large-scale manipulation of the Earth’s climate using grand technological interventions, such as fertilizing the oceans with iron to absorb carbon dioxide or releasing sulfur into the atmosphere to reduce radiation. While its proponents call geoengineering a silver bullet for our climate woes, its skeptics are far more critical. Joe Romm, for one, likens geoengineering to a dangerous course of chemotherapy and radiation to treat a condition curable through diet and exercise — or, in this case, emissions reduction.

According to the cover of Hamilton’s new book, “The potential risks are enormous. It is messing with nature on a scale we’ve never seen before, and it’s attracting a flood of interest from scientists, venture capitalists and oil companies.”

Hamilton is an Australian author and public intellectual. Until 2008 he was the Executive Director of The Australia Institute, a progressive think tank that he founded in 1993. Now he’s Professor of Public Ethics at the Centre for Applied Philosophy and Public Ethics, a joint center of Charles Stuart University and the University of Melbourne.

His books include Requiem for a Species: Why we resist the truth about climate changeScorcher: The dirty truth about climate change and Growth Fetishamongst others.

Hamilton’s next book will be about the anthropocene — a new geologic era in which human activities have had a significant impact on the Earth’s ecosystems. He took some time to talk with me about this new era, the future of geoengineering and what it all means for humanity. This interview has been edited for clarity and length.

How has the environmental community responded to your book on geoengineering?

Cover-image-Yale-UP3

I remember back in late 1990s around Kyoto there was a great deal of resistance amongst environmentalists and climate activists, including myself, against any talk of adaptation. It was seen to be a capitulation to a kind of defeatism that we ought not to be talking about adaptation because that means that mitigation has failed. Eventually I think we all came around to view that some climate change is going to happen and therefore adaptation has to be considered. It’s better to have seat at the table, as it were, when adaptation is being discussed.

I think we’re in the same stage now with geoengineering. Most environmentalists don’t want to know about it. Most climate activists don’t want to talk about it. There is a sense that in doing so you are conceding that it could well be possible that geoengineering will be necessary because the world community will continue to fail, perhaps even more egregiously, at responding to scientific warnings.

But I wrote the book because I became aware in writing my previous book that the genie was out of the bottle: geoengineering was going to grow in importance. Therefore, climate campaigners and environmental groups sooner or later are going to have to engage in the issue. It’s a question of whether they start now or leave it for another five years, at which point the lobby backing geoengineering will be much more powerful and will have had an opportunity to frame it more inflexibly in the media and in broader public mind.

Did you come across any big surprises while writing the book?

There were a couple of big surprises. One was the extent of the geoengineering lobby and the links between the scientists and the investors. I developed a much stronger sense of the likelihood of a powerful geoengineering constituency emerging, which would — if it were not countered by a skeptical community of thinkers and campaigners — essentially take control of whole agenda. Plotting those links and laying them out was something that I go into quite a lot of detail over. At the same time it stimulated me to think about the military-industrial complex, the famous lobby group that help such sway in the U.S. in the middle of the 20th century.

One thing I noticed while doing this research and looking at scientists involved was the density of the linkages with the Lawrence Livermore National Laboratory. So I investigated further and thought it’s really quite astonishing the extent to which many, if not most, prominent scientific researchers in geoengineering in the U.S. worked at Livermore or have close links with people there now or those who used to work there.

Then when I read Hugh Gusterson’s book on Livermore and it’s role in the cold war and nuclear weapons development, I started to think much more carefully about the type of mindset that is especially drawn to geoengineering as a technological response to global warming. I think it’s quite alarming in its implications. That lead me to further think about the geostrategic implications of climate engineering, which is something that’s received almost no attention, but we do know that people in the military and related strategic communities are starting to think about geoengineering and what it would mean for international relations and conflict.

What about the potential for financial gain?

A noble desire to save the world from climate change will attract less noble intentions. That’s just the way of the world. Never let a good crisis go to waste. Already we’re seeing it with Canadian oil sands billionaire Murray Edwards investing in geoengineering technologies.

I spend quite a bit of time talking about Bill Gates in the book. Earlier this year, I was talking about the scientific entrepreneurial lobby group that was emerging during a debate with Peter Singer (another Australian philosopher) and I mentioned Bill Gates. Singer said, “Well what’s wrong with Bill Gates? He’s well motivated. He does a lot of good charity work. If you’re going to have millionaires investing in geoengineering then Bill Gates would be one of the first.”

I made the point that yes, Bill Gates is now in philanthropic mode, and The Bill and Melinda Gates Foundation does praiseworthy work, but it’s not Bill Gates’ motives I’m worried about; it’s his worldview. That Silicon Valley, ‘we’ve-got-an-app-for-that’ kind of understanding. Joe Romm (Editor of Climate Progress) has been very critical of Gates for his dissing of renewable energy technology. Gates described solar energy as cute.

So Gates is drawn to big, new, shiny technological responses that clever people dream up. You know, brainstorming over pizza and coke. That’s where he comes from and that’s how he thinks. It’s one thing to think about computers and software that way, but it’s a completely different matter to think about the earth as a whole as in need of a snazzy new app that will solve the problem. I think that’s an extremely dangerous way to understand it for all sorts of reasons.

Perhaps the most important of which is that the climate change problem is not a technological one. It’s a social and political one. The more people focus on techno-fixes, the more they distract us from the real problems, which are the social and political difficulties of responding to climate change. We have the technology and have had it for many years. So arguing that the blockage is the absence of technology is extremely unhelpful and plays into the hands of the fossil fuel lobby.

In the book you say the slippery slope to a techno-fix promises a substitute for the slippery slope to revolution.

Revolutions take all different forms of course, from the industrial revolution to Tahrir Square to the cultural revolution of the 60s and 70s, and it’s more along the lines of the latter that I was thinking of, and into which new forms of climate activism can feed. There’s often a sort of terror in environmental groups that if they do something radical or outrageous, they’ll alienate mom and dad in the suburbs.

But social movements that have radically changed the way our world works — think of the woman’s movement — have frequently started out being rancorous and difficult and attracting the derision of the conservative press and politicians. And indeed, mystifying and often alienating people living in the suburbs or high-rises. If people have to be shocked and outraged before they come around to seeing that some fundamental transformation is necessary, then so be it. I think that there’s a level of fear and complacency and unwillingness to shift to change on the part of our societies, and some kind of circuit breaker is necessary.

You talk about the acceptance of the “solution” of geoengineering even by people who don’t seem to think climate change is a problem in the first place.

That’s one of the, on the face of it, mystifying aspects of the geoengineering debate. Why conservative think tanks like The American Enterprise Institute, The Cato Institute and even The Heartland Institute, which have for years worked hard to deny climate science and block all measures to reduce carbon emissions, have come out in favor of geoengineering.

What it shows us is that the debate over climate change and the role of the deniers is not about the science. They want to make it about the science because that gives it an air of legitimacy, but it’s really about fundamental cultural and political values. So if geoengineering is the solution then they’re happy to concede that there’s a problem because geoengineering is a big, technological, macho, system-justifying response to climate change. And that’s the kind of response that fits with their political orientation.

How does the “American Way of Life” factor into all of this?

Already we’re seeing what authorities in the U.S. need to do in order to protect people from massive hurricanes and monster wildfires and frequent floods. As the effects of climate change become even more severe we’ll see nations like the U.S. that are in a position to adapt start spending billions of dollars dong so.

And of course, the more the climate deniers persuade politicians that hurricanes and wildfires aren’t due to climate change, the less responsive authorities are likely to be and the more people will die, in effect. Eventually it will be impossible to continue to pretend that mitigation is not the first best option. It might take five years, it might take ten, let’s hope it doesn’t take twenty.

The sort of tragedy of all this is that if the world had become serious ten or so years ago that cost would have been vastly smaller than it’s going to be. But you know that’s in a perfect world where human beings are rational and take reasonable measures to protect themselves from the warnings of scientists. But we now know that the enlightenment conception of human beings as rational creatures who assess the evidence and take measures to protect themselves from harm, that has now collapsed before us. We can no longer maintain that belief.

That feeds into this idea of the anthropocene and the ethical implications of living in a world with climate change.

I am writing a book about the anthropocene because it seems to me that when human beings become so powerful that they transform the fundamental cycles and processes that govern the evolution of the earth itself that we’re entering into an era, or we’ve reached an event, that’s as significant as the industrial revolution, or even the process of civilization itself.

It causes us to rethink pretty much everything. It certainly causes us to rethink what the relationship of human beings is to the planet, but in a harder way, what is a human being. The sort of modern conception of what a human being is is an isolated ego existing inside a body. And most of us think that’s just what we are. But in fact that’s a very recent and culturally specific understanding of what a human being is. And it’s the conception of a human being that’s consistent with an advanced consumer society.

Collectively though, we are the kind of creatures, like certain types of microbes, that can completely transform the nature of the planet on which we live. If this is so, then it causes us to rethink who we are and what the place of this strange, clever creature is on planet earth.

We can no longer think of the Earth as the passive and unresponsive backdrop to the human drama where we play out our parts in a kind of Shakespearean play and not worry about the backdrop. We now find that the backdrop, the stage scenery, has entered into the play and is disrupting the whole proceedings.

Something very profound has happened. Human history, which we think of as only being a few thousand years old and is the history of human actions, has converged with geologic history, which we always thought of as operating in a very distinct domain having nothing to do with us. But now we find that our history affects the history of the earth.

If there is no more human history distinct from earth history, then what does that mean?

Poor Concentration: Poverty Reduces Brainpower Needed for Navigating Other Areas of Life (Science Daily)

Aug. 29, 2013 — Poverty and all its related concerns require so much mental energy that the poor have less remaining brainpower to devote to other areas of life, according to research based at Princeton University. As a result, people of limited means are more likely to make mistakes and bad decisions that may be amplified by — and perpetuate — their financial woes. 

Research based at Princeton University found that poverty and all its related concerns require so much mental energy that the poor have less remaining brainpower to devote to other areas of life. Experiments showed that the impact of financial concerns on the cognitive function of low-income individuals was similar to a 13-point dip in IQ, or the loss of an entire night’s sleep. To gauge the influence of poverty in natural contexts, the researchers tested 464 sugarcane farmers in India who rely on the annual harvest for at least 60 percent of their income. Each farmer performed better on common fluid-intelligence and cognition tests post-harvest compared to pre-harvest. (Credit: Image courtesy of Princeton University)

Published in the journal Science, the study presents a unique perspective regarding the causes of persistent poverty. The researchers suggest that being poor may keep a person from concentrating on the very avenues that would lead them out of poverty. A person’s cognitive function is diminished by the constant and all-consuming effort of coping with the immediate effects of having little money, such as scrounging to pay bills and cut costs. Thusly, a person is left with fewer “mental resources” to focus on complicated, indirectly related matters such as education, job training and even managing their time.

In a series of experiments, the researchers found that pressing financial concerns had an immediate impact on the ability of low-income individuals to perform on common cognitive and logic tests. On average, a person preoccupied with money problems exhibited a drop in cognitive function similar to a 13-point dip in IQ, or the loss of an entire night’s sleep.

But when their concerns were benign, low-income individuals performed competently, at a similar level to people who were well off, said corresponding author Jiaying Zhao, who conducted the study as a doctoral student in the lab of co-author Eldar Shafir, Princeton’s William Stewart Tod Professor of Psychology and Public Affairs. Zhao and Shafir worked with Anandi Mani, an associate professor of economics at the University of Warwick in Britain, and Sendhil Mullainathan, a Harvard University economics professor.

“These pressures create a salient concern in the mind and draw mental resources to the problem itself. That means we are unable to focus on other things in life that need our attention,” said Zhao, who is now an assistant professor of psychology at the University of British Columbia.

“Previous views of poverty have blamed poverty on personal failings, or an environment that is not conducive to success,” she said. “We’re arguing that the lack of financial resources itself can lead to impaired cognitive function. The very condition of not having enough can actually be a cause of poverty.”

The mental tax that poverty can put on the brain is distinct from stress, Shafir explained. Stress is a person’s response to various outside pressures that — according to studies of arousal and performance — can actually enhance a person’s functioning, he said. In the Science study, Shafir and his colleagues instead describe an immediate rather than chronic preoccupation with limited resources that can be a detriment to unrelated yet still important tasks.

“Stress itself doesn’t predict that people can’t perform well — they may do better up to a point,” Shafir said. “A person in poverty might be at the high part of the performance curve when it comes to a specific task and, in fact, we show that they do well on the problem at hand. But they don’t have leftover bandwidth to devote to other tasks. The poor are often highly effective at focusing on and dealing with pressing problems. It’s the other tasks where they perform poorly.”

The fallout of neglecting other areas of life may loom larger for a person just scraping by, Shafir said. Late fees tacked on to a forgotten rent payment, a job lost because of poor time-management — these make a tight money situation worse. And as people get poorer, they tend to make difficult and often costly decisions that further perpetuate their hardship, Shafir said. He and Mullainathan were co-authors on a 2012 Science paper that reported a higher likelihood of poor people to engage in behaviors that reinforce the conditions of poverty, such as excessive borrowing.

“They can make the same mistakes, but the outcomes of errors are more dear,” Shafir said. “So, if you live in poverty, you’re more error prone and errors cost you more dearly — it’s hard to find a way out.”

The first set of experiments took place in a New Jersey mall between 2010 and 2011 with roughly 400 subjects chosen at random. Their median annual income was around $70,000 and the lowest income was around $20,000. The researchers created scenarios wherein subjects had to ponder how they would solve financial problems, for example, whether they would handle a sudden car repair by paying in full, borrowing money or putting the repairs off. Participants were assigned either an “easy” or “hard” scenario in which the cost was low or high — such as $150 or $1,500 for the car repair. While participants pondered these scenarios, they performed common fluid-intelligence and cognition tests.

Subjects were divided into a “poor” group and a “rich” group based on their income. The study showed that when the scenarios were easy — the financial problems not too severe — the poor and rich performed equally well on the cognitive tests. But when they thought about the hard scenarios, people at the lower end of the income scale performed significantly worse on both cognitive tests, while the rich participants were unfazed.

To better gauge the influence of poverty in natural contexts, between 2010 and 2011 the researchers also tested 464 sugarcane farmers in India who rely on the annual harvest for at least 60 percent of their income. Because sugarcane harvests occur once a year, these are farmers who find themselves rich after harvest and poor before it. Each farmer was given the same tests before and after the harvest, and performed better on both tests post-harvest compared to pre-harvest.

The cognitive effect of poverty the researchers found relates to the more general influence of “scarcity” on cognition, which is the larger focus of Shafir’s research group. Scarcity in this case relates to any deficit — be it in money, time, social ties or even calories — that people experience in trying to meet their needs. Scarcity consumes “mental bandwidth” that would otherwise go to other concerns in life, Zhao said.

“These findings fit in with our story of how scarcity captures attention. It consumes your mental bandwidth,” Zhao said. “Just asking a poor person to think about hypothetical financial problems reduces mental bandwidth. This is an acute, immediate impact, and has implications for scarcity of resources of any kind.”

“We documented similar effects among people who are not otherwise poor, but on whom we imposed scarce resources,” Shafir added. “It’s not about being a poor person — it’s about living in poverty.”

Many types of scarcity are temporary and often discretionary, said Shafir, who is co-author with Mullainathan of the book, “Scarcity: Why Having Too Little Means So Much,” to be published in September. For instance, a person pressed for time can reschedule appointments, cancel something or even decide to take on less.

“When you’re poor you can’t say, ‘I’ve had enough, I’m not going to be poor anymore.’ Or, ‘Forget it, I just won’t give my kids dinner, or pay rent this month.’ Poverty imposes a much stronger load that’s not optional and in very many cases is long lasting,” Shafir said. “It’s not a choice you’re making — you’re just reduced to few options. This is not something you see with many other types of scarcity.”

The researchers suggest that services for the poor should accommodate the dominance that poverty has on a person’s time and thinking. Such steps would include simpler aid forms and more guidance in receiving assistance, or training and educational programs structured to be more forgiving of unexpected absences, so that a person who has stumbled can more easily try again.

“You want to design a context that is more scarcity proof,” said Shafir, noting that better-off people have access to regular support in their daily lives, be it a computer reminder, a personal assistant, a housecleaner or a babysitter.

“There’s very little you can do with time to get more money, but a lot you can do with money to get more time,” Shafir said. “The poor, who our research suggests are bound to make more mistakes and pay more dearly for errors, inhabit contexts often not designed to help.”

Journal Reference:

  1. A. Mani, S. Mullainathan, E. Shafir, J. Zhao. Poverty Impedes Cognitive FunctionScience, 2013; 341 (6149): 976 DOI: 10.1126/science.1238041

Climate Panel Cites Near Certainty on Warming (N.Y.Times)

Tim Wimborne/Reuters. A new report from the Intergovernmental Panel on Climate Change states that the authors are now 95 percent to 100 percent confident that human activity is the primary influence on planetary warming.

By 

Published: August 19, 2013

An international panel of scientists has found with near certainty that human activity is the cause of most of the temperature increases of recent decades, and warns that sea levels could conceivably rise by more than three feet by the end of the century if emissions continue at a runaway pace.

The level of carbon dioxide, the main greenhouse gas, is up 41 percent since the Industrial Revolution. Emissions from facilities like coal-fired power plants contribute.

The scientists, whose findings are reported in a draft summary of the next big United Nations climate report, largely dismiss a recent slowdown in the pace of warming, which is often cited by climate change doubters, attributing it most likely to short-term factors.

The report emphasizes that the basic facts about future climate change are more established than ever, justifying the rise in global concern. It also reiterates that the consequences of escalating emissions are likely to be profound.

“It is extremely likely that human influence on climate caused more than half of the observed increase in global average surface temperature from 1951 to 2010,” the draft report says. “There is high confidence that this has warmed the ocean, melted snow and ice, raised global mean sea level and changed some climate extremes in the second half of the 20th century.”

The draft comes from the Intergovernmental Panel on Climate Change, a body of several hundred scientists that won the Nobel Peace Prize in 2007, along with Al Gore. Its summaries, published every five or six years, are considered the definitive assessment of the risks of climate change, and they influence the actions of governments around the world. Hundreds of billions of dollars are being spent on efforts to reduce greenhouse emissions, for instance, largely on the basis of the group’s findings.

The coming report will be the fifth major assessment from the group, created in 1988. Each report has found greater certainty that the planet is warming and greater likelihood that humans are the primary cause.

The 2007 report found “unequivocal” evidence of warming, but hedged a little on responsibility, saying the chances were at least 90 percent that human activities were the cause. The language in the new draft is stronger, saying the odds are at least 95 percent that humans are the principal cause.

On sea level, which is one of the biggest single worries about climate change, the new report goes well beyond the assessment published in 2007, which largely sidestepped the question of how much the ocean could rise this century.

The new report also reiterates a core difficulty that has plagued climate science for decades: While averages for such measures as temperature can be predicted with some confidence on a global scale, the coming changes still cannot be forecast reliably on a local scale. That leaves governments and businesses fumbling in the dark as they try to plan ahead.

On another closely watched issue, the scientists retreated slightly from their 2007 position.

Regarding the question of how much the planet could warm if carbon dioxide levels in the atmosphere doubled, the previous report largely ruled out any number below 3.6 degrees Fahrenheit. The new draft says the rise could be as low as 2.7 degrees, essentially restoring a scientific consensus that prevailed from 1979 to 2007.

But the draft says only that the low number is possible, not that it is likely. Many climate scientists see only a remote chance that the warming will be that low, with the published evidence suggesting that an increase above 5 degrees Fahrenheit is more likely if carbon dioxide doubles.

The level of carbon dioxide, the main greenhouse gas, is up 41 percent since the Industrial Revolution, and if present trends continue it could double in a matter of decades.

Warming the entire planet by 5 degrees Fahrenheit would add a stupendous amount of energy to the climate system. Scientists say the increase would be greater over land and might exceed 10 degrees at the poles.

They add that such an increase would lead to widespread melting of land ice, extreme heat waves, difficulty growing food and massive changes in plant and animal life, probably including a wave of extinctions.

The new document is not final and will not become so until an intensive, closed-door negotiating session among scientists and government leaders in Stockholm in late September. But if the past is any guide, most of the core findings of the document will survive that final review.

The document was leaked over the weekend after it was sent to a large group of people who had signed up to review it. It was first reported on in detail by the Reuters news agency, and The New York Times obtained a copy independently to verify its contents.

The Intergovernmental Panel on Climate Change does no original research, but instead periodically assesses and summarizes the published scientific literature on climate change.

The draft document “is likely to change in response to comments from governments received in recent weeks and will also be considered by governments and scientists at a four-day approval session at the end of September,” the panel’s spokesman, Jonathan Lynn, said in a statement Monday. “It is therefore premature and could be misleading to attempt to draw conclusions from it.”

After winning the Nobel Peace Prize six years ago, the group became a political target for climate doubters, who helped identify minor errors in the 2007 report. This time, the panel adopted rigorous procedures in the hope of preventing such mistakes.

Some climate doubters challenge the idea that the earth is warming at all; others concede that it is, but deny human responsibility; still others acknowledge a human role, but assert that the warming is likely to be limited and the impacts manageable. Every major scientific academy in the world has warned that global warming is a serious problem.

The panel shifted to a wider range for the potential warming, dropping the plausible low end to 2.7 degrees, after a wave of recent studies saying higher estimates were unlikely. But those studies are contested, and scientists at Stockholm are likely to debate whether to stick with that language.

Michael E. Mann, a climate scientist at Pennsylvania State University, said he feared the intergovernmental panel, in writing its draft, had been influenced by criticism from climate doubters, who advocate even lower numbers. “I think the I.P.C.C. on this point has once again erred on the side of understating the degree of the likely changes,” Dr. Mann said.

However, Christopher B. Field, a researcher at the Carnegie Institution for Science who serves on the panel but was not directly involved in the new draft, said the group had to reflect the full range of plausible scientific views.

“I think that the I.P.C.C. has a tradition of being very conservative,” Dr. Field said. “They really want the story to be right.”

Regarding the likely rise in sea level over the coming century, the new report lays out several possibilities. In the most optimistic, the world’s governments would prove far more successful at getting emissions under control than they have been in the recent past, helping to limit the total warming.

In that circumstance, sea level could be expected to rise as little as 10 inches by the end of the century, the report found. That is a bit more than the eight-inch increase in the 20th century, which proved manageable even though it caused severe erosion along the world’s shorelines.

At the other extreme, the report considers a chain of events in which emissions continue to increase at a swift pace. Under those conditions, sea level could be expected to rise at least 21 inches by 2100 and might increase a bit more than three feet, the draft report said.

Hundreds of millions of people live near sea level, and either figure would represent a challenge for humanity, scientists say. But a three-foot rise in particular would endanger many of the world’s great cities — among them New York; London; Shanghai; Venice; Sydney, Australia; Miami; and New Orleans.

A version of this article appears in print on August 20, 2013, on page A1 of the New York edition with the headline: Climate Panel Cites Near Certainty on Warming.

The Battle Over Global Warming Is All in Your Head (Time)

Despite the fact that more people now acknowledge that climate change represents a significant threat to human well-being, this has yet to translate into any meaningful action. Psychologists may have an answer as to why this is

By , Aug. 19, 2013

165161414
ANDREY SMIRNOV/AFP/GETTY IMAGES. Climate campaigns, like this one from Greenpeace in Moscow, have failed to galvanize public support for strong climate action

Today the scientific community is in almost total agreement that the earth’s climate is changing as a result of human activity, and that this represents a huge threat to the planet and to us. According to a Pew survey conducted in March, however, public opinion lags behind the scientific conclusion, with only 69% of those surveyed accepting the view that the earth is warming — and only 1 in 4 Americans see global warming as a major threat. Still, 69% is a solid majority, which begs the question, Why aren’t we doing anything about it?

This political inertia in the face of unprecedented threat is the most fundamental challenge to tackling climate change. Climate scientists and campaigners have long debated how to better communicate the message to nonexperts so that climate science can be translated into action. According to Christopher Rapley, professor of climate science at University College London, the usual tactic of climate experts to provide the public with information isn’t enough because “it does not address key underlying causes.” We are all bombarded with the evidence of climate change on an almost a daily basis, from new studies and data to direct experiences of freakish weather events like last year’s epic drought in the U.S. The information is almost unavoidable.

If it’s not a data deficit that’s preventing people from doing more on global warming, what is it? Blame our brains. Renee Lertzman, an applied researcher who focuses on the psychological dimensions of sustainability, explains that the kind of systemic threat that climate change poses to humans is “unique both psychologically and socially.” We face a minefield of mental barriers and issues that prevent us from confronting the threat.

For some, the answer lies in cognitive science. Daniel Gilbert, a professor of psychology at Harvard, has written about why our inability to deal with climate change is due in part to the way our mind is wired. Gilbert describes four key reasons ranging from the fact that global warming doesn’t take a human form — making it difficult for us to think of it as an enemy — to our brains’ failure to accurately perceive gradual change as opposed to rapid shifts. Climate change has occurred slowly enough for our minds to normalize it, which is precisely what makes it a deadly threat, as Gilbert writes, “because it fails to trip the brain’s alarm, leaving us soundly asleep in a burning bed.”

Robert Gifford, a professor of psychology and environmental studies at the University of Victoria in Canada, also picks up on the point about our brains’ difficulty in grasping climate change as a threat. Gifford refers to this and other psychological barriers to mitigating climate change as “dragons of inaction.” Since authoring a paperon the subject in 2011 in which he outlined seven main barriers, or dragons, he has found many more. “We’re up to around 30,” he notes. “Now it’s time to think about how we can slay these dragons.” Gifford lists factors such as limited cognition or ignorance of the problem, ideologies or worldviews that may prevent action, social comparisons with other people and perceived inequity (the “Why should we change if X corporation or Y country won’t?”) and the perceived risks of changing our behavior.

Gifford is reluctant to pick out one barrier as being more powerful or limiting than another. “If I had to name one, I would nominate the lack of perceived behavioral control; ‘I’m only one person, what can I do?’ is certainly a big one.” For many, the first challenge will be in recognizing which dragons they have to deal with before they can overcome them. “If you don’t know what your problem is, you don’t know what the solution is,” says Gifford.

Yet this approach can only work if people are prepared to acknowledge that they have a problem. But for those of us who understand that climate change is a problem yet make little effort to cut the number of overseas trips we make or the amount of meat we consume, neither apathy nor denial really explains the dissonance between our actions and beliefs. Lertzman has come to the conclusion that this is not because of apathy — a lack of feeling — but because of the simple fact that we care an overwhelming amount about both the planet and our way of life, and we find that conflict too painful to bear. Our apparent apathy is just a defense mechanism in the face of this psychic pain.

“We’re reluctant to come to terms with the fact that what we love and enjoy and what gives us a sense of who we are is also now bound up with the most unimaginable devastation,” says Lertzman. “When we don’t process the pain of that, that’s when we get stuck and can’t move forward.” Lertzman refers to this inability to mourn as “environmental melancholia,” and points to South Africa’s postapartheid Truth and Reconciliation Commission as an example of how to effectively deal with this collective pain. “I’m not saying there should be one for climate or carbon, but there’s a lot to be said for providing a means for people to talk together about climate change, to make it socially acceptable to talk about it.”

Rosemary Randall, a trained psychotherapist, has organized something close to this. She runs the U.K.-based Carbon Conversations, a program that brings people together to talk in a group setting about ways of halving their personal carbon footprint. Writing in Aeon, an online magazine, Randall suggests that climate change is such a disturbing subject, that “like death, it can raise fears and anxieties that people feel have no place in polite conversation.” Randall acknowledges that while psychology and psychoanalysis aren’t the sole solutions to tackling climate change, “they do offer an important way of thinking about the problem.”

Lertzman says the mainstream climate-change community has been slow to register the value of psychology and social analysis in addressing global warming. “I think there’s a spark of some interest, but also a wariness of what this means, what it might look like,” she notes. Gifford says otherwise, however, explaining that he has never collaborated with other disciplines as much as he does now. “I may be a little biased because I’m invested in working in it, but in my view, climate change, and not mental health, is the biggest psychological problem we face today because it affects 100% of the global population.”

Despite the pain, shame, difficulty and minefield of other psychological barriers that we face in fully addressing climate change, both Lertzman and Gifford are still upbeat about our ability to face up to the challenge. “It’s patronizing to say that climate change is too big or abstract an issue for people to deal with,” says Lertzman. “There can’t be something about the human mind that stops us grappling with these issues given that so many people already are — maybe that’s what we should be focusing on instead.”

Read more: http://science.time.com/2013/08/19/in-denial-about-the-climate-the-psychological-battle-over-global-warming/#ixzz2chLdZ25H

Digest This: Cure for Cancer May Live in Our Intestines (Science Daily)

July 31, 2013 — Treating a cancerous tumor is like watering a houseplant with a fire hose — too much water kills the plant, just as too much chemotherapy and radiation kills the patient before it kills the tumor.

The discovery of Robo1 protein in the intestinal stem cells (depicted in yellow) leads to tolerance of higher doses of chemoradiation for cancer patients. (Credit: Dr. Wei-Jie Zhou)

However, if the patient’s gastrointestinal tract remains healthy and functioning, the patient’s chances of survival increase exponentially, said Jian-Guo Geng, associate professor at the University of Michigan School of Dentistry. Recently, Geng’s lab discovered a biological mechanism that preserves the gastrointestinal tracts in mice who were delivered lethal doses of chemotherapy.

The findings, which will appear in the journal Nature, could revolutionize cancer therapy, Geng said.

“It’s our belief that this could eventually cure later-staged metastasized cancer. People will not die from cancer, if our prediction is true,” said Geng, who emphasized that the findings had not yet been proven in humans. “All tumors from different tissues and organs can be killed by high doses of chemotherapy and radiation, but the current challenge for treating the later-staged metastasized cancer is that you actually kill the patient before you kill the tumor.

“Now you have a way to make a patient tolerate to lethal doses of chemotherapy and radiotherapy. In this way, the later-staged, metastasized cancer can be eradicated by increased doses of chemotherapy and radiation.”

Geng’s lab found that when certain proteins bind with a specific molecule on intestinal stem cells, it revs intestinal stem cells into overdrive for intestinal regeneration and repair. Stem cells naturally heal damaged organs and tissues, but so-called “normal” amounts of stem cells in the intestine simply cannot keep up with the wreckage left behind by the lethal doses of chemotherapy and radiation required to successfully treat late-stage tumors.

However, the phalanx of extra stem cells protect the intestine and gastrointestinal tract, which means the patient can ingest nutrients, the body can perform other critical functions and the bacterial toxins in the intestine are prevented from entering the blood circulation, Geng said.

These factors could give the patient just enough of an extra edge to survive the stronger doses of chemotherapy and radiation, until the tumor or tumors are eradicated.

In the study, 50-to-75 percent of the mice treated with the molecule survived otherwise lethal doses of chemotherapy. All of the mice that did not receive the molecule died, Geng said.

“If you can keep the gut going, you can keep the patient going longer,” Geng said. “Now we have found a way to protect the intestine. The next step is to aim for a 100-percent survival rate in mice who are injected with the molecules and receive lethal doses of chemotherapy and radiation.”

Geng’s lab has worked with these molecules, called R-spondin1 and Slit2, for more than a decade. These molecules repair tissue in combination with intestinal stem cells residing in the adult intestine.

Journal Reference:

  1. Wei-Jie Zhou, Zhen H. Geng, Jason R. Spence & Jian-Guo Geng. Induction of intestinal stem cells by R-spondin 1 and Slit2 augments chemoradioprotectionNature, 2013 DOI: 10.1038/nature12416

They Finally Tested The ‘Prisoner’s Dilemma’ On Actual Prisoners — And The Results Were Not What You Would Expect (Business Insider Australia)

, 21 July 2013

Alcatraz Jail Prison

The “prisoner’s dilemma” is a familiar concept to just about anybody that took Econ 101.

The basic version goes like this. Two criminals are arrested, but police can’t convict either on the primary charge, so they plan to sentence them to a year in jail on a lesser charge. Each of the prisoners, who can’t communicate with each other, are given the option of testifying against their partner. If they testify, and their partner remains silent, the partner gets 3 years and they go free. If they both testify, both get two. If both remain silent, they each get one.

In game theory, betraying your partner, or “defecting” is always the dominant strategy as it always has a slightly higher payoff in a simultaneous game. It’s what’s known as a “Nash Equilibrium,” after Nobel Prize winning mathematician and A Beautiful Mind subject John Nash.

In sequential games, where players know each other’s previous behaviour and have the opportunity to punish each other, defection is the dominant strategy as well.

However, on a Pareto basis, the best outcome for both players is mutual cooperation.

Yet no one’s ever actually run the experiment on real prisoners before, until two University of Hamburg economists tried it out in a recent study comparing the behaviour of inmates and students.

Surprisingly, for the classic version of the game, prisoners were far more cooperative  than expected.

Menusch Khadjavi and Andreas Lange put the famous game to the test for the first time ever, putting a group of prisoners in Lower Saxony’s primary women’s prison, as well as students through both simultaneous and sequential versions of the game.The payoffs obviously weren’t years off sentences, but euros for students, and the equivalent value in coffee or cigarettes for prisoners.

They expected, building off of game theory and behavioural economic research that show humans are more cooperative than the purely rational model that economists traditionally use, that there would be a fair amount of first-mover cooperation, even in the simultaneous simulation where there’s no way to react to the other player’s decisions.

And even in the sequential game, where you get a higher payoff for betraying a cooperative first mover, a fair amount will still reciprocate.

As for the difference between student and prisoner behaviour, you’d expect that a prison population might be more jaded and distrustful, and therefore more likely to defect.

The results went exactly the other way for the simultaneous game, only 37% of students cooperate. Inmates cooperated 56% of the time.

On a pair basis, only 13% of student pairs managed to get the best mutual outcome and cooperate, whereas 30% of prisoners do.

In the sequential game, way more students (63%) cooperate, so the mutual cooperation rate skyrockets to 39%. For prisoners, it remains about the same.

What’s interesting is that the simultaneous game requires far more blind trust out from both parties, and you don’t have a chance to retaliate or make up for being betrayed later. Yet prisoners are still significantly more cooperative in that scenario.

Obviously the payoffs aren’t as serious as a year or three of your life, but the paper still demonstrates that prisoners aren’t necessarily as calculating, self-interested, and un-trusting as you might expect, and as behavioural economists have argued for years, as mathematically interesting as Nash equilibrium might be, they don’t line up with real behaviour all that well.

Vendettas, not war? Unpicking why our ancestors killed (New Scientist)

20:03 18 July 2013 by Bob Holmes

Is war in our blood? Perhaps not, if you believe a controversial new study that suggests violence in primitive cultures is overwhelmingly the result of personal squabbles, rather than organised violence between two different groups. The finding contradicts the popular view that humans have evolved to be innately warlike.

In recent years, many anthropologists and evolutionary biologists have come to believe that warfare arose deep in humans’ evolutionary past. In part that is because even chimpanzees exhibit this kind of intergroup violence, which suggests the trait shares a common origin. Proponents of this view also point to the occurrence of war in traditional hunter-gatherer societies today, such as some notoriously quarrelsome groups in the Amazon, and hence to its likely prevalence in early human societies.

Yet the archaeological record of warfare in early humans is sketchy, and not all contemporary hunter-gatherers make war.

In a bid to resolve the issue, Douglas Fry and Patrik Soderberg of Åbo Akademi University in Vasa, Finland, turned to the Ethnographic Atlas, a widely used database that was created in the 1960s to provide an unbiased cross-cultural sample of primitive societies.

From this, Fry and Soderberg selected the 21 societies that were exclusively nomadic hunter-gatherers – groups that upped sticks to wherever conditions were best – without livestock or social class divisions. They reasoned that these groups would most closely resemble early human societies.

Hello, sailor

The researchers then sifted through the early ethnographic accounts of each of these societies – the earliest of which was from the 17th century, while most were from the 19th and 20th centuries – and noted every reference to violent deaths, classifying them by how many people were involved and who they were. The records include accounts of events such as a man killing a rival for a woman, revenge killings for earlier deaths, and killing of outsiders such as shipwrecked sailors.

The pair found that in almost every society, deaths due to violence were rare – and the vast majority of those were one-on-one killings better classified as homicides than as warfare. Indeed, for 20 of the 21 societies, only 15 per cent of killings happened between two different groups. The exception was the Tiwi people of northern Australia, where intergroup feuds and retaliatory killings were common.

Fry and Soderberg say this suggests that warfare is rare in such primitive societies and may instead have become common only after the rise of more complex societies just a few thousand years ago. If so, then warfare would have likely played only a minor role in human evolution.

Anecdotal evidence

Not everyone agrees. For one thing, the data set Fry and Soderberg used is essentially a collection of anecdotes rather than a systematic survey of causes of death, says Kim Hill, an anthropologist at Arizona State University in Tempe. They are relying on the people who originally noted down these events to have included all the important details.

Moreover, they focus only on nomadic foragers and exclude any sedentary foraging societies – groups that would have foraged from a permanent base. Yet these sedentary foragers would probably have occupied the richest habitats and so would have been most likely to be involved in wars over territory, says Richard Wrangham, an anthropologist at Harvard University.

Fry and Soderberg are probably correct that most violent deaths are the result of homicide, not warfare – that was even true for the US during the Vietnam War, says Sam Bowles at the Santa Fe Institute in New Mexico. He has put forward the idea that altruism evolved out of the need for our ancestors to cooperate during times of war. But even if warfare is relatively uncommon, it can still exert an important evolutionary force, he says.

Journal reference: Science, DOI:10.1126/science.1235675

The Science of Why We Don’t Believe Science (Mother Jones)

How our brains fool us on climate, creationism, and the end of the world.

By  | Mon Apr. 18, 2011 3:00 AM PDT


“A MAN WITH A CONVICTION is a hard man to change. Tell him you disagree and he turns away. Show him facts or figures and he questions your sources. Appeal to logic and he fails to see your point.” So wrote the celebrated Stanford University psychologist Leon Festinger [1] (PDF), in a passage that might have been referring to climate change denial—the persistent rejection, on the part of so many Americans today, of what we know about global warming and its human causes. But it was too early for that—this was the 1950s—and Festinger was actually describing a famous case study [2] in psychology.

Festinger and several of his colleagues had infiltrated the Seekers, a small Chicago-area cult whose members thought they were communicating with aliens—including one, “Sananda,” who they believed was the astral incarnation of Jesus Christ. The group was led by Dorothy Martin, a Dianetics devotee who transcribed the interstellar messages through automatic writing.

Through her, the aliens had given the precise date of an Earth-rending cataclysm: December 21, 1954. Some of Martin’s followers quit their jobs and sold their property, expecting to be rescued by a flying saucer when the continent split asunder and a new sea swallowed much of the United States. The disciples even went so far as to remove brassieres and rip zippers out of their trousers—the metal, they believed, would pose a danger on the spacecraft.

Festinger and his team were with the cult when the prophecy failed. First, the “boys upstairs” (as the aliens were sometimes called) did not show up and rescue the Seekers. Then December 21 arrived without incident. It was the moment Festinger had been waiting for: How would people so emotionally invested in a belief system react, now that it had been soundly refuted?

Read also: the truth about Climategate. [3]. Read also: the truth about Climategate [4].

At first, the group struggled for an explanation. But then rationalization set in. A new message arrived, announcing that they’d all been spared at the last minute. Festinger summarized the extraterrestrials’ new pronouncement: “The little group, sitting all night long, had spread so much light that God had saved the world from destruction.” Their willingness to believe in the prophecy had saved Earth from the prophecy!

From that day forward, the Seekers, previously shy of the press and indifferent toward evangelizing, began to proselytize. “Their sense of urgency was enormous,” wrote Festinger. The devastation of all they had believed had made them even more certain of their beliefs.

In the annals of denial, it doesn’t get much more extreme than the Seekers. They lost their jobs, the press mocked them, and there were efforts to keep them away from impressionable young minds. But while Martin’s space cult might lie at on the far end of the spectrum of human self-delusion, there’s plenty to go around. And since Festinger’s day, an array of new discoveries in psychology and neuroscience has further demonstrated how our preexisting beliefs, far more than any new facts, can skew our thoughts and even color what we consider our most dispassionate and logical conclusions. This tendency toward so-called “motivated reasoning [5]” helps explain why we find groups so polarized over matters where the evidence is so unequivocal: climate change, vaccines, “death panels,” the birthplace and religion of the president [6] (PDF), and much else. It would seem that expecting people to be convinced by the facts flies in the face of, you know, the facts.

The theory of motivated reasoning builds on a key insight of modern neuroscience [7] (PDF): Reasoning is actually suffused with emotion (or what researchers often call “affect”). Not only are the two inseparable, but our positive or negative feelings about people, things, and ideas arise much more rapidly than our conscious thoughts, in a matter of milliseconds—fast enough to detect with an EEG device, but long before we’re aware of it. That shouldn’t be surprising: Evolution required us to react very quickly to stimuli in our environment. It’s a “basic human survival skill,” explains political scientist Arthur Lupia[8] of the University of Michigan. We push threatening information away; we pull friendly information close. We apply fight-or-flight reflexes not only to predators, but to data itself.

We apply fight-or-flight reflexes not only to predators, but to data itself.

We’re not driven only by emotions, of course—we also reason, deliberate. But reasoning comes later, works slower—and even then, it doesn’t take place in an emotional vacuum. Rather, our quick-fire emotions can set us on a course of thinking that’s highly biased, especially on topics we care a great deal about.

Consider a person who has heard about a scientific discovery that deeply challenges her belief in divine creation—a new hominid, say, that confirms our evolutionary origins. What happens next, explains political scientist Charles Taber [9] of Stony Brook University, is a subconscious negative response to the new information—and that response, in turn, guides the type of memories and associations formed in the conscious mind. “They retrieve thoughts that are consistent with their previous beliefs,” says Taber, “and that will lead them to build an argument and challenge what they’re hearing.”

In other words, when we think we’re reasoning, we may instead be rationalizing. Or to use an analogy offered by University of Virginia psychologist Jonathan Haidt [10]: We may think we’re being scientists, but we’re actually being lawyers [11] (PDF). Our “reasoning” is a means to a predetermined end—winning our “case”—and is shot through with biases. They include “confirmation bias,” in which we give greater heed to evidence and arguments that bolster our beliefs, and “disconfirmation bias,” in which we expend disproportionate energy trying to debunk or refute views and arguments that we find uncongenial.

That’s a lot of jargon, but we all understand these mechanisms when it comes to interpersonal relationships. If I don’t want to believe that my spouse is being unfaithful, or that my child is a bully, I can go to great lengths to explain away behavior that seems obvious to everybody else—everybody who isn’t too emotionally invested to accept it, anyway. That’s not to suggest that we aren’t also motivated to perceive the world accurately—we are. Or that we never change our minds—we do. It’s just that we have other important goals besides accuracy—including identity affirmation and protecting one’s sense of self—and often those make us highly resistant to changing our beliefs when the facts say we should.

Modern science originated from an attempt to weed out such subjective lapses—what that great 17th century theorist of the scientific method, Francis Bacon, dubbed the “idols of the mind.” Even if individual researchers are prone to falling in love with their own theories, the broader processes of peer review and institutionalized skepticism are designed to ensure that, eventually, the best ideas prevail.

Scientific evidence is highly susceptible to misinterpretation. Giving ideologues scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Our individual responses to the conclusions that science reaches, however, are quite another matter. Ironically, in part because researchers employ so much nuance and strive to disclose all remaining sources of uncertainty, scientific evidence is highly susceptible to selective reading and misinterpretation. Giving ideologues or partisans scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Sure enough, a large number of psychological studies have shown that people respond to scientific or technical evidence in ways that justify their preexisting beliefs. In a classic 1979 experiment [12] (PDF), pro- and anti-death penalty advocates were exposed to descriptions of two fake scientific studies: one supporting and one undermining the notion that capital punishment deters violent crime and, in particular, murder. They were also shown detailed methodological critiques of the fake studies—and in a scientific sense, neither study was stronger than the other. Yet in each case, advocates more heavily criticized the study whose conclusions disagreed with their own, while describing the study that was more ideologically congenial as more “convincing.”

Since then, similar results have been found for how people respond to “evidence” about affirmative action, gun control, the accuracy of gay stereotypes [13], and much else. Even when study subjects are explicitly instructed to be unbiased and even-handed about the evidence, they often fail.

And it’s not just that people twist or selectively read scientific evidence to support their preexisting views. According to research by Yale Law School professor Dan Kahan [14] and his colleagues, people’s deep-seated views about morality, and about the way society should be ordered, strongly predict whom they consider to be a legitimate scientific expert in the first place—and thus where they consider “scientific consensus” to lie on contested issues.

In Kahan’s research [15] (PDF), individuals are classified, based on their cultural values, as either “individualists” or “communitarians,” and as either “hierarchical” or “egalitarian” in outlook. (Somewhat oversimplifying, you can think of hierarchical individualists as akin to conservative Republicans, and egalitarian communitarians as liberal Democrats.) In one study, subjects in the different groups were asked to help a close friend determine the risks associated with climate change, sequestering nuclear waste, or concealed carry laws: “The friend tells you that he or she is planning to read a book about the issue but would like to get your opinion on whether the author seems like a knowledgeable and trustworthy expert.” A subject was then presented with the résumé of a fake expert “depicted as a member of the National Academy of Sciences who had earned a Ph.D. in a pertinent field from one elite university and who was now on the faculty of another.” The subject was then shown a book excerpt by that “expert,” in which the risk of the issue at hand was portrayed as high or low, well-founded or speculative. The results were stark: When the scientist’s position stated that global warming is real and human-caused, for instance, only 23 percent of hierarchical individualists agreed the person was a “trustworthy and knowledgeable expert.” Yet 88 percent of egalitarian communitarians accepted the same scientist’s expertise. Similar divides were observed on whether nuclear waste can be safely stored underground and whether letting people carry guns deters crime. (The alliances did not always hold. Inanother study [16] (PDF), hierarchs and communitarians were in favor of laws that would compel the mentally ill to accept treatment, whereas individualists and egalitarians were opposed.)

Head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

In other words, people rejected the validity of a scientific source because its conclusion contradicted their deeply held views—and thus the relative risks inherent in each scenario. A hierarchal individualist finds it difficult to believe that the things he prizes (commerce, industry, a man’s freedom to possess a gun to defend his family [16]) (PDF) could lead to outcomes deleterious to society. Whereas egalitarian communitarians tend to think that the free market causes harm, that patriarchal families mess up kids, and that people can’t handle their guns. The study subjects weren’t “anti-science”—not in their own minds, anyway. It’s just that “science” was whatever they wanted it to be. “We’ve come to a misadventure, a bad situation where diverse citizens, who rely on diverse systems of cultural certification, are in conflict,” says Kahan [17].

And that undercuts the standard notion that the way to persuade people is via evidence and argument. In fact, head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

Take, for instance, the question of whether Saddam Hussein possessed hidden weapons of mass destruction just before the US invasion of Iraq in 2003. When political scientists Brendan Nyhan and Jason Reifler showed subjects fake newspaper articles [18] (PDF) in which this was first suggested (in a 2004 quote from President Bush) and then refuted (with the findings of the Bush-commissioned Iraq Survey Group report, which found no evidence of active WMD programs in pre-invasion Iraq), they found that conservatives were more likely than before to believe the claim. (The researchers also tested how liberals responded when shown that Bush did not actually “ban” embryonic stem-cell research. Liberals weren’t particularly amenable to persuasion, either, but no backfire effect was observed.)

Another study gives some inkling of what may be going through people’s minds when they resist persuasion. Northwestern University sociologist Monica Prasad [19] and her colleagues wanted to test whether they could dislodge the notion that Saddam Hussein and Al Qaeda were secretly collaborating among those most likely to believe it—Republican partisans from highly GOP-friendly counties. So the researchers set up a study [20] (PDF) in which they discussed the topic with some of these Republicans in person. They would cite the findings of the 9/11 Commission, as well as a statement in which George W. Bush himself denied his administration had “said the 9/11 attacks were orchestrated between Saddam and Al Qaeda.”

One study showed that not even Bush’s own words could change the minds of Bush voters who believed there was an Iraq-Al Qaeda link.

As it turned out, not even Bush’s own words could change the minds of these Bush voters—just 1 of the 49 partisans who originally believed the Iraq-Al Qaeda claim changed his or her mind. Far more common was resisting the correction in a variety of ways, either by coming up with counterarguments or by simply being unmovable:

Interviewer: [T]he September 11 Commission found no link between Saddam and 9/11, and this is what President Bush said. Do you have any comments on either of those?

Respondent: Well, I bet they say that the Commission didn’t have any proof of it but I guess we still can have our opinions and feel that way even though they say that.

The same types of responses are already being documented on divisive topics facing the current administration. Take the “Ground Zero mosque.” Using information from the political myth-busting site FactCheck.org [21], a team at Ohio State presented subjects [22] (PDF) with a detailed rebuttal to the claim that “Feisal Abdul Rauf, the Imam backing the proposed Islamic cultural center and mosque, is a terrorist-sympathizer.” Yet among those who were aware of the rumor and believed it, fewer than a third changed their minds.

A key question—and one that’s difficult to answer—is how “irrational” all this is. On the one hand, it doesn’t make sense to discard an entire belief system, built up over a lifetime, because of some new snippet of information. “It is quite possible to say, ‘I reached this pro-capital-punishment decision based on real information that I arrived at over my life,'” explains Stanford social psychologist Jon Krosnick [23]. Indeed, there’s a sense in which science denial could be considered keenly “rational.” In certain conservative communities, explains Yale’s Kahan, “People who say, ‘I think there’s something to climate change,’ that’s going to mark them out as a certain kind of person, and their life is going to go less well.”

This may help explain a curious pattern Nyhan and his colleagues found when they tried to test the fallacy [6] (PDF) that President Obama is a Muslim. When a nonwhite researcher was administering their study, research subjects were amenable to changing their minds about the president’s religion and updating incorrect views. But when only white researchers were present, GOP survey subjects in particular were more likely to believe the Obama Muslim myth than before. The subjects were using “social desirabililty” to tailor their beliefs (or stated beliefs, anyway) to whoever was listening.

Which leads us to the media. When people grow polarized over a body of evidence, or a resolvable matter of fact, the cause may be some form of biased reasoning, but they could also be receiving skewed information to begin with—or a complicated combination of both. In the Ground Zero mosque case, for instance, a follow-up study [24] (PDF) showed that survey respondents who watched Fox News were more likely to believe the Rauf rumor and three related ones—and they believed them more strongly than non-Fox watchers.

Okay, so people gravitate toward information that confirms what they believe, and they select sources that deliver it. Same as it ever was, right? Maybe, but the problem is arguably growing more acute, given the way we now consume information—through the Facebook links of friends, or tweets that lack nuance or context, or “narrowcast [25]” and often highly ideological media that have relatively small, like-minded audiences. Those basic human survival skills of ours, says Michigan’s Arthur Lupia, are “not well-adapted to our information age.”

A predictor of whether you accept the science of global warming? Whether you’re a Republican or a Democrat.

If you wanted to show how and why fact is ditched in favor of motivated reasoning, you could find no better test case than climate change. After all, it’s an issue where you have highly technical information on one hand and very strong beliefs on the other. And sure enough, one key predictor of whether you accept the science of global warming is whether you’re a Republican or a Democrat. The two groups have been growing more divided in their views about the topic, even as the science becomes more unequivocal.

So perhaps it should come as no surprise that more education doesn’t budge Republican views. On the contrary: In a 2008 Pew survey [26], for instance, only 19 percent of college-educated Republicans agreed that the planet is warming due to human actions, versus 31 percent of non-college educated Republicans. In other words, a higher education correlated with an increased likelihood of denying the science on the issue. Meanwhile, among Democrats and independents, more education correlated with greater acceptance of the science.

Other studies have shown a similar effect: Republicans who think they understand the global warming issue best are least concerned about it; and among Republicans and those with higher levels of distrust of science in general, learning more about the issue doesn’t increase one’s concern about it. What’s going on here? Well, according to Charles Taber and Milton Lodge of Stony Brook, one insidious aspect of motivated reasoning is that political sophisticates are prone to be more biased than those who know less about the issues. “People who have a dislike of some policy—for example, abortion—if they’re unsophisticated they can just reject it out of hand,” says Lodge. “But if they’re sophisticated, they can go one step further and start coming up with counterarguments.” These individuals are just as emotionally driven and biased as the rest of us, but they’re able to generate more and better reasons to explain why they’re right—and so their minds become harder to change.

That may be why the selectively quoted emails of Climategate were so quickly and easily seized upon by partisans as evidence of scandal. Cherry-picking is precisely the sort of behavior you would expect motivated reasoners to engage in to bolster their views—and whatever you may think about Climategate, the emails were a rich trove of new information upon which to impose one’s ideology.

Climategate had a substantial impact on public opinion, according to Anthony Leiserowitz [27], director of the Yale Project on Climate Change Communication [28]. It contributed to an overall drop in public concern about climate change and a significant loss of trust in scientists. But—as we should expect by now—these declines were concentrated among particular groups of Americans: Republicans, conservatives, and those with “individualistic” values. Liberals and those with “egalitarian” values didn’t lose much trust in climate science or scientists at all. “In some ways, Climategate was like a Rorschach test,” Leiserowitz says, “with different groups interpreting ambiguous facts in very different ways.”

Is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism.

So is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism. Its most famous proponents are an environmentalist (Robert F. Kennedy Jr. [29]) and numerous Hollywood celebrities (most notably Jenny McCarthy [30] and Jim Carrey). TheHuffington Post gives a very large megaphone to denialists. And Seth Mnookin [31], author of the new book The Panic Virus [32], notes that if you want to find vaccine deniers, all you need to do is go hang out at Whole Foods.

Vaccine denial has all the hallmarks of a belief system that’s not amenable to refutation. Over the past decade, the assertion that childhood vaccines are driving autism rateshas been undermined [33] by multiple epidemiological studies—as well as the simple fact that autism rates continue to rise, even though the alleged offending agent in vaccines (a mercury-based preservative called thimerosal) has long since been removed.

Yet the true believers persist—critiquing each new study that challenges their views, and even rallying to the defense of vaccine-autism researcher Andrew Wakefield, afterhis 1998 Lancet paper [34]—which originated the current vaccine scare—was retracted and he subsequently lost his license [35] (PDF) to practice medicine. But then, why should we be surprised? Vaccine deniers created their own partisan media, such as the website Age of Autism, that instantly blast out critiques and counterarguments whenever any new development casts further doubt on anti-vaccine views.

It all raises the question: Do left and right differ in any meaningful way when it comes to biases in processing information, or are we all equally susceptible?

There are some clear differences. Science denial today is considerably more prominent on the political right—once you survey climate and related environmental issues, anti-evolutionism, attacks on reproductive health science by the Christian right, and stem-cell and biomedical matters. More tellingly, anti-vaccine positions are virtually nonexistent among Democratic officeholders today—whereas anti-climate-science views are becoming monolithic among Republican elected officials.

Some researchers have suggested that there are psychological differences between the left and the right that might impact responses to new information—that conservatives are more rigid and authoritarian, and liberals more tolerant of ambiguity. Psychologist John Jost of New York University has further argued that conservatives are “system justifiers”: They engage in motivated reasoning to defend the status quo.

This is a contested area, however, because as soon as one tries to psychoanalyze inherent political differences, a battery of counterarguments emerges: What about dogmatic and militant communists? What about how the parties have differed through history? After all, the most canonical case of ideologically driven science denial is probably the rejection of genetics in the Soviet Union, where researchers disagreeing with the anti-Mendelian scientist (and Stalin stooge) Trofim Lysenko were executed, and genetics itself was denounced as a “bourgeois” science and officially banned.

The upshot: All we can currently bank on is the fact that we all have blinders in some situations. The question then becomes: What can be done to counteract human nature itself?

We all have blinders in some situations. The question then becomes: What can be done to counteract human nature?

Given the power of our prior beliefs to skew how we respond to new information, one thing is becoming clear: If you want someone to accept new evidence, make sure to present it to them in a context that doesn’t trigger a defensive, emotional reaction.

This theory is gaining traction in part because of Kahan’s work at Yale. In one study [36], he and his colleagues packaged the basic science of climate change into fake newspaper articles bearing two very different headlines—”Scientific Panel Recommends Anti-Pollution Solution to Global Warming” and “Scientific Panel Recommends Nuclear Solution to Global Warming”—and then tested how citizens with different values responded. Sure enough, the latter framing made hierarchical individualists much more open to accepting the fact that humans are causing global warming. Kahan infers that the effect occurred because the science had been written into an alternative narrative that appealed to their pro-industry worldview.

You can follow the logic to its conclusion: Conservatives are more likely to embrace climate science if it comes to them via a business or religious leader, who can set the issue in the context of different values than those from which environmentalists or scientists often argue. Doing so is, effectively, to signal a détente in what Kahan has called a “culture war of fact.” In other words, paradoxically, you don’t lead with the facts in order to convince. You lead with the values—so as to give the facts a fighting chance.


Links:
[1] https://motherjones.com/files/lfestinger.pdf
[2] http://www.powells.com/biblio/61-9781617202803-1
[3] http://motherjones.com/environment/2011/04/history-of-climategate
[4] http://motherjones.com/environment/2011/04/field-guide-climate-change-skeptics
[5] http://www.ncbi.nlm.nih.gov/pubmed/2270237
[6] http://www-personal.umich.edu/~bnyhan/obama-muslim.pdf
[7] https://motherjones.com/files/descartes.pdf
[8] http://www-personal.umich.edu/~lupia/
[9] http://www.stonybrook.edu/polsci/ctaber/
[10] http://people.virginia.edu/~jdh6n/
[11] https://motherjones.com/files/emotional_dog_and_rational_tail.pdf
[12] http://synapse.princeton.edu/~sam/lord_ross_lepper79_JPSP_biased-assimilation-and-attitude-polarization.pdf
[13] http://psp.sagepub.com/content/23/6/636.abstract
[14] http://www.law.yale.edu/faculty/DKahan.htm
[15] https://motherjones.com/files/kahan_paper_cultural_cognition_of_scientific_consesus.pdf
[16] http://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=1095&context=fss_papers
[17] http://seagrant.oregonstate.edu/blogs/communicatingclimate/transcripts/Episode_10b_Dan_Kahan.html
[18] http://www-personal.umich.edu/~bnyhan/nyhan-reifler.pdf
[19] http://www.sociology.northwestern.edu/faculty/prasad/home.html
[20] http://sociology.buffalo.edu/documents/hoffmansocinquiryarticle_000.pdf
[21] http://www.factcheck.org/
[22] http://www.comm.ohio-state.edu/kgarrett/FactcheckMosqueRumors.pdf
[23] http://communication.stanford.edu/faculty/krosnick/
[24] http://www.comm.ohio-state.edu/kgarrett/MediaMosqueRumors.pdf
[25] http://en.wikipedia.org/wiki/Narrowcasting
[26] http://people-press.org/report/417/a-deeper-partisan-divide-over-global-warming
[27] http://environment.yale.edu/profile/leiserowitz/
[28] http://environment.yale.edu/climate/
[29] http://www.huffingtonpost.com/robert-f-kennedy-jr-and-david-kirby/vaccine-court-autism-deba_b_169673.html
[30] http://www.huffingtonpost.com/jenny-mccarthy/vaccine-autism-debate_b_806857.html
[31] http://sethmnookin.com/
[32] http://www.powells.com/biblio/1-9781439158647-0
[33] http://discovermagazine.com/2009/jun/06-why-does-vaccine-autism-controversy-live-on/article_print
[34] http://www.thelancet.com/journals/lancet/article/PIIS0140673697110960/fulltext
[35] http://www.gmc-uk.org/Wakefield_SPM_and_SANCTION.pdf_32595267.pdf
[36] http://www.scribd.com/doc/3446682/The-Second-National-Risk-and-Culture-Study-Making-Sense-of-and-Making-Progress-In-The-American-Culture-War-of-Fact

Global Warming Caused by CFCs, Not Carbon Dioxide, Researcher Claims in Controversial Study (Science Daily)

May 30, 2013 — Chlorofluorocarbons (CFCs) are to blame for global warming since the 1970s and not carbon dioxide, according to a researcher from the University of Waterloo in a controversial new study published in the International Journal of Modern Physics B this week.

Annual global temperature over land and ocean. (Credit: Image by Q.-B. Lu)

CFCs are already known to deplete ozone, but in-depth statistical analysis now suggests that CFCs are also the key driver in global climate change, rather than carbon dioxide (CO2) emissions, the researcher argues.

“Conventional thinking says that the emission of human-made non-CFC gases such as carbon dioxide has mainly contributed to global warming. But we have observed data going back to the Industrial Revolution that convincingly shows that conventional understanding is wrong,” said Qing-Bin Lu, a professor of physics and astronomy, biology and chemistry in Waterloo’s Faculty of Science. “In fact, the data shows that CFCs conspiring with cosmic rays caused both the polar ozone hole and global warming.”

“Most conventional theories expect that global temperatures will continue to increase as CO2 levels continue to rise, as they have done since 1850. What’s striking is that since 2002, global temperatures have actually declined — matching a decline in CFCs in the atmosphere,” Professor Lu said. “My calculations of CFC greenhouse effect show that there was global warming by about 0.6 °C from 1950 to 2002, but the earth has actually cooled since 2002. The cooling trend is set to continue for the next 50-70 years as the amount of CFCs in the atmosphere continues to decline.”

The findings are based on in-depth statistical analyses of observed data from 1850 up to the present time, Professor Lu’s cosmic-ray-driven electron-reaction (CRE) theory of ozone depletion and his previous research into Antarctic ozone depletion and global surface temperatures.

“It was generally accepted for more than two decades that the Earth’s ozone layer was depleted by the sun’s ultraviolet light-induced destruction of CFCs in the atmosphere,” he said. “But in contrast, CRE theory says cosmic rays — energy particles originating in space — play the dominant role in breaking down ozone-depleting molecules and then ozone.”

Lu’s theory has been confirmed by ongoing observations of cosmic ray, CFC, ozone and stratospheric temperature data over several 11-year solar cycles. “CRE is the only theory that provides us with an excellent reproduction of 11-year cyclic variations of both polar ozone loss and stratospheric cooling,” said Professor Lu. “After removing the natural cosmic-ray effect, my new paper shows a pronounced recovery by ~20% of the Antarctic ozone hole, consistent with the decline of CFCs in the polar stratosphere.”

By demonstrating the link between CFCs, ozone depletion and temperature changes in the Antarctic, Professor Lu was able to draw almost perfect correlation between rising global surface temperatures and CFCs in the atmosphere.

“The climate in the Antarctic stratosphere has been completely controlled by CFCs and cosmic rays, with no CO2 impact. The change in global surface temperature after the removal of the solar effect has shown zero correlation with CO2 but a nearly perfect linear correlation with CFCs — a correlation coefficient as high as 0.97.”

Data recorded from 1850 to 1970, before any significant CFC emissions, show that CO2 levels increased significantly as a result of the Industrial Revolution, but the global temperature, excluding the solar effect, kept nearly constant. The conventional warming model of CO2, suggests the temperatures should have risen by 0.6°C over the same period, similar to the period of 1970-2002.

The analyses support Lu’s CRE theory and point to the success of the Montreal Protocol on Substances that Deplete the Ozone Layer.

“We’ve known for some time that CFCs have a really damaging effect on our atmosphere and we’ve taken measures to reduce their emissions,” Professor Lu said. “We now know that international efforts such as the Montreal Protocol have also had a profound effect on global warming but they must be placed on firmer scientific ground.”

“This study underlines the importance of understanding the basic science underlying ozone depletion and global climate change,” said Terry McMahon, dean of the faculty of science. “This research is of particular importance not only to the research community, but to policy makers and the public alike as we look to the future of our climate.”

Professor Lu’s paper, “Cosmic-Ray-Driven Reaction and Greenhouse Effect of Halogenated Molecules: Culprits for Atmospheric Ozone Depletion and Global Climate Change,” also predicts that the global sea level will continue to rise for some years as the hole in the ozone recovers increasing ice melting in the polar regions.

“Only when the effect of the global temperature recovery dominates over that of the polar ozone hole recovery, will both temperature and polar ice melting drop concurrently,” says Lu.

The peer-reviewed paper published this week not only provides new fundamental understanding of the ozone hole and global climate change but has superior predictive capabilities, compared with the conventional sunlight-driven ozone-depleting and CO2-warming models, Lu argues.

Journal Reference:

  1. Q.-B. Lu. Cosmic-Ray-Driven Reaction and Greenhouse Effect of Halogenated Molecules: Culprits for Atmospheric Ozone Depletion and Global Climate ChangeInternational Journal of Modern Physics B, 2013; 1350073 DOI: 10.1142/S0217979213500732