Arquivo mensal: fevereiro 2010

>Climate scepticism ‘on the rise’, BBC poll shows

The number of British people who are sceptical about climate change is rising, a poll for BBC News suggests.

BBC News, Sunday, 7 February 2010

The Populus poll of 1,001 adults found 25% did not think global warming was happening, an increase of 10% since a similar poll was conducted in November.

The percentage of respondents who said climate change was a reality had fallen from 83% in November to 75% this month.

And only 26% of those asked believed climate change was happening and “now established as largely man-made”.

The findings are based on interviews carried out on 3-4 February.

In November 2009, a similar poll by Populus – commissioned by the Times newspaper – showed that 41% agreed that climate change was happening and it was largely the result of human activities.

“It is very unusual indeed to see such a dramatic shift in opinion in such a short period,” Populus managing director Michael Simmonds told BBC News.

“The British public are sceptical about man’s contribution to climate change – and becoming more so,” he added.

“More people are now doubters than firm believers.”

The Department for Environment, Food and Rural Affairs’ (Defra) chief scientific adviser, Professor Bob Watson, called the findings “very disappointing”.

“The fact that there has been a very significant drop in the number of people that believe that we humans are changing the Earth’s climate is serious,” he told BBC News.

“Action is urgently needed,” Professor Watson warned.

“We need the public to understand that climate change is serious so they will change their habits and help us move towards a low carbon economy.”

‘Exaggerated risks’

Of the 75% of respondents who agreed that climate change was happening, one-in-three people felt that the potential consequences of living in a warming world had been exaggerated, up from one-in-five people in November.

The number of people who felt the risks of climate change had been understated dropped from 38% in November to 25% in the latest poll.

During the intervening period between the two polls, there was a series of high profile climate-related stories, some of which made grim reading for climate scientists and policymakers.

In November, the contents of emails stolen from a leading climate science unit led to accusations that a number of researchers had manipulated data.

And in January, the Intergovernmental Panel on Climate Change (IPCC) admitted that it had made a mistake in asserting that Himalayan glaciers could disappear by 2035.

All of this happened against the backdrop of many parts of the northern hemisphere being gripped by a prolonged period of sub-zero temperatures.

However, 73% of the people who said that they were aware of the “science flaws” stories stated that the media coverage had not changed their views about the risks of climate change.

“People tend to make judgements over time based on a whole range of different sources,” Mr Simmonds explained.

He added that it was very unusual for single events to have a dramatic impact on public opinion.

“Normally, people make their minds up over a longer period and are influenced by all the voices they hear, what they read and what people they know are talking about.”

>Climate change scientists losing ‘PR war’ (BBC)

A Nobel peace prize-winning Welsh physicist says climate change scientists are losing “a PR war” against sceptics with vested interests.

BBC News, Thursday, 11 February 2010

Sir John Houghton said there were millions of internet references to a comment he never made which appears to to show him “hyping up” global warming.

A poll for BBC news suggests the number of British people who are sceptical about climate change is rising.

Sir John believes recent news stories may have contributed to scepticism.

He told BBC Wales’ Dragon’s Eye programme: “If you Google my name on the web and look for a quote, the quote you will find is one that goes like this.

“It says ‘unless we announce disasters, no-one will listen’.

“I have never said that. The origin of the quote according to some of the people who write about it… [they] say it comes from the first edition of my global warming book, published in 1994.

“It does not appear in that book in any shape or form.”

Sir John, who co-chaired the UN Intergovernmental Panel on Climate Change’s (IPCC) scientific assessment group for 14 years, received the Nobel peace prize in 2007 as part of an IPCC delegation.

He said most scientists were not very good at public relations and just wanted to get on with their work.

Asked if he believed climate change scientists were now in a “PR war” with sceptics, he said: “We are in a way and we’re losing that war because we’re not good at PR.

“Your average scientist is not a good PR person because he wants to get on with his science.

Stolen e-mails

“So we need to look, I suppose, for some good PR people to help us get our messages across in an honest and open and sensible way, without causing the sort of furore, the sort of polarisation that has occurred because of the people who are trying to deny it, and trying to deny it so vehemently that the media is taking so much notice of them.”

The number of British people who are sceptical about climate change is rising, according to a new poll.

The Populus poll of 1,001 adults found 25% did not think global warming was happening, an increase of 10% since a similar poll in November.

Stolen e-mails from the University of East Anglia led to accusations, since denied, that climate change data was being manipulated.

Last month, the IPCC had to admit it had been mistaken in claiming Himalayan glaciers could disappear by 2035.

Sir John said some reporting of these stories had given mistakes undue significance and deliberately misrepresented other information.

‘Vested interests’

He believes some sceptics are influenced by concerns other than scientific truth, comparing them to now discredited lobbyists who argued smoking did not cause cancer.

He said: “A lot of it comes from the United States, from vested interests, coal and oil interests in the United States which are very strong and which employ thousands of lobbyists in Washington to try and influence members of Congress that climate change is not happening.

“So it’s a major problem in the United States and it does spill over to this country too.”

>An unconventional way to combat petty corruption (The Economist)

Fighting corruption in India
A zero contribution
An unconventional way to combat petty corruption

Jan 28th 2010 | From The Economist print edition
5th Pillar

A ZERO-SUM game is one in which the gains of one player are exactly balanced by the losses of another. In India a local non-governmental organisation has invented a new sort of zero sum which, it hopes, will leave everyone better off: the zero-rupee note.

What on earth is the point of that? The note is not legal tender. It is simply a piece of paper the colour of a 50-rupee note with a picture of Gandhi on it and a value of nothing. Its aim is to shame corrupt officials into not demanding bribes.

The idea was dreamt up by an expatriate Indian physics professor from the University of Maryland who, travelling back home, found himself harassed by endless extortion demands. He gave the notes to the importuning officials as a polite way of saying no. Vijay Anand, president of an NGO called 5th Pillar, thought it might work on a larger scale. He had 25,000 zero-rupee notes printed and publicised to mobilise opposition to corruption. They caught on: his charity has distributed 1m since 2007.

One official in Tamil Nadu was so stunned to receive the note that he handed back all the bribes he had solicited for providing electricity to a village. Another stood up, offered tea to the old lady from whom he was trying to extort money and approved a loan so her granddaughter could go to college.

Mr Anand thinks the notes work because corrupt officials so rarely encounter resistance that they get scared when they do. And ordinary people are more willing to protest, since the notes have an organisation behind them and they do not feel on their own. Simple ideas like this don’t always work. When India’s government put online the names of officials facing trial for corruption, the list became a convenient guide for whom to bribe. But, says Fumiko Nagano of the World Bank, transforming social norms is the key to fighting petty corruption and the notes help that process. They are valueless, but not worthless.

>96% de tudo o que há é invisível!

>Pesquisa FAPESP – Edição 168 – Fevereiro 2010

Universo invisível

Astrônomos e físicos do mundo todo tentam desvendar do que são feitos 96% do Cosmo
Ricardo Zorzetto

A Agência Espacial Europeia (ESA, na sigla em inglês) divulgou no final de janeiro uma imagem mostrando a concentração de galáxias a diferentes distâncias em uma pequena região do Universo. Cada ponto colorido da imagem (veja acima) corresponde a um agrupamento com centenas a milhares de galáxias – cada uma delas formada por centenas de bilhões de estrelas e uma quantidade elevada de gás muito quente. São o que os astrônomos chamam de aglomerados de galáxias, as estruturas em equilíbrio de maior dimensão e massa já identificadas no Cosmo. Calculando o número de corpos celestes que podem existir ali, fica difícil imaginar que eles contribuam para compor apenas 4,6% de tudo o que existe no Universo. O restante, na verdade quase tudo, não pode ser visto. Os outros 95,6% são formados, de acordo com a vasta maioria dos físicos e dos astrônomos, por dois tipos de elementos descobertos apenas nos últimos 80 anos: a matéria escura e a energia escura, sobre as quais quase nada se sabe além do fato de que precisam existir para que o Universo seja como se imagina que é. Alvo de uma série de experimentos internacionais que contam com a participação de brasileiros, alguns já em andamento e outros previstos para iniciar nos próximos anos, essa forma de matéria e de energia não absorve nem emite luz e, portanto, é invisível ao olho humano.

Nenhum equipamento em atividade até o momento foi capaz de detectá-las diretamente. Mas os físicos preveem a existência das duas em seus modelos de evolução do Cosmo, e os astrônomos inferem a presença delas a partir de assinaturas que deixam na estrutura do Universo, identificáveis em imagens como essa produzida pela ESA, resultado do Levantamento sobre a Evolução Cosmológica (Cosmos) – esse projeto usa os maiores telescópios em terra e no espaço para vasculhar uma região do céu do tamanho de oito luas cheias.

Foi apenas no último século que a compreensão do Universo se complicou tanto. Na década de 1920 o astrônomo norte-americano Edwin Hubble percebeu que o Cosmo era formado por grandes agrupamentos de estrelas – as galáxias – e que elas estavam se afastando umas das outras. A constatação de que o Universo estava se expandindo levou físicos e astrônomos a reverem suas ideias, pois até então acreditava-se que ele fosse estático e finito.

Estudando as galáxias, o astrônomo búlgaro Fritz Zwicky, considerado por muitos um mal-humorado, notou em 1933 que elas precisariam de 10 vezes mais massa do que tinham para se unirem em aglomerados apenas pela atração gravitacional, a força proposta por Isaac Newton para explicar a atração de corpos de massa elevada a distâncias muito grandes, como os planetas e as estrelas. A massa que não se conseguiu enxergar foi chamada de matéria escura. A energia escura só seria proposta cerca de 70 anos mais tarde, quando os grupos de Adam Riess e Saul Perlmutter, que investigavam supernovas, estrelas que explodiram passando a emitir um brilho milhões de vezes mais intenso, estavam se afastando de nós cada vez mais rapidamente. O Universo não se encontrava apenas em expansão, mas em expansão acelerada. Algo desconhecido, uma espécie de força contrária à da gravidade – mais tarde chamada de energia escura –, fazia o Cosmo crescer a velocidades cada vez maiores como um lençol de borracha puxado pelas pontas.

Poucos cientistas duvidam hoje da existência da matéria escura e da energia escura, também conhecidas como a componente escura do Universo. O principal desafio – muitos pesquisadores a consideram uma das questões mais importantes a serem resolvidas – é determinar a natureza de ambas, ou seja, o que de fato as compõem.

Sobre esse ponto, físicos e astrônomos nada sabem com segurança. Quando muito, têm bons palpites. E, como os demais habitantes do planeta, devem continuar às escuras até que uma avalanche de dados sobre mais agrupamentos de galáxias e outras estruturas do Universo mais antigas do que as observadas hoje comece a alimentar seus computadores.

“Nunca nossa ignorância foi quantificada com tamanha precisão”, comenta o astrônomo Laer-te Sodré Júnior, da Universidade de São Paulo (USP), referindo-se aos cálculos mais aceitos hoje da quantidade de matéria escura e de energia escura existentes no Cosmo: 22,6% e 72,8%, respectivamente. Há quase 30 anos Sodré estuda os aglomerados de galáxias, que reúnem cerca de 10% das galáxias existentes e podem ser compreendidos como sendo as metrópoles cósmicas: assim como as metrópoles da Terra, são poucas, mas têm dimensões absurdas e são muito populosas.

Com base em informações sobre aglomerados de galáxias e outros astros muito antigos e distantes, os físicos teóricos Élcio Abdalla, Luis Raul Abramo e Sandro Micheletti, todos do Instituto de Física (IF) da USP, em parceria com o físico chinês Bin Wang, decidiram recentemente verificar se os dados dessas observações astronômicas confirmavam uma ideia apresentada anos antes por outro brasileiro, o físico Orfeu Bertolami, pesquisador do Instituto Superior Técnico de Lisboa, em Portugal. Quase uma década atrás, pouco depois de identificadas as primeiras evidências de que a energia escura existe, Bertolami propôs que, se a matéria escura e a energia escura interagissem, como havia sugerido o astrônomo italiano Luca Amendola, essa influência mútua deixaria sinais em estruturas muito grandes do Cosmo, a exemplo dos aglomerados de galáxias.

Partículas – Para quem não está habituado, pode parecer estranho imaginar que algo que não se sabe muito bem o que é afete de alguma forma outra coisa sobre a qual não se tem o menor conhecimento. Mas não é o que os físicos pensam. Seja qual for a natureza da matéria escura e da energia escura, espera-se que o comportamento de ambas na escala do infinitamente pequeno (o mundo das partículas atômicas) influencie o mundo do infinitamente grande. Por isso, conhecer a interação entre elas – e delas com a matéria visível – pode ajudar a compreender como e em quanto tempo o Universo se formou e se tornou o que é, possibilitando inclusive a existência de vida. “Se acreditarmos minimamente no modelo padrão da física de partículas, que explica a composição da matéria bariônica [a matéria comum, composta de prótons, nêutrons e elétrons, e formadora das estrelas, dos planetas e de tudo o mais que se conhece] e, como as partículas que a formam interagem entre si, não há motivo para duvidar que também possa existir interação entre a matéria escura e a energia escura”, afirma Abdalla.

Inicialmente Abdalla, Micheletti e Bin Wang, da Universidade Fudan, em Xangai, elaboraram um modelo rudimentar no qual descreveram a matéria escura e a energia escura com propriedades semelhantes às de líquidos e gases como a água e o ar – os físicos os chamam de fluidos, materias formados por camadas que se movimentam continuamente umas em relação às outras e, nesse deslocamento, podem se deformar reciprocamente. Na construção do modelo, uma série de equações matemáticas que tentam descrever o que aconteceu no passado e predizer o que ocorrerá no futuro levou em consideração informações obtidas durante anos por meio da observação de quasares, núcleos de galáxias muito brilhantes e antigos; supernovas, estrelas que explodiram e passaram a emitir uma luz milhões de vezes mais intensa que o normal; e da radiação cósmica de fundo em micro- -ondas, uma forma de energia eletromagnética produzida nos instantes iniciais após o Big Bang, a explosão inicial que gerou o Universo e o próprio tempo 13,7 bilhões de anos atrás.

Mesmo sem determinar o modo como a matéria escura e a energia escura interagiam – apenas supuseram que a interação ocorreria –, eles verificaram que, ao resolver essas equações mais as formuladas por Einstein na teoria da relatividade geral, obtinham um Universo semelhante ao que se conhece hoje: em expansão acelerada, com tudo o que existe nele se afastando cada vez mais rapidamente, segundo artigo apresentado em junho de 2009 na Physical Review D. Na interação, de acordo com esse modelo, a energia escura liberaria radiação e se converteria em matéria escura – uma consequência da famosa equação E=m.c2, segundo a qual, em determinadas condições, matéria pode se transformar em energia e energia em matéria.

Interação – Mas não era o suficiente. Com o físico Luis Raul Abramo, Abdalla aprimorou o modelo e, dessa vez, procurou uma assinatura da interação entre energia escura e matéria escura nas informações obtidas de 33 aglomerados de galáxias, 25 deles estudados anos atrás em detalhes por Laerte Sodré e Eduardo Cypriano, pesquisadores do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP. Em colaboração com Sodré, Abdalla, Abramo e Wang usaram três métodos conhecidos para estimar a quantidade de matéria (massa) dos aglomerados de galáxias. Se não houvesse interação, os resultados teriam de ser iguais ou, no mínimo, muito próximos. Já se a matéria escura se transformasse em energia escura, ou vice-versa, um desses valores, sensível a essa conversão, diferiria dos demais. No trabalho publicado em 2009 na Physics Letters B, eles afirmam que há uma possibilidade real, ainda que pequena, de que a interação de fato ocorra, com a energia escura se convertendo em matéria escura.

Mesmo o próprio grupo vê esse resultado com cautela, porque há uma série de incertezas na medição das massas dos aglomerados de galáxias. Algumas dessas técnicas dependem de que esses agrupamentos estejam em equilíbrio e não interajam com outras galáxias ou aglomerados. Mas isso é pouco provável porque a massa dos aglomerados é muito elevada e atrai tudo o que está por perto. “A incerteza na medição da massa de cada aglomerado é grande”, comenta Abramo. “Esse modelo terá de ser testado por alguns anos. Analisamos 33 aglomerados de galáxias, mas, para ter segurança, teríamos de avaliar de centenas a milhares deles”, afirma Sodré, que atualmente negocia com astrônomos e físicos espanhóis a participação brasileira no projeto Javalambre Physics of the Accelerating Universe Survey (J-PAS), destinado a entender melhor as propriedades da energia escura e a evolução das galáxias medindo com mais precisão a que distância se encontram.

Infográfico: A expansão do Cosmo

Estruturas do Universo – Abdalla, que teve a iniciativa de verificar os sinais dessa interação alguns anos atrás, sabe que muitos discordam de sua proposta. “Uma vez um referee [revisor científico] mal-educado disse que esse trabalho era especulação ao quadrado”, lembra o físico da USP. “Mas, se estivermos certos e essa interação for bem definida, poderá ser verificada em experimentos de física de partículas.”

Há cerca de cinco anos os físicos teóricos brasileiros Gabriela Camargo Campos e Rogério Rosenfeld, ambos do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp), criaram um modelo de interação entre matéria escura e energia escura que também as tratava como fluidos. No trabalho – feito em parceria com Luca Amendola, do Observatório Astronômico de Roma, o autor da ideia de interação entre esses elementos –, a dupla brasileira levou em consideração tanto informações sobre supernovas como sobre a radiação cósmica de fundo. Feitas as contas, concluíram que essa conversão não deve ocorrer, de acordo com artigo de 2007 na Physical Review D.

Com as informações disponíveis hoje sobre as estruturas do Universo, porém, fica difícil saber quem tem razão. “Há poucos dados e eles são fragmentados”, comenta Cypriano, astrônomo do IAG-USP. “Necessitamos de dados homogêneos e em grande quantidade.” Por esse motivo, mais de uma dúzia de projetos internacionais de grande porte já passaram pelo menos do estágio de planejamento.

O estudo da estrutura e da evolução das galáxias leva boa parte dos físicos e astrônomos a darem por certo que a matéria escura de fato existe – e que sua composição será descoberta em breve, talvez em até uma década. “Se for composta por partículas frias de massa muito elevada, vários modelos de física de partículas preveem que poderá ser produzida no Large Hadron Collider [LHC]”, afirma Abramo. Instalado na fronteira da Suíça com a França, o LHC começou a funcionar em fase experimental no final de 2009 e deve lançar, umas contra as outras, partículas atômicas viajando a velocidades próximas à da luz, desfazendo-as nos seus menores componentes. Já a resposta para a natureza da energia escura deve levar bem mais tempo, pois depende de levantamentos extensos das galáxias e estrelas encontradas em diferentes regiões do céu.

Um desses levantamentos, previsto para começar no segundo semestre de 2011, é o Dark Energy Surgey (DES), do qual devem participar cerca de 30 brasileiros (entre pesquisadores, estudantes e técnicos) de instituições no Rio de Janeiro, São Paulo e Rio Grande do Sul. Esse projeto pretende usar uma supercâmera digital – com capacidade de produzir imagens de altíssima resolução (500 megapixels), 40 vezes maior do que as das câmeras comuns – acoplada ao telescópio Blanco do Observatório Interamericano de Cerro Tololo, no Chile, para coletar ao longo de quatro anos informações de aproximadamente 400 milhões de galáxias. “Queremos estudar a distribuição de massa dos aglomerados de galáxias a diferentes distâncias”, conta Luiz Alberto Nicolaci da Costa, astrônomo do Observatório Nacional (ON), no Rio de Janeiro, coor-denador da participação brasileira no DES. Dependendo da massa total do Universo e da existência ou não de interação entre matéria escura e energia escura, pode haver um número maior ou menor desses aglomerados a determinadas distâncias.

Força repulsiva – Mesmo antes de o experimento começar, Nicolaci sabe que ele não trará uma resposta definitiva sobre a natureza da energia escura, a força repulsiva, uma espécie de antigravidade, que faz os objetos se afastarem a velocidades cada vez maiores no Universo. “No início desta década um grupo internacional de pesquisadores se reuniu e tentou delinear os experimentos mais adequados a serem realizados em quatro fases para tentar descobrir o que é a energia escura”, explica o astrônomo do Observatório Nacional. Os mais simples já terminaram e o DES é da fase três. “Com o DES, esperamos restringir os candidatos a energia escura”, conta Nicolaci.

Uma das mais cotadas é a chamada energia do vácuo, que, ao contrário do que se pensa, não é vazio. O vácuo é rico em partículas muito fugazes que surgem e desaparecem antes que possam ser detectadas e poderiam fornecer a força antigravitacional que faz os corpos celestes se afastarem. Para a física de partículas, a força do vácuo é o correspondente à constante cosmológica, termo que Albert Einstein acrescentou às equações da relatividade geral para que sua teoria representasse um Universo estático. “Mas essa seria uma solução feia, porque a densidade de energia do vácuo teria de ser 10120 [o número um seguido de 120 zeros] maior do que a observada pelos astrônomos”, comenta Élcio Abdalla.

Pode ser também que a energia escura seja uma espécie de fluido desconhecido, chamado pelos astrônomos de quintessência, em alusão aos quatro elementos que se acreditava que compunham o Universo (ar, água, fogo e terra). Ou ainda, que ela não exista, e os efeitos atribuídos a ela sejam consequên-cia de o Universo não ser homogêneo como se imagina e a Via Láctea se encontrar em uma região contendo muito pouca matéria. O astrofísico Filipe Abdalla, pesquisador da University College London e filho de Élcio Abdalla, trabalha em dois experimentos mais avançados, que integram a quarta fase da busca da energia escura e só devem começar a funcionar em alguns anos: o do satélite Euclid e o do te-les–cópio de mi-cro-ondas Square Kilometre Array, a ser construído na África do Sul ou na Austrália. “Se for alguma incorreção nas equações de Einstein, que explicam bem a atração gravitacional nas galáxias”, comentou Filipe durante uma visita a São Paulo em agosto de 2009, “esses experimentos nos permitirão saber”.

>Pesquisa revela crescimento de 50% das classes de renda mais elevada no Brasil

11/02/2010 – 10h02
Pesquisa revela crescimento de 50% das classes de renda mais elevada no Brasil

Por Isabela Vieira, da Agência Brasil

Rio de Janeiro – Nos últimos seis anos, as classes de renda mais elevada cresceram cerca de 50% no país. Segundo pesquisa divulgada nesta quarta-feira (10) pela Fundação Getulio Vargas (FGV), as classes A e B, com renda mensal acima de R$ 4.807, representam hoje 15,63% da população contra 10,66% em 2003.

Coordenado pelo economista Marcelo Neri, o estudo revela, por outro lado, diminuição das classes mais baixas. A classe E, com renda de até R$ 804, passou de 29,95% para 17,42% e a classe D, com renda até R$ 1.115, diminuiu de 16,41% para 13,37%.

A classe C, que concentra grande parte da população (53%) e tem renda entre R$ 1.115 e R$ 4.807, também voltou a crescer, passando de 42,99%, em 2003, para 53,38%, em dezembro passado.

A pesquisa A Pequena Grande Década: Crise Cenários e a Nova Classe Média incorpora as mudanças provocadas pela crise em financeira em 2009, que fez oscilar as composições de todas as classes. No entanto, mostra que, ao longo do ano, elas se recuperaram e retomaram o patamar de 2008.

Neri explicou que as perdas ocorreram em janeiro do ano passado, quando a crise chegou ao país. Nos três meses anteriores, no auge do problema, as classes mais prejudicadas foram a A e a B. No período 2008-2009, 14,38% desses indivíduos caíram da classe. “O Brasil teve resiliência [capacidade de recuperação] à crise. Não de avançar, mas de não retroceder”, disse Neri.

De acordo com o estudo, as periferias, alimentadas pelo mercado interno e menos dependentes das oscilações do mercado financeiro, ajudaram a tirar o Brasil da crise.

>Memória da imprensa



Por Alex Sander Alcântara

Agência FAPESP – Há décadas a historiografia contemporânea tem incorporado a imprensa como fonte fundamental para se compreender momentos históricos e a atuação de protagonistas. Mas a fragilidade e as limitações do papel impresso, especialmente seu acesso, representam dificuldades aos pesquisadores.

Com o objetivo de ampliar o acesso a jornais e revistas do século 19 e início do século 20 no Brasil, o Arquivo Público do Estado de São Paulo acaba de lançar o site Memória da Imprensa, uma seleção de periódicos digitalizados do acervo da instituição.

O serviço reúne por enquanto 14 títulos de jornais e revistas de época, que permitem acompanhar a trajetória da imprensa paulista e brasileira a partir da seleção de exemplares de 1854 a 1981.

De acordo com o Carlos de Almeida Prado Bacellar, coordenador do Arquivo Público, além de ampliar o acesso, outro objetivo importante do novo site é preservar os raros originais das publicações.

“Jornais e revistas antigos têm um suporte muito delicado. O papel amarela com facilidade e a consulta é muito complicada. O acesso direto aos originais ajuda a destruir ainda mais. Quanto mais conseguirmos passar para o formato digital, mais colaboraremos na preservação dos originais”, disse à Agência FAPESP .

Segundo ele, a partir de agora pesquisadores não terão acesso aos originais dos jornais e revistas que já estão em formato digital. “Só poderão consultar em casos muito específicos e que serão analisados. Essa é uma iniciativa importante para preservar o acervo”, disse.

Parte do acervo já digitalizado ajuda a reconstituir momentos importantes dos mais de 200 anos de história da imprensa no Brasil. Pesquisadores já podem acessar desde publicações que marcaram época, como a revista A Cigarra (1914-1975) e o jornal Última Hora (1951-1971), até títulos menos conhecidos, como o jornal sindical Notícias Gráficas (1945-1964) e o anarquista La Barricata (1912-1913).

Segundo Bacellar, a ideia é colocar à disposição do público um conjunto variado de fontes. “Buscamos alguns exemplos de periódicos famosos, mas que ilustrem tendências ou conceitos diferentes. Temos desde a grande imprensa até pequenos jornais e revistas com perfis mais variados, como sindicais, políticos ou culturais”, disse.

A digitalização dos jornais e revistas é uma iniciativa interna do Arquivo do Estado. “Algumas digitalizações em curso estão envolvidas diretamente em projetos de pesquisa relacionados, como, por exemplo, à imigração em São Paulo, e à resistência política durante a Ditadura Militar”, explicou.


O Memória da Imprensa já soma mais de 1.670 páginas de jornais, mas, de acordo com seu coordenador, as páginas disponíveis ainda representam uma amostra ínfima, se comparadas com a totalidade disponível no Arquivo do Estado.

“Esperamos que esse material sirva para o uso do professor em sala de aula e dos próprios alunos. Caso o professor queira dar uma aula sobre o período da República Velha no Brasil pode, por exemplo, consultar alguns jornais anarquistas do período”, disse.

Um dos destaques é o periódico alternativo Movimento, que liderou a campanha pela anistia durante a ditadura militar. Lançado em 1975 e fechado em 1981, teve 3.093 artigos e 3.162 ilustrações censurados pela ditadura.

Segundo Bacellar, a alimentação do site será feita ao longo do ano de forma aleatória, com relação aos títulos. “Mas, às vezes, coincide com solicitação externa. Uma entidade pede, por exemplo a digitalização de um determinado jornal. De qualquer forma, pretendemos chegar, até o fim do ano, com mais de 2 milhões de páginas digitalizadas”, disse.

O Arquivo Público do Estado de São Paulo é um dos maiores arquivos públicos brasileiros. Sua hemeroteca tem cerca de 1,2 mil títulos e 32 mil exemplares de revistas e mais de 200 títulos de jornais.

Já estão disponíveis no site as revistas O Malho (1902-1954), Panóplia (1901-1935), Anauê! (1935), Vida Moderna (1907-1925) e Escrita (1975-1988), além dos jornais Lanterna (1901-1935), Acção (1936), Germinal (1902-1913) e Correio Paulistano (1854-1963), este último o primeiro diário da província de São Paulo.

Para acessar a página e mais informações:

>Império por escrito



Por Alex Sander Alcântara

Agência FAPESP – Qual é o papel da comunicação escrita nos séculos seguintes à invenção da imprensa (ocorrida por volta de 1440)? Essa é a principal questão abordada por O Império por escrito – Formas de transmissão da cultura letrada no mundo ibérico (séculos 16 a 19), organizado pelas historiadoras Leila Mezan Algranti e Ana Paula Megiani, que acaba de ser lançado.

Das leituras da vida na corte às gazetas manuscritas revolucionárias do século 18, do cotidiano na colônia desde o Descobrimento aos registros da Biblioteca Real, o livro mostra como a comunicação escrita foi fundamental para a administração e a manutenção do Império português.

De acordo com Leila, professora de história na Universidade Estadual de Campinas (Unicamp), a obra destaca o papel da escrita envolvendo os dois lados do Atlântico, não só nas relações entre Brasil e Portugal, mas também entre Portugal, Espanha e África.

“Nesse circuito de circulação de ideias, a escrita manuscrita teve um papel importante, apesar da presença crescente da imprensa, no período analisado, e dos impressos na cultura letrada. Isso se faz presente nas narrativas de viagens, cartas, nas correspondências régias, receitas e na poesia”, disse à Agência FAPESP.

Os ensaios são resultado do colóquio internacional “Escrita, Memória e Vida Material: formas de transmissão da cultura letrada no Império português”, realizado na Universidade de São Paulo (USP) em outubro de 2006, no âmbito do Projeto Temático “Dimensões do Império Português”, apoiado pela FAPESP e coordenado por Laura de Mello e Souza, do Departamento de História da Universidade de São Paulo (USP).

O Império por escrito, que também teve o apoio da FAPESP na modalidade Auxílio à Pesquisa – Publicações, é o segundo livro publicado dentro do Temático. O primeiro foi O governo dos povos, que aborda as relações de poder no mundo ibérico, e serão publicados outros dois.

Dividido em quatro partes, o foco do novo livro é a escrita e não a leitura propriamente dita. “Apesar de alguns ensaios abordarem a discussão dos livros e bibliotecas, principalmente na segunda parte da obra, a atenção maior é com a produção e circulação de escritos, manuscritos e impressos”, disse Leila.

A primeira parte do livro, Cultura letrada: vida de corte, instituições e poder, tem como unidade a dinâmica das relações de poder em ambientes letrados.

Segundo Leila, há muitos momentos na administração oficial em que a comunicação se torna extremamente importante. “Em termos de Portugal e Brasil, é evidente que sem a comunicação por escrito seria praticamente inviável administrar o Império. O livro mostra, em vários contextos, a importância da escrita na manutenção do Império”, disse.

“Além dos impressos, registros manuscritos de todo tipo (cartas, regulamentos, crônicas, gramáticas) desempenharam um papel fundamental na transmissão de ideias, valores, normas, costumes e saberes entre as metrópoles e suas colônias, bem como entre as diferentes possessões ultramarinas que integravam tais impérios coloniais”, destacam as organizadoras.

De acordo com a historiadora, ao se expandir, o Império português sentiu a necessidade de trocar informações com mais rapidez. “As ordens que até então eram feitas oralmente começaram a ser feitas por escrito. As normas regulavam não só a administração, mas também outras esferas, no âmbito político e jurídico, envolvendo queixas ou denúncias, por exemplo”, explicou.

É a partir desse momento, segundo Leila, que surgiram os arquivos, como o da Torre do Tombo, em Portugal. “Todo navio que chegava ao Brasil de Portugal, e vice-versa, trazia documentos. A manutenção do Império se deu a partir da troca de informações, grande parte com deliberações para os encarregados locais”, disse.

A segunda parte do livro, Suportes, circulação e colecionismo, reúne trabalhos que abordam conjuntos de escritos, impressos ou manuscritos, além de gravuras e mapas que circularam e foram objetos de coleções.

Um dos artigos, de Maria Aparecida de Menezes Borrego, pesquisadora na USP e no Temático, analisa a presença de livros impressos e manuscritos entre os bens materiais arrolados nos inventários de mercadores paulistas, no decorrer do século 18.

A partir da análise de inventários contidos no Arquivo do Estado de São Paulo, a autora conclui que a propriedade dos livros disseminou-se no período.

“Ainda que os proprietários de livros representassem uma parcela insignificante da população livre, é pouco satisfatório acreditar que somente os comerciantes focalizados nesta pesquisa fossem proprietários de livros, o que nos leva a especular sobre a presença de mais impressos nas casas de outros habitantes da capital”, destacou.

Cultura e salvação

A terceira parte, Traduções culturais e transmissões de saberes, aborda a questão de contatos e intercâmbios entre povos de culturas distintas, a partir da análise de manuscritos e impressos que circularam entre América e África.

No artigo Bebida dos deuses, por exemplo, Leila analisa técnicas de fabricação e utilidades do chocolate no império português. “A bebida feita com cacau pelos índios da América Espanhola não era mais o mesmo chocolate tomado na corte europeia nos séculos 17 e 18, por exemplo. É um saber que foi transformado. E tudo isso passa pela escrita”, disse a historiadora, que pesquisa sobre a história da alimentação.

A quarta e última parte do livro, Usos da escrita e formas de contestação política, enfoca o estudo da circulação de informações e ideias consideradas sediciosas, heréticas ou libertinas no império luso-brasileiro, a partir de vários tipos de manuscritos e impressos.

No capítulo Do destino das almas dos índios, por exemplo, Evergton Sales Souza, professor adjunto na Universidade Federal da Bahia, comenta as mudanças no paradigma da teologia portuguesa entre o século 17 e o 18, a partir de visões antagônicas sobre a salvação dos gentios expostas nas textos do jesuíta Simão de Vasconcellos e do padre Antônio Pereira de Figueiredo.

“Os textos da quarta parte abordam, ainda, a questão da produção, divulgação e recepção de notícias, bem como de proposições políticas contra a administração portuguesa na América”, contam as organizadoras.

Título: O Império por escrito: Formas de transmissão da cultura letrada no mundo ibérico – séculos 16 a 19
Páginas: 608
Preço: R$ 78
Mais informações:

>Signs of Damage to Public Trust in Climate Findings (N. Y. Times/Dot Earth blog)

February 5, 2010, 4:27 pm

CBS News has run a report summarizing fallout from the illegal distribution of climate scientists’ email messages and files and problems with the 2007 report from the Intergovernmental Panel on Climate Change. The conclusion is that missteps and mistakes are creating broader credibility problems for climate science.

Senator James M. Inhofe was quick to add the report to the YouTube channel of the minority on the Environment and Public Works committee:

Ralph J. Cicerone, the president of the National Academy of Sciences, has an editorial in this week’s edition of the journal Science (subscription only) noting the same issue. Over all, he wrote, “My reading of the vast scientific literature on climate change is that our understanding is undiminished by this incident; but it has raised concern about the standards of science and has damaged public trust in what scientists do.”

Dr. Cicerone, an atmospheric scientist, added that polls and input he has received from various sources indicate that “public opinion has moved toward the view that scientists often try to suppress alternative hypotheses and ideas and that scientists will withhold data and try to manipulate some aspects of peer review to prevent dissent. This view reflects the fragile nature of trust between science and society, demonstrating that the perceived misbehavior of even a few scientists can diminish the credibility of science as a whole.” (A BBC report on its latest survey on climate views supports Dr. Cicerone’s impression.)

What should scientists do? Dr. Cicerone acknowledged both the importance of improving transparency and the challenges in doing so:

“It is essential that the scientific community work urgently to make standards for analyzing, reporting, providing access to, and stewardship of research data operational, while also establishing when requests for data amount to harassment or are otherwise unreasonable. A major challenge is that acceptable and optimal standards will vary among scientific disciplines because of proprietary, privacy, national security and cost limitations. Failure to make research data and related information accessible not only impedes science, it also breeds conflicts.”

As recently as last week, senior members of the intergovernmental climate panel had told me that some colleagues did not see the need for changes in practices and were convinced that the recent flareup over errors in the 2007 report was a fleeting inconvenience. I wonder if they still feel that way.

UPDATE: Here’s some additional reading on the I.P.C.C’s travails and possible next steps for the climate panel:

IPCC Flooded by Criticism, by Quirin Schiermeier in Nature News.

Anatomy of I.P.C.C.’s Mistake on Himalayan Glaciers and Year 2035, by Bidisha Banerjee and George Collins in the Yale Forum on Climate Change and the Media.

* * *

After Emergence of Climate Files, an Uncertain Forecast

December 1, 2009, 10:56 am

Roger A. Pielke Jr. is a political scientist at the University of Colorado who has long focused on climate and disasters and the interface of climate science and policy. He has been among those seeking some clarity on temperature data compiled by the Climatic Research Unit of the University of East Anglia, which is now at the center of a storm over thousands of e-mail messages and documents either liberated or stolen from its servers (depending on who is describing the episode). [UPDATED 11:45 a.m. with a couple more useful voices “below the fold.”]

On Monday, I asked him, in essence, if the shape of the 20th-century temperature curve were to shift much as a result of some of the issues that have come up in the disclosed e-mail messages and files, would that erode confidence in the keystone climate question (the high confidence expressed by the Intergovernmental Panel on Climate Change in 2007 that most warming since 1950 is driven by human activities)?

This is Dr. Pielke’s answer. (I added boldface to the take-home points.):

Here is my take, in a logical ordering, from the perspective of an informed observer:

The circumstances:

1. There are many adjustments made to the raw data to account for biases and other factors.
2. Some part of the overall warming trend is as a result of these adjustments.
3. There are legitimately different ways to do the adjusting. Consider that in the e-mails, [Phil] Jones writes that he thinks [James] Hansen’s approach to urban effects is no good. There are also debates over how to handle ocean temperatures from buckets versus intake valves on ships and so on. And some of the procedures for adjusting are currently contested in the scientific literature.
4. Presumably once the data is readily available how these legitimate scientific choices are made about the adjusting would be open to scrutiny and debate.
5. People will then be much more able to cherry pick adjustment procedures to maximize or minimize the historical trends, but also to clearly see how others make decisions about adjustments.
6. Mostly this matters for pre-1979, as the R.S.S. and U.A.H. satellite records provide some degree of independent checking.

Now the implications:

A. If it turns out that the choices made by CRU, GISS, NOAA fall on the “maximize historical trends” end of the scale, that will not help their perceived credibility for obvious reasons. On the other hand, if their choices lead to the middle of the range or even low end, then this will enhance their credibility.
B. The surface temps matter because they are a key basis for estimates of climate sensitivity in the models used to make projections. So people will fight over small differences, even if everyone accepts a significant warming trend. (This is a key point for understanding why people will fight over small differences.)
C. When there are legitimate debates over procedures in science (i.e., competing certainties from different scientists), then this will help the rest of us to understand that there are irreducible uncertainties across climate science.
D. In the end, I would hypothesize that the result of the freeing of data and code will necessarily lead to a more robust understanding of scientific uncertainties, which may have the perverse effect of making the future less clear, i.e., because it will result in larger error bars around observed temperature trends which will carry through into the projections.
E. This would have the greatest implications for those who have staked a position on knowing the climate future with certainty — so on both sides, those arguing doom and those arguing, “Don’t worry be happy.”

So, in the end, Dr. Pielke appears to say, closer scrutiny of the surface-temperature data could undermine definitive statements of all kinds — that human-driven warming is an unfolding catastrophe or something concocted. More uncertainty wouldn’t produce a climate comfort zone, given that poorly understood phenomena can sometimes cause big problems. But it would surely make humanity’s energy and climate choices that much tougher.

[UPDATE, 11:45 a.m.] Andrew Freedman at the Capital Weather Gang blog has interviewed Gerald North, the climate scientist who headed the National Academies panel that examined the tree-ring data and “hockey stick” graphs. Some excerpts:

On whether the emails and files undermine Dr. North’s confidence in human-driven climate change:

This hypothesis (Anthropogenic GW) fits in the climate science paradigm that 1) Data can be collected and assembled in ways that are sensible. 2) These data can be used to test and or recalibrate climate simulation models. 3) These same models can be used to predict future and past climates. It is understood that this is a complicated goal to reach with any precision. The models are not yet perfect, but there is no reason to think the approach is wrong.

On Stephen McIntyre of

I do think he has had an overall positive effect. He has made us re-examine the basis for our assertions. In my opinion this sorts itself out in the due course of the scientific process, but perhaps he has made a community of science not used to scrutiny take a second look from time to time. But I am not sure he has ever uncovered anything that has turned out to be significant.

Also, please note below that Michael Schlesinger at the University of Illinois sent in a response to sharp criticisms of his Dot Earth contribution from Roger Pielke, Sr., at the University of Colorado, Boulder. (Apologies for Colorado State affiliation earlier; he’s moved.)

>Internet e depressão

Divulgação Científica
Internet e depressão


Agência FAPESP – Pessoas que passam muito tempo navegando pela internet têm maior risco de apresentar sintomas depressivos, de acordo com uma pesquisa feita no Reino Unido por cientistas da Universidade de Leeds.

O estudo, que será publicado na edição de 10 de fevereiro da revista Psychopathology, procurou analisar o fenômeno de usuários que têm desenvolvido o uso compulsivo da internet, substituindo a interação social no mundo real pelo virtual, em redes sociais, chats ou em outros serviços eletrônicos.

Segundo os pesquisadores, os resultados do estudo apontam que esse tipo de dependência pode ter impactos sérios na saúde mental. “A internet ocupa hoje parte importante na vida moderna, mas seus benefícios são acompanhados por um lado negro”, disse Catriona Morrison, um dos autores do estudo.

“Enquanto a maioria usa a rede mundial para se informar, pagar contas, fazer compras e trocar e-mails, há uma pequena parcela dos usuários que acha difícil controlar o tempo gasto on-line. Isso ao ponto em que tal hábito passa a interferir em suas atividades diárias”, apontou a cientista.

Os “viciados em internet” passam, proporcionalmente em relação à maioria dos usuários, mais tempo em comunidades virtuais e em sites pornográficos e de jogos. Os pesquisadores verificaram que esse grupo tem incidência maior de depressão de moderada a grave.

“Nossa pesquisa indica que o uso excessivo da internet está associado com depressão, mas o que não sabemos é o que vem primeiro. As pessoas depressivas são atraídas pela internet ou é o uso da rede que causa depressão?”, questionou Catriona.

A pesquisa examinou 1.319 pessoas com idades entre 16 e 61 anos. Do total, 1,2% foi considerado como “viciado em internet”. Apesar de ser uma pequena parte do total, segundo os pesquisadores o número de internautas nessa categoria tem crescido.

Incidentes como a onda de suicídios entre adolescentes ocorrida na cidade de Bridgend, no País de Gales, em 2008, têm levado a questionamentos a respeito da influência das redes sociais em indivíduos vulneráveis à depressão.

No estudo, os pesquisadores observaram que o grupo dos “viciados em internet” era formado principalmente por usuários mais jovens, com média de idade de 21 anos.

“Está claro que para uma pequena parte dos usuários o uso excessivo da internet é um sinal de perigo para tendências depressivas. Precisamos considerar as diversas implicações dessa relação e estabelecer claramente os efeitos desse uso na saúde mental”, disse a pesquisadora.

O artigo The relationship between excessive internet use and depression: a questionnaire-based study of 1,319 young people and adults, de Catriona Morrison e outros, pode ser lido por assinantes da Psychopathology (2010;43:121-126 – DOI:10.1159/000277001) em