Arquivo mensal: janeiro 2011

>Água do rio São Francisco será a mais cara do país (FSP)

>
SOFIA FERNANDES
DE BRASÍLIA
22/11/2010  08h14

Da torneira do nordestino atendido pela transposição do rio São Francisco vai pingar a água mais cara do país.

O Conselho Gestor do Projeto de Integração do São Francisco avalia cobrar dos Estados atendidos pela obra R$ 0,13 por mil litros de água.

O dinheiro será recolhido pela Agnes, estatal em gestação na Casa Civil. A empresa vai gerenciar as operações da transposição do rio e a distribuição da água para as previstas 12 milhões de pessoas beneficiadas.

O preço médio cobrado em outras bacias hidrográficas pelo uso da água é de R$ 0,01 a R$ 0,02 por mil litros. A Sabesp, por exemplo, paga R$ 0,015 ao comitê gestor da bacia do rio Piracicaba, fonte de metade da água consumida na cidade de São Paulo.

COMPLEXIDADE

O valor mais elevado, afirma o governo, se deve à complexidade do projeto de transposição e ainda porque a Agnes será a responsável pela captação e pelo bombeamento da água.

No entanto, os quatro Estados envolvidos (Pernambuco, Paraíba, Rio Grande do Norte e Ceará) terão de investir em obras internas para dar capilaridade à rede de água e ainda precisarão pagar uma taxa fixa à Agnes, provavelmente mensal.

Em construção, os canais para a transposição do rio São Francisco têm 25 metros de largura, 5 metros de profundidade e 622 quilômetros de extensão, somando os dois eixos.

O porte das obras e os obstáculos naturais, como a Serra da Borborema, que vai de Alagoas ao Rio Grande do Norte, explicaria o alto custo de transportar a água no semiárido nordestino. Para isso, serão necessários potentes mecanismos de bombeamento.

Editoria de Arte/Folhapress

O governo não diz se haverá mecanismo para amortizar o custo do consumidor final nos quatros Estados.

Em teoria, as obras do São Francisco têm um foco prioritário, que são os pequenos agricultores das terras secas do sertão e do agreste nordestinos.

O Ministério da Integração, responsável pelo empreendimento, afirma que o assunto está em fase de análise e de debates com os Estados receptores.

Para que o projeto seja viável, é possível que os Estados promovam subsídios cruzados, aumentando as tarifas de grandes centros urbanos que não receberão as águas da transposição do Velho Chico, como Recife.

A Agnes terá de apresentar um relatório de custos, explicando os motivos para o elevado preço da água.

Essa tarifa deverá cobrir os gastos do sistema de transposição em funcionamento, nem mais nem menos.

“Temos de avaliar a planilha de custos da agência para saber se o preço está certo. A tarifa deve cobrir os custos de manutenção e operação do sistema”, diz Patrick Thomás, gerente de cobrança pelo uso da água da Ana (Agência Nacional de Águas).

Um dos maiores críticos do projeto, o pesquisador João Suassuna, da Fundação Joaquim Nabuco, acha difícil que o agricultor das áreas atendidas pela transposição consiga pagar essa conta.

“Os colonos do Vale do São Francisco hoje já estão com dificuldades para pagar por uma água a R$ 0,02. Imagine com esse preço”, afirma o Suassuna.

Mas o pesquisador vê outro problema. O porte das obras e o volume de água deixam patente que o propósito da transposição não é matar a sede e a fome de quem vive na seca.

A mira, afirma, está no agronegócio para exportação, a criação de camarão e o abastecimento de indústrias.

Estados fazem lobby por sede da nova estatal

DE BRASÍLIA

A transposição do rio São Francisco, uma das vedetes do PAC (Programa de Aceleração do Crescimento), suscitou a criação de uma nova estatal, a Agnes (Águas Integradas do Nordeste Setentrional).

O governo estuda a criação da empresa há um ano, o que deve ocorrer por meio de projeto de lei ou medida provisória. Ainda não há data para o envio do texto ao Congresso.

No entanto, a corrida para sediar a estatal já esquenta entre os Estados.

A Paraíba faz lobby forte para que Campina Grande receba a empresa, que terá sua receita abastecida com o dinheiro pago pelo uso da água, com as tarifas fixas pagas pelos Estados e provavelmente com recursos da União.

O secretário de Meio Ambiente, Recursos Hídricos e Ciência e Tecnologia do Estado, Francisco Sarmento, diz que a cidade fica exatamente no centro das obras, simbolismo que a credencia a ser sede.

Outro motivo: a Paraíba não é sede de nenhuma grande empresa do governo. Pernambuco já tem a Sudene, em Recife, e o Ceará já conta com o Banco do Nordeste, com sede em Fortaleza.

“É um argumento suplementar”, diz Sarmento.

Anúncios

>Estudo europeu aperfeiçoará modelos para predizer o clima (FSP, JC)

>
JC e-mail 4187, de 27 de Janeiro de 2011

“É importante registrar que o estudo não abala a constatação de que a Groenlândia está, de qualquer forma, perdendo mais gelo do que acumula”

Marcelo Leite é jornalista. Artigo publicado na “Folha de SP”:

O artigo sobre geleiras da Groenlândia na atual edição da “Nature” constitui um bom exemplo das complexidades envolvidas nas previsões climáticas.

O trabalho científico é um exemplo, também, da dificuldade de apresentar ao público resultados incrementais da pesquisa.

À primeira vista, o estudo tira força da ideia de que o aquecimento global esteja acelerando a contribuição do gelo groenlandês para a elevação do nível dos mares.

O raciocínio era plausível. Com a atmosfera mais quente, ocorre mais derretimento na superfície. O líquido adicional fica disponível para penetrar por fendas até a base da geleira e lubrificar seu escorregamento.

Agora se sabe, graças ao grupo britânico e belga, que o fenômeno comporta um efeito de limiar.

Até um certo ponto de aquecimento, o derretimento superficial provoca aceleração. A partir desse ponto, a água passa a escoar melhor, sem lubrificar a base da geleira. Menos blocos gigantes de desprendem.

Isso não significa que seja nulo o efeito sobre a geleira groenlandesa. Algum aumento de temperatura de fato acelera sua ruptura.

O que foi posto em dúvida pelo estudo -até que novas pesquisas o confirmem ou refutem- é a hipótese de que o aumento contínuo de temperatura vá produzir uma perda linear de massa de gelo, sempre crescente.

Com esse conhecimento, os modelos de computador para predizer o comportamento do clima serão aperfeiçoados. Mas é importante registrar que o estudo não abala a constatação de que a Groenlândia está, de qualquer forma, perdendo mais gelo do que acumula.
(Folha de SP, 27/1)

>A essência da realidade física (JC, FSP)

>
JC e-mail 4184, de 24 de Janeiro de 2011

“Não enxergamos o que ocorre na essência da realidade física. Temos apenas nossos experimentos, e eles nos dão uma imagem incompleta do que ocorre”

Marcelo Gleiser é professor de física teórica no Dartmouth College, em Hanover (EUA). Artigo publicado na “Folha de SP”:

Vivemos num mundo quântico. Talvez não seja óbvio, mas sob nossa experiência do real -contínua e ordenada- existe uma outra realidade, que obedece a regras bem diferentes. A questão é, então, como conectar as duas, isto é, como começar falando de coisas que sequer são “coisas” -no sentido de que não têm extensão espacial, como uma cadeira ou um carro- e chegar em cadeiras e carros.

Costumo usar a imagem da “praia vista à distância” para ilustrar a transição da realidade quântica até nosso dia a dia: de longe, a praia parece contínua. Mas de perto, vemos sua descontinuidade, a granularidade da areia. A imagem funciona até pegarmos um grão de areia. Não vemos sua essência quântica, porque cada grão é composto de trilhões de bilhões de átomos. Com esses números, um grão é um objeto “comum”, ou “clássico”.

Portanto, não enxergamos o que ocorre na essência da realidade física. Temos apenas nossos experimentos, e eles nos dão uma imagem incompleta do que ocorre.

A mecânica quântica (MQ) revolve em torno do Princípio de Incerteza (PI). Na prática, o PI impõe uma limitação fundamental no quanto podemos saber sobre as partículas que compõem o mundo. Isso não significa que a MQ é imprecisa; pelo contrário, é a teoria mais precisa que há, explicando resultados de experimentos ao nível atômico e sendo responsável pela tecnologia digital que define a sociedade moderna.

O problema com a MQ não é com o que sabemos sobre ela, mas com o que não sabemos. E, como muitos fenômenos quânticos desafiam nossa intuição, há uma certa tensão entre os físicos a respeito da sua interpretação. A MQ estabelece uma relação entre o observador e o que é observado que não existe no dia a dia. Uma mesa é uma mesa, independentemente de olharmos para ela. No mundo quântico, não podemos afirmar que um elétron existe até que um detector interaja com ele e determine sua energia ou posição.

Como definimos a realidade pelo que existe, a MQ parece determinar que o artefato que detecta é responsável por definir a realidade. E como ele é construído por nós, é a mente humana que determina a realidade.

Vemos aqui duas consequências disso. Primeiro, que a mente passa a ocupar uma posição central na concepção do real. Segundo, como o que medimos vem em termos de informação adquirida, informação passa a ser o arcabouço do que chamamos de realidade. Vários cientistas, sérios e menos sérios, veem aqui uma espécie de teleologia: se existimos num cosmo que foi capaz de gerar a mente humana, talvez o cosmo tenha por objetivo criar essas mentes: em outras palavras, o cosmo vira uma espécie de deus!

Temos que tomar muito cuidado com esse tipo de consideração. Primeiro, porque em praticamente toda a sua existência (13,7 bilhões de anos), não havia qualquer mente no cosmo. E, mesmo sem elas, as coisas progrediram perfeitamente. Segundo, porque a vida, especialmente a inteligente, é rara. Terceiro, porque a informação decorre do uso da razão para decodificar as propriedades da matéria.

Atribuir a ela uma existência anterior à matéria, a meu ver, não faz sentido. Não há dúvida de que a MQ tem os seus mistérios. Mas é bom lembrar que ela é uma construção da mente humana.
(Folha de SP, 23/1)

>Falhas de comunicação em série agravaram desastre histórico na Região Serrana do Rio (O Globo)

>
14.jan.2011

RIO – Falhas no sistema de comunicação entre a Defesa Civil do Estado e os 92 municípios possibilitaram que a causa do maior desastre na história do Estado fosse ignorado. Na terça-feira, horas antes das chuvas que deixaram mais de 500 mortos na Região Serrana, o órgão recebeu um boletim alertando para a existência de “condições meteorológicas favoráveis à ocorrência de chuvas moderadas ou fortes”.

O aviso foi emitido pelo Instituto Nacional de Meteorologia (Inmet) e repassado pela Secretaria Nacional de Defesa Civil (Sedec). Todas as comunicações foram feitas por e-mail. Ainda assim, pelo menos uma prefeitura local, a de Teresópolis, alegou não ter recebido o informe.

A formação da grande tempestade foi detectada inclusive pelo novo radar da Prefeitura do Rio, o doppler, instalado em dezembro no Sumaré. O aparelho é capaz de identificar a origem de grandes precipitações num raio de 250 quilômetros – mais do que o suficiente para abranger a Região Serrana. No entanto, as imagens que poderiam ter sido coletadas por esta estrutura não foram repassadas.

Estado: faltam meteorologistas
De acordo com o prefeito Eduardo Paes, mesmo que o radar tenha flagrado a formação de temporais próximo à Região Serrana, não seria possível emitir um alerta aos municípios.

– O radar fornece fotografias, mas o sistema de análise é mais complexo: ele envolve dados como imagens de satélite, dados geológicos e redes pluviométricas – pondera. – Nossos meteorologistas nunca poderiam fazer previsões de outras cidades sem ter essas informações.

Segundo Paes, sequer as imagens captadas pelo radar poderiam ter sido repassadas a outras instâncias:

– Não sei se o Estado e essas cidades têm meteorologistas.

A Secretaria de Saúde e Defesa Civil do Estado informou que a oferta da prefeitura é “genérica”, e ainda não houve tempo para decidir como serão feitas as análises das imagens do radar. Segundo a assessoria do órgão, os técnicos só seriam responsáveis pelo repasse dos boletins meteorológicos, por e-mail, aos municípios. Cada prefeitura seria encarregada de efetuar um plano de contingência. No entanto, a secretaria não divulgou se há meteorologistas em seu quadro de funcionários.

O problema também é destacado pelo meteorologista Manoel Gan, do Instituto Nacional de Pesquisas Espaciais (Inpe).

– Ainda faltam radares e outros sistemas de detecção de tempestades, mas o maior déficit é de profissionais – critica. – Esses equipamentos requerem mão de obra especializada. E, daqui a cinco anos, a grande maioria dos meteorologistas que ainda estão na ativa já terá se aposentado.

Sem as imagens do radar do Sumaré, a única previsão que subiu a serra veio do Inmet. O aviso especial 12/2011, emitido pelo órgão, foi enviado na terça-feira à tarde para a Sedec. Esta repassou os dados às 13h56m para a Secretaria estadual de Defesa Civil, ao comando-geral do Corpo de Bombeiros do Rio e à Secretaria Especial de Ordem Pública. O boletim alertava para o “índice significativo” de chuva acumulado em todo o estado, destacando a Região Serrana.

O prefeito de Teresópolis, Jorge Mário (PT), afirmou que o risco não chegou a ser comunicado para seu município:

– Não houve aviso de que poderia ocorrer aquela tragédia. A informação que eu tenho é que ela (a tempestade) não poderia ter sido prevista.

Na vizinha Nova Friburgo, o alerta chegou, de acordo com o secretário estadual de Ambiente Carlos Minc. A população, no entanto, não foi comunicada.

– Nosso equipamento que monitora a altura do rio em Friburgo funcionou, mas tem de haver um treinamento prévio para que as pessoas em suas casas sejam avisadas – ressalta.

Professor de meteorologia da Universidade Federal de Santa Maria, Ernani Nascimento elogia o investimento da prefeitura do Rio no radar de Sumaré, mas acredita que o sistema pode ser ampliado.

– Um sistema possível, já testado em Campinas, usa sirenes – lembra. – Alguns moradores têm pluviômetros em casa e são treinados para, com o equipamento, perceber a gravidade das precipitações. Se uma chuva for grave, eles acionam o alarme, permitindo que as pessoas evacuem suas casas.

A tragédia levou o governo do Estado e a prefeitura do Rio a recorrer à médium Adelaide Scritori da Fundação Cacique Cobra Coral (FCCC) que diz controlar o tempo. O convênio foi renovado na quarta-feira às pressas.

>Recorde de 2010 confirma aquecimento global e é alerta para desastres climáticos (O Globo, JC)

>
Extremo e perigoso

JC e-mail 4183, de 21 de Janeiro de 2011

Marcado por desgraças climáticas de todos os tipos, 2010 foi considerado na quinta-feira pela Organização Mundial de Meteorologia (OMM) uma prova de que o aquecimento global está em curso. Classificado como o ano mais quente desde 1850, quando os registros começaram, 2010 está estatisticamente empatado com 1998 e 2005.

Porém, ele confirma a tendência de aquecimento observada ao longo do século XX e neste começo do XXI. E a década de 2001 a 2010 foi a mais quente da História. Se as emissões de CO2 e outros gases-estufa não forem reduzidas, alertou a OMM, a Terra se tornará cada vez mais quente e instável.

Segundo a OMM, uma agência que integra as Nações Unidas, nenhum fator natural explica a elevação da temperatura do planeta. Os dois principais agentes naturais que influenciam a temperatura planetária foram descartados.

A ação de vulcões, na verdade, contribuiu para reduzir a temperatura e, possivelmente, aliviar o ritmo do aquecimento. Na última década a atividade solar também foi menor do que a normal, o que também teria contribuído para diminuir a temperatura.

As emissões por ação humana dos gases do efeito estufa, todavia, continuam a aumentar.

– 2010 confirma a tendência de aquecimento a longo prazo – declarou na quinta-feira, em Genebra, o secretário-geral da OMM, Michel Jarraud.

O ano de 2010 foi excepcionalmente quente em quase toda a África, no sul e no oeste da Ásia, na Groenlândia e no Ártico canadense. A camada de gelo sobre o Ártico no verão nunca esteve tão fina, tornando uma das regiões mais frias da Terra (a mais fria é a Antártica) o canário da mina do clima. A OMM alertou que embora a mais forte La Niña desde 1974 esteja em curso contribuindo para reduzir a temperatura global, a tendência é que 2011 também seja um ano marcadamente quente.

Todo tipo de evento climático extremo foi registrado em 2010. Os especialistas da OMM explicam que aquecimento global não significa necessariamente só mais calor.

Aquecimento global implica em extremos climáticos. E 2010 teve uma abundância de ondas de calor e frio extremos, enchentes, supertufões, desmoronamentos e secas.

Isso acontece porque a elevação da temperatura global lança mais energia no sistema climático da Terra. Essa energia desequilibra a delicada e complexa dinâmica climática. É por isso que nevascas e ondas de frio rigoroso podem ser ligadas ao aquecimento global.

– A tendência de aquecimento, infelizmente, prosseguirá e se fortalecerá ano após ano. Porém, a amplitude do problema será determinada pela quantidade de gases do efeito estufa que o homem liberará – alertou Michel Jarraud.

Um estudo independente apresentado esta semana e baseado em dados da própria ONU estimou que até 2020 a Terra estará 2,4 graus Celsius mais quente, com severas consequências na produção global de alimentos. Uma elevação de 2 graus na temperatura média é suficiente para intensificar e multiplicar chuvas, secas e ondas de frio e calor.

– Temos que agir depressa para limitar as emissões – frisou Bob Ward, do Centro de Pesquisa de Mudanças Climáticas Grantham, da Universidade de Londres.
(O Globo, 21/1)

>Pânico pode alimentar ceticismo da população a respeito do aquecimento global (FSP, JC)

>
Clima de alarmismo, artigo de Marcelo Leite

JC e-mail 4180, de 18 de Janeiro de 2011

Marcelo Leite é jornalista. Artigo publicado na “Folha de SP Online”:

A nova hecatombe na região serrana do Rio sugere que as previsões sobre desastres inomináveis no futuro, em decorrência da mudança do clima, podem não ser tão exagerados quanto afirmam os céticos do aquecimento global. Tudo depende de conectar causalmente esse tipo de desastre, e sua frequência, com as predições dos modelos climáticos de que uma atmosfera mais quente trará mais eventos meteorológicos extremos como esses – o que não é coisa trivial de fazer.

Pressupor tal conexão, no entanto, já foi muito criticado por pesquisadores do clima. Não haveria uma tragédia planetária por acontecer de imediato, como fantasiou o filme “O Dia Depois de Amanhã”. Agora, uma pesquisa de psicologia aplicada vem corroborar essa percepção, dizendo que mensagens alarmistas sobre a mudança climática podem ser contraproducentes e alimentar o ceticismo na população a respeito do aquecimento global.

O estudo foi publicado por Matthew Feinberg e Robb Willer em dezembro no periódico Psychological Science. Usaram dois experimentos para “provar” que mensagens alarmistas de fato aumentam o ceticismo por contradizerem a tendência das pessoas a acreditar que o mundo é justo.

Se a mudança do clima vai matar, empobrecer ou prejudicar também pessoas inocentes, como as crianças afogadas em lama no Rio, uma reação natural das pessoas seria duvidar de que o aquecimento global seja uma realidade. Li rapidamente o artigo e os dois experimentos não me convenceram muito, mas fica o convite para o leitor formar sua própria opinião.

A tese, porém, é boa. Com efeito, é de pasmar a capacidade de muita gente de não enxergar – ou não querer ver – como são abundantes os indicativos da ciência de que há, sim, uma mudança climática em curso.

Uma explicação, obviamente, é político-ideológica. Muitos optam por não acreditar em aquecimento global porque acham que é uma conspiração dos socialistas para extinguir a liberdade empresarial (por meio de regulamentação) ou a liberdade individual de dirigir jipões movidos a diesel, mas também há socialistas e comunistas – como no Brasil – convencidos de que a conspiração é de imperialistas americanos para impedir o desenvolvimento de países emergentes como o Brasil.

Quem reage irracional e psicologicamente ao alarmismo ou ideológica e canhestramente a fantasmas conspiradores vai ter razão de sobra para se tornar ainda mais cético diante do sítio de internet Global Warning (um trocadilho intraduzível entre Global Warming – aquecimento global – e Global Warning – alerta global).

Trata-se de um esforço para vincular aquecimento global com ameaças à segurança doméstica dos EUA – de bases militares ameaçadas de inundação à dependência de combustíveis fósseis importados. Ou seja, para sensibilizar o americano médio, conservador e republicano e diminuir seu ceticismo diante do fenômeno.

Se Feinberg e Willer estiverem certos, o tiro vai sair pela culatra. E os socialistas céticos tupiniquins vão babar um pouco mais de raiva dos imperialistas.
(Folha de SP Online, 17/1)

>Governo do Ceará quer tirar licenciamentos da Superintendência de Ambiente (FSP)

>
17/01/2011 – 21h04

PAOLA VASCONCELOS
COLABORAÇÃO PARA A FOLHA, DE FORTALEZA

O governador do Ceará, Cid Gomes (PSB), enviou à Assembleia do Estado um projeto que permite a dispensa de licenciamento ambiental de obras públicas ou privadas de “interesse social”.

Sob a justificativa de possibilitar “o desenvolvimento de obras e atividades de relevância com celeridade”, o texto, que deve ser votado nos próximos dias, vem causando polêmica.

A própria titular da Superintendência Estadual do Meio Ambiente, Lúcia Teixeira, já se manifestou publicamente contra o projeto. O órgão hoje tem competência exclusiva para licenciamentos ambientais no Ceará.

Com o projeto, a responsabilidade nos casos de “interesse social” é transferida para o Conpam (Conselho de Políticas e Gestão do Meio Ambiente), órgão ligado diretamente ao governador.

Apesar de ter assinado a proposta, Cid Gomes recuou e disse não estar convencido sobre o assunto. No entanto, ainda não retirou o texto da tramitação. Existe a possibilidade de a Procuradoria-Geral do Estado fazer alterações.

O deputado estadual Heitor Férrer (PDT) considerou um “estupro à natureza”.

“A obra é de caráter social e o meio ambiente que se lixe? O licenciamento ambiental tem que existir, não existe dispensa para isso. É inconstitucional”, disse Férrer.

O PV do Ceará também divulgou nota posicionando-se “radicalmente contra”.

O deputado Wellington Landim (PSB), à frente do bloco governista na Assembleia, disse que muitos projetos estão emperrados por “excesso de burocracia” na concessão das licenças.

“Não se trata de querer aprovar tudo, mas apenas de receber sim ou não como resposta. Há problemas de ordem exagerada na burocracia”, disse.
A superintendência informou, por meio de nota, que a demora no processo de licenciamento é necessária para que os critérios técnicos sejam verificados com eficácia.

Disse também que os procedimentos adotados são respaldados pela legislação

>Ministros anunciam novo sistema de monitoramento e alerta de desastres (G1)

>
JC e-mail 4179, de 17 de Janeiro de 2011

Presidente Dilma se reuniu com quatro ministros nesta segunda (17/1), entre eles Aloizio Mercandante, da C&T, e definiu estruturação do Sistema Nacional de Alerta e Prevenção de Desastres Naturais

Depois de uma reunião com a presidente da República, Dilma Rousseff, ministros do governo anunciaram nesta segunda-feira (17) uma reformulação no sistema de monitoramento, alerta e resposta a desastres, como o registrado na região serrana do Rio de Janeiro nos últimos dias.

Participaram do encontro os ministros da Defesa, Nelson Jobim; da Integração Nacional, Fernando Bezerra; da Justiça, José Eduardo Cardozo; e da Ciência e Tecnologia, Aloizio Mercadante.

O Ministério da Ciência e Tecnologia começará a trabalhar na estruturação do Sistema Nacional de Alerta e Prevenção de Desastres Naturais.

Segundo o ministro Mercadante, 58% dos desastres naturais no Brasil são inundações e 11% deslizamentos.

“O peso dos desastres naturais decorrentes de fortes chuvas está se acentuando, e nós precisamos recorrer aos sistemas de prevenção”, disse Mercadante.

Ele afirmou ainda que a capacidade de previsão do sistema de monitoramento do clima será ampliada por meio de um supercomputador do Instituto Nacional de Pesquisas Espaciais (Inpe). “Queremos já implantar parte desse sistema nas áreas mais críticas para o próximo verão”, disse o ministro.

Ainda de acordo com o Ministério da Ciência e Tecnologia, o Brasil tem cerca de 500 áreas de risco de deslizamento de encostas, onde vivem cerca de 5 milhões de pessoas. O número de locais com alerta para inundações chega a 300 em todo o país.

A intenção é gerar informações geoespecializadas dessas áreas de risco para aprimorar a capacidade de previsão. Segundo Mercadante, é preciso adquirir novos equipamentos e conectá-los em um sistema único. A previsão do governo para concluir o trabalho de montagem do sistema é de quatro anos.

A estrutura, segundo o ministro, deve contar com uma sede central de coordenação e escritórios espalhados pelas cinco regiões do país. O sistema será comandado pelo pesquisador Carlos Afonso Nobre, coordenador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Inpe entre 1991 e 2003.
(Informações do G1, 17/1)

>Chuvas: quem é que vai pagar por isso?

>
Por Vilmar Sidnei Demamam Berna*

Não existe explicação que justifique a repetição freqüente e previsível,
verão após verão, de tantas perdas de vida e de patrimônio em função das
chuvas. Temos gente com conhecimento, tecnologias, recursos, então, por que
este problema repete-se em todos os verãos, como já previu Tom Jobim, na
música “Águas de março”?

Dizem que não é de bom tom, e que chega a ser cruel, no momento da tragédia,
quando se contam os mortos e os prejuízos, cobrar culpas e
responsabilidades. Entretanto, em respeito aos que morreram agora, e em
respeito aos que poderão morrer no próximo verão, temos de remexer nesta
ferida. Lembro a pergunta do Lobão, na canção Revanche: “Quem vai pagar por
isso? Até quando as autoridades permitirão, por ação ou omissão, a ocupação
das áreas de encosta frágeis pela sua própria natureza, que irão deslizar de
qualquer jeito, com ou sem floresta por cima? Até quando as margens de rios
e as áreas de várzeas continuarão sendo ocupadas, mesmo com todos sabendo
que mais dia ou menos dia encherão? Antigamente, só os mais pobres eram
afetados, mas agora, os ricos e a classe média também contam seus mortos.
Antes, o problema atingia mais duramente as áreas de risco, mas agora até as
áreas consideradas seguras estão sendo atingidas. E alguns ainda resistem em
admitir o impacto das mudanças climáticas.

Precisamos aprender com os erros, pois se não fizermos isso, é certo que
voltaremos a repeti-los. E entre os mais graves erros está o de só liberarem
recursos para as Prefeituras diante da emergência ou calamidade! Por que não
se liberam recursos antes, já sabendo que cada real gasto em prevenção
economiza mais de 10 na reparação do desastre?

As leis de uso do solo, os planos diretores, as políticas de licenciamento,
estão completamente ultrapassadas ou mesmo mal feitas e precisam ser
revistos para impedir a ocupação das áreas frágeis ainda desocupadas. Onde
estão nossos vereadores tão céleres para conceder títulos e aprovar emendas
ao orçamento para seus bairros?

Quanto às áreas já ocupadas, onde estão nossos prefeitos e governadores para
promoverem sua desocupação, com ordenamento e inteligência, pois se
continuar a não ser feito por bem, a natureza fará por mal, verão após
verão! As populações de baixa renda que foram deixadas à própria sorte para
ocupar áreas de risco e não edificantes precisam ser realocadas. Onde estão
nossas autoridades do Governo Federal e seus programas habitacionais para
essas populações de baixa renda? Poderiam estar incentivando mutirões
remunerados e o cooperativismo para que os próprios futuros moradores
construíssem suas próprias casas, após receberem a devida capacitação, e
apoio técnico necessário, em áreas seguras, gerando trabalho e renda,
aproveitando para incorporar tecnologias limpas e ecoeficientes.

As unidades de conservação, parques e bosques urbanos não seriam só para a
proteção da natureza, mas para proteger as pessoas da natureza. Na medida em
que as áreas de risco fossem desocupadas, em seu lugar seriam criadas essas
unidades de conservação no local, e cada metro quadrado daria ao município o
direito de receber repasses federais e estaduais que os compensassem pela
perda de receita com os impostos, que deixarão de arrecadar sobre estas
áreas protegidas, como já é feito pelo ICMS Ecológico.

Os profissionais de imprensa, por sua vez, vivem em momentos assim situações
equivalente a dos correspondentes de guerra. Como se proteger e ao mesmo
tempo estar na linha de frente dos acontecimentos? Como lidar com fontes
emocionadas, desinformadas, mal informadas? Como improvisar quando o
equipamento falha? Como encontrar as alternativas para transmitir os dados a
serem divulgados? Como lidar com o emocional e o profissional diante dos
dramas vividos pelas pessoas e pelo próprio profissional? Ate aonde ir neste
envolvimento sem prejudicar a tarefa de colher e transmitir a informação?
Como lidar com pessoas fragilizadas sem ser invasivo ou insensível diante da
dor alheia? Como fazer o seu trabalho sem atrapalhar ao trabalho dos outros,
do pessoal do resgate? Como colocar o foco na noticia, ir à raiz do
problema, fazer as perguntas certas às pessoas certas? Não dá para se
imaginar que toda essa capacitação e prontidão para as respostas acontecerão
por um acaso. Onde estão os cursos de capacitação para profissionais de
comunicação que precisam cobrir desastres e calamidades?

A solidariedade humana surpreende em momentos de desastre, como surpreende
também o despreparo. Muito trabalho voluntário é perdido por que falta
coordenação, sistemas de aviso e comunicação, planejamento das ações, onde o
trabalho voluntário ajuda e onde atrapalha, onde é mais necessário, etc. E
nada disso é possível fazer durante o desastre. Então, precisa ser feito
antes. Entretanto, onde estão os cursos de capacitação para voluntários?
Como eles podem ser avisados e serem mantidos informados? A quem recorrer
para serem encaminhadas para a linha de frente de trabalho voluntários? Quem
os ampara psicologicamente diante dos dramas e perdas que irão assistir e
com os quais terão de conviver? Sim, por que ao lado das perdas materiais,
as pessoas sofrem com terríveis perdas espirituais, que podem ser tão ou
mais devastadoras que as perdas materiais. As pessoas podem desmoronar por
dentro, perder o estimulo e a motivação para lutar e se reerguer. Como lidar
com crianças resgatadas sozinhas, que se tornaram órfãos da noite para o
dia, perderam a casa e todas as referências? O lar não está na casa perdida,
nos bens materiais, nos documentos históricos. O lar é espiritual. Está onde
estiver a família ou o que sobrou dela. Pode estar num estádio que reúne os
sobreviventes.

* Vilmar Sidnei Demamam Berna é escritor e jornalista. Em Janeiro de 1996,
fundou a REBIA – Rede Brasileira de Informação Ambiental (www.rebia.org.br)
e edita desde então a Revista do Meio Ambiente (que substituiu o Jornal do
Meio Ambiente) e o Portal do Meio Ambiente (www.portaldomeioambiente.org.br).
Em 1999, recebeu no Japão o Prêmio Global 500 da ONU Para o Meio
Ambiente e, em 2003, o Prêmio Verde das Américas –
http://www.escritorvilmarberna.com.br

>Blame game begins in wake of deadly Brazil floods (CSM)

>
As the Brazil floods continue, some blame municipalities for allowing residents to build in insecure areas, while others blame the federal government for misallocating funds

By Andrew Downie, Correspondent / January 14, 2011
São Paulo, Brazil

A resident looks at a destroyed house after a landslide in Teresopolis, Brazil, on Jan. 13. Rescue workers struggled on Thursday to reach areas cut off by floods and landslides that have killed at least 511 people in one of Brazil’s worst natural disasters in decades. Bruno Domingos/Reuters.

With rain still falling in parts of Rio de Janeiro and the death toll from massive flooding topping 500, authorities and experts turned their attention to apportioning blame and deciding how to avoid repeats of what has become a familiar tale in Brazil.

Local officials estimate the death toll at 511 so far, concentrated in four hillside cities north of Rio de Janeiro, after torrential rains caused rivers to jump their banks and hillsides to give way. While national and state authorities are pinning the blame on municipalities for allowing citizens to build in insecure areas, the federal government itself is coming under scrutiny for recently slashing its budget for handling natural disasters.

“There is carelessness at every level of government,” says Gil Castello Branco, the secretary general of Contas Abertas, a non-profit that monitors government spending. “We turn that old saying on its head: We aren’t safe, we are sorry.”

Federal government cut budget for disaster prevention

Even though annual flooding is common around Rio, a proposed national center for disaster management never got off the drawing board and the federal budget for disaster prevention and preparation measures is down 18 percent in 2010, says Mr. Castello Branco.

Last year the government spent just 40 percent of the cash allocated for disaster prevention and preparation, and more than half of that went to Bahia, a state that had no major disasters, because the minister in charge of disbursing funds was running for governor there, Castello Branco says in a telephone interview.

“We are not saying it was illegal, but Bahia should never have got half the money,” he says. “It was in [the minister’s] political interest but not in society’s.”

Triumphant rescues

The flooding that began in the past week is being described as the worst natural disaster in Brazilian history. Footage of the worst-hit areas looked like it came from a Hollywood disaster movie.

One cameraman caught the remarkable scene of a housewife being hauled to safety through roaring river with just a rope around her waist. Another caught the joy of rescue workers discovering a baby alive after being buried in mud for 12 hours.

However, those were rare positive moments.

“It was like something out of Noah’s Ark,” says Marcos Maia, a 31-year old who lost five members of his family and spent most of Wednesday helping out at the local morgue. “An avalanche of rocks just washed their house away.”

When asked to describe the road where he lived, Mr. Maia told the Monitor by telephone: “Now there is no road. It’s just a muddy river.”

It was a rude awakening for Brazilian President Dilma Rousseff, who took office less than two weeks ago and stopped off in one of the cities, Nova Friburgo, for 45 minutes on Thursday. Ms. Rousseff promised the state of Rio de Janeiro more than $1 billion in aid by 2014 but played down the fact this was the third major disaster caused by flooding in the last three years in Brazil, and the second consecutive tragedy in Rio.

Rousseff blames municipalities

Rousseff and Rio state governor Sergio Cabral put the problem down to decades of lax oversight by municipal authorities who allowed people – mostly poor people – to build houses on hillsides vulnerable to landslides. Mr. Cabral said 18,000 people lived in high risk areas in the city of Rio de Janeiro alone and said the city’s mayor would need to make the unpopular decision of removing them.

“Building houses on high risk areas is the rule in Brazil, not the exception,” Rousseff added. “You have to get people away and into secure areas. The two fundamental issues are housing and land use” and that involves putting proper drainage and sewage systems in place.

Experts, however, cautioned that such plans can take decades to carry out and said that politicians have failed to take such sensible steps to avoid repeated tragedy. Floods killed 133 people in the southern state of Santa Catarina in 2008 and left more than 200,000 people homeless in the impoverished Northeast in 2009. In 2010, floods killed 53 people when an entire neighborhood built on a hillside garbage dump gave way in Rio.

>Abertura de represa em Franco da Rocha (SP) foi irresponsável, diz PDT (UOL)

>
13/01/2011 – 15h53
Do UOL Notícias
Em São Paulo

O PDT (Partido Democrático Trabalhista) anunciou nesta quinta-feira (13) que vai entrar com uma ação contra a Sabesp (Companhia de Saneamento Básico de São Paulo) exigindo apuração rigorosa e cobrando indenização para os moradores de Franco da Rocha prejudicados pelas enchentes desta semana.

Para o partido, a abertura das comportas da represa Paiva Castro, que deixou parte da cidade submersa, foi irresponsável. Escolas, casas, comércios, o fórum, o prédio da prefeitura e a delegacia estão cercados por água devido à decisão da direção da Sabesp.
Enchente paralisa serviços em Franco da Rocha (SP)

“A falta de planejamento da Sabesp, somada a uma comunicação precária, prejudicou milhares de pessoas. Não podemos nos calar diante de tal irresponsabilidade e insensibilidade social por parte da empresa”, afirma o presidente do PDT estadual, Paulo Pereira da Silva, o Paulinho. “Pela incompetência demonstrada, e pela falta de respeito para com a população, o presidente da Sabesp, Gesner Oliveira, deve ser demitido.”

A direção do PDT também estuda entrar com ação em outras localidades prejudicadas pela mesma situação.

A Sabesp informou que reduziu a vazão da represa. Apesar da medida, a cidade permanecia com a região central alagada. A vazão, que chegou a ser de 80 m3 por segundo, passou a ser de 10 m3/s às 9h de hoje. Apesar disso, a prefeitura afirmou por meio de sua assessoria que a medida ainda não traz tranquilidade a administração municipal devido à chuva que continua atingir a região nesta quinta-feira.

Nesta quarta, o prefeito Márcio Cecchettinio (PSDB) afirmou esperar da Sabesp, responsável pela barragem, uma resposta definitiva sobre a abertura das comportas. Ele ressaltou que gostaria que elas fossem fechadas para que a cidade pare de ser alagada.

A Prefeitura informou que as fortes chuvas elevaram o nível da água represada no Sistema Cantareira e um alerta foi lançado para a necessidade de dar vazão à água e manter o nível máximo de segurança.

O sistema é composto por seis barragens, que passam pelos municípios de Bragança Paulista, Piracaia, Vargem, Joanópolis, Nazaré Paulista, Franco Da Rocha, Mairiporã, Caieiras. A represa de Paiva Castro fica na parte mais baixa, portanto recebe a água acumulada nos demais pontos do sistema.

>Sabesp diz que abertura de comportas de represa em Franco da Rocha era "inevitável" (R7)

>
Vice-prefeito atribuiu alagamento em Franco da Rocha à ação da empresa
João Varella, do R7

Entorno do Hospital Estadual do Juqueri, na região central de Franco da Rocha, ficou completamente alagado na manhã desta quarta-feira (12). Luis Cleber/AE.

A direção da Sabesp, empresa responsável pelo saneamento básico em São Paulo, negou que a abertura das comportas da represa Paiva Castro tenha alagado a cidade de Franco da Rocha, na região metropolitana. A empresa atribuiu a enchente – no início da noite desta quarta-feira (12) partes do município permaneciam alagadas – a chuvas fora do comum e informou que a abertura da represa era “inevitável”. Caso contrário, a barragem se romperia e o alagamento seria ainda pior, disseram dirigentes da empresa.

Em entrevista na tarde desta quarta-feira, o presidente da Sabesp, Gesner Oliveira, afirmou que “as represas estão atenuando a ação das chuvas” em Franco da Rocha. Segundo o vice-prefeito, José Antônio Pariz Júnior, o alagamento foi provocado pela abertura da represa Paiva Castro, que, na manhã de terça-feira (11), atingiu o nível máximo.

Paulo Masato, diretor da Sabesp na região metropolitana, confirma que a abertura das comportas é responsável pela permanência da enchente em Franco da Rocha, mas ressalva que a ação era inevitável, uma vez que a represa estava muito cheia por causa das chuvas que atingiram a região. Segundo a Sabesp, a água será escoada gradualmente. Partes da cidade permanecem alagadas, porque o rio Juqueri tem agora capacidade menor de escoamento do que a represa demanda.

– Já tínhamos avisado a Defesa Civil e tivemos que tomar essa decisão de abrir mais as comportas. A Defesa Civil estava junto com a Sabesp. O que tem que fazer é melhorar a canalização do rio Juqueri.

No período das cheias, as represas retêm boa parte da vazão de água que chega ao rio, liberando esse volume aos poucos, de forma controlada, evitando ou reduzindo o impacto das inundações. Segundo Oliveira, a Sabesp segue todas as regras da ANA (Agência Nacional das Águas).
Se não chover, a previsão é de, na noite desta quarta-feira, a abertura comportas seja reduzida, diminuindo assim a área alagada. Masato diz que, a partir de agora, o volume de água no rio Juqueri deve começar a baixar. Segundo ele, no final da manhã desta quarta-feira, a represa Paiva Castro liberava 37,92 m³/s de água. Entre a 0h e a 7h, a barragem chegou a liberar 80 m³/s.

– A represa passou de um nível de 45% de água para, em menos de 18 horas, ir para 97%. Estamos descarregando agora 50 m³/s. A partir das 19h, vamos liberar só 10 m³/s. Isso, se não voltar a chover.

A vazão média da represa é de 1 m³/s – cada metro cúbico de água equivale a 1.000 litros (volume de uma caixa d’água residencial).

O recorde histórico de vazão se deu em janeiro de 1987, quando a represa passou a expelir média de 85 m³/s de água por quatro dias.

Cloro

O presidente da empresa anunciou que haverá distribuição de cloro para a população de Franco da Rocha. O produto deverá ser usado na higienização de casas que foram alagadas. Tendas da Sabesp estão sendo montadas na cidade para orientar os moradores.

– Faremos tudo que é necessário para mitigar os efeitos da chuva e colaborar com qualquer ação que as prefeituras venham a precisar.

Segundo a Sabesp, a prefeitura decidirá quando inicia a distribuição, que começará na estação de trem de Franco da Rocha.

Trovão

Masato teve sua explicação sobre o funcionamento da represa de Paiva Castro interrompiada pelo som de um relâmpago que anunciava chuva que cairia na capital paulista neste quarta-feira (12). A cidade foi colocada em estado de atenção às 17h50.

>Clima ajudou queda de Império Romano (FSP, JC)

>
JC e-mail 4178, de 14 de Janeiro de 2011

Estudo mostra que, a partir do século 3, esfriou e parou de chover no Império, e a agricultura entrou em colapso

Não é a resposta que quem corrige vestibulares espera, mas um novo estudo diz que, entre os fatores que levaram o Império Romano ao fim, está uma mudança climática.

Pesquisadores da Universidade Harvard e de várias instituições europeias mostraram que, no auge da expansão de Roma, o clima era quente e chuvoso. Isso fortalece a agricultura e, assim, ajuda a alimentar grandes exércitos, além de permitir uma economia pujante, evitando insatisfações internas.

Isso aconteceu por volta do ano 100 d.C., quando o Mediterrâneo virou um “lago romano”, e o Império chegou a colocar os pés até no Norte da atual Inglaterra, onde concluiu, em 126 d.C., a muralha de Adriano, para manter os inimigos afastados.

Uma hora, porém, a prosperidade acabou. A partir do meio do século 3, mudanças climáticas tornaram o Império Romano mais seco e frio.

Segundo o grupo internacional de pesquisadores, que publicou suas conclusões na “Science”, isso certamente afetou a produção de alimentos e pode ter estimulado causas tradicionalmente relacionadas à decadência de Roma, como a inflação.

Certamente políticas monetárias erradas colaboraram para piorar o cenário de crise econômica, dizem, mas não é por isso que se deve, nas palavras de Jan Esper, da Universidade Johannes Gutenberg (Alemanha), “seguir a crença comum de que civilizações estão isoladas de variações ambientais”.

Para saber como era o clima há tanto tempo, os cientistas analisaram 9.000 pedaços grandes de madeira antiga. A maioria veio de restos de construções e artefatos de madeira na Europa.

Cada ano cria um anel único no tronco da árvore. Pacientemente, os cientistas foram retrocedendo, comparando pedaços de madeira cada vez mais antigos.

O desafio era ir criando uma sequência história de troncos: quando não havia mais como retroceder nos anéis de um, ter um novo pedaço de madeira, mais antigo, para seguir.

Conforme a grossura desses anéis, é possível saber quanto choveu e se fez frio ou calor naquele ano.

Os cientistas destacam que a existência de mudanças climáticas em um período pré-Revolução Industrial não significa que o aquecimento global contemporâneo seja natural. “O que está acontecendo agora não tem precedentes, é muito mais rápido”, dizem os cientistas.

A ideia de que fatores ambientais, mais do que políticos, levam sociedades ao colapso ganhou força em 2005, quando o biogeógrafo americano Jared Diamond lançou o livro “Colapso”. Nele, Diamond mostra como coisas como a exploração excessiva da madeira ou da pesca levaram sociedades à crise.

Não existia grande material científico, em 2005, sobre como o ambiente tinha atingido Roma. Os romanos, ao menos, não tiveram culpa pelas mudanças no clima que atingiram seu Império.
(Ricardo Mioto)
(Folha de SP, 14/1)

>"La Niña" explica inundações em vários países do mundo (FSP, JC)

>
JC e-mail 4178, de 14 de Janeiro de 2011

Fenômeno tem causado chuvas torrenciais desde o ano passado

Menos conhecido e menos frequente que o “El Niño”, o “La Niña” é um fenômeno natural que resfria as águas do oceano Pacífico e produz mudanças na dinâmica atmosférica. Assim como o primeiro, também pode impor um padrão distinto de comportamento climático em todo o mundo.

O último episódio do “La Niña” atinge agora seu pico e, segundo estudiosos, pode se estender até o meio deste ano. Seus primeiros efeitos, avaliados como sendo de intensidade moderada a forte, começaram a ser percebidos em meados de 2010.

O fenômeno pode ser o responsável por inundações na Austrália e nas Filipinas, onde dez pessoas morreram desde o início deste mês.

As chuvas torrenciais que mataram centenas de pessoas na Venezuela e na Colômbia, em novembro e dezembro, também são reflexos do “La Niña”.

A inundação no Paquistão, em agosto do ano passado, encaixa-se nos efeitos do fenômeno.

Naquele país, os reflexos do “La Niña” foram particularmente ruins. Na região, o “La Niña” foi imediatamente seguido pelo “El Niño”, que tende a deixar as temperaturas no oceano Índico mais altas que o normal.

O ar mais quente contém mais vapor de água e assim pode produzir mais chuva.

“Os padrões altos de precipitação do “La Niña”, aliados ao calor após o “El Niño”, ajudam a explicar por que as inundações no Paquistão foram tão devastadoras”, diz o especialista Kevin Trenberth, do Centro Americano para Pesquisa Atmosférica.

Mares mais quentes na Austrália também podem explicar a dimensão das atuais inundações.

Devido ao aquecimento das águas, as inundações, em associação ao “El Niño”, devem se agravar em breve. E esses não são os únicos danos que o fenômeno pode causar. Nos próximos meses, a corrente “La Niña” pode fazer mais vítimas em outras partes do mundo.

De acordo com um estudo da Cruz Vermelha e do Instituto Internacional de Pesquisas de Clima e Sociedade, chuvas fortes podem ser esperadas no norte da América do Sul e no sudoeste da África nos próximos dois meses.

Em fevereiro de 2000, as enchentes devastadoras em Moçambique, na África, ocorreram exatamente quando o “La Niña” estava próximo do seu pico.
(Folha de SP, 14/1)

>Clima não pode justificar falta de ação contra enchentes, diz especialista (JC)

>
JC e-mail 4177, de 13 de Janeiro de 2011

Para diretora de centro de pesquisas sobre desastres, governos não podem evitar chuvas, mas devem agir para prevenir consequências

O aumento da incidência de chuvas em consequência das mudanças climáticas globais não pode servir de desculpa para os governos não agirem para evitar enchentes, na avaliação de Debarati Guha-Sapir, diretora do Centro de Pesquisas sobre a Epidemiologia de Desastres (Cred), de Bruxelas, na Bélgica.

“Não é possível fazer nada agora para que não chova mais. Mas temos que buscar os fatores não ligados à chuva para entender e prevenir desastres como esses [das enchentes no Brasil e na Austrália]”, disse ela à BBC Brasil.

“Dizer que o problema é consequência das mudanças climáticas é fugir da responsabilidade, é desculpa dos governos para não fazer nada para resolver o problema”, critica Guha-Sapir, que é também professora de Saúde Pública da Universidade de Louvain.

O Cred vem coletando dados sobre desastres no mundo todo há mais de 30 anos. Guha-Sapir diz que os dados indicam um aumento considerável no número de enchentes na última década, tanto em termos de quantidade de eventos quanto em número de vítimas.

Segundo ela, as consequências das inundações são agravadas pela urbanização caótica, pelas altas concentrações demográficas e pela falta de atuação do poder público.

“Há muitas ações de prevenção, de baixo custo, que podem ser adotadas, sem a necessidade de grandes operações de remoção de moradores de áreas de risco”, diz, citando como exemplo proteções em margens de rios e a criação de áreas para alagamento (piscinões).

Para a especialista, questões como infraestrutura, ocupação urbana, desenvolvimento das instituições públicas e nível de pobreza e de educação ajudam a explicar a disparidade no número de vítimas entre as enchentes na Austrália e no Brasil.

“A Austrália é um país com uma infraestrutura melhor, com maior capacidade de alocar recursos e equipamentos para a prevenção e o resgate, com instituições e mecanismos mais democráticos, que conseguem atender a toda a sociedade, incluindo os mais pobres, que estão em áreas de mais risco”, afirma.

Para ela, outro fator que tem impacto sobre o número de mortes é o nível de educação da população. “Pessoas mais educadas estão mais conscientes dos riscos e têm mais possibilidades de adotar ações apropriadas”, diz.

Apesar disso, ela observa que a responsabilidade sobre as enchentes não deve recair sobre a população. “Isso é um dever das autoridades. Elas não podem fugir à responsabilidade”, afirma.
(BBC Brasil, 13/1)

>El Niño violento dá lugar a uma poderosa La Niña e intriga cientistas (JC)

>
JC e-mail 4175, de 11 de Janeiro de 2011.

Clima de extremos

Quando o assunto é clima, o planeta tem sido regido por extremos. Ou El Niño – ocasião em que o Pacífico Equatorial se aquece acima da média – ou La Niña, quando a mesma região fica anormalmente fria. Ambos os fenômenos causam distúrbios de alcance global.

A passagem de um extremo a outro sempre ocorreu. O que preocupa é a velocidade com que ela tem acontecido. Nos últimos 60 anos, houve apenas uma vez em que um desses fenômenos foi imediatamente sucedido pelo outro, em 1972-1973. Agora, a mudança drástica voltou a ocorrer no biênio 2010-2011, intrigando especialistas.

Até o meio do ano passado, o planeta aquecia sob a influência do El Niño. O fenômeno foi o responsável por 2010 ter chegado ao fim como o ano mais quente desde o início dos registros meteorológicos, em 1850. Logo depois, para a surpresa dos pesquisadores, o clima esfriou sob a La Niña, cuja duração deve se estender até abril.

– Não há uma explicação definitiva para uma flutuação tão grande das temperaturas no Pacífico – admite Paulo Cesar Rosman, professor de Engenharia Oceânica e Costeira da Coppe. – Alguns pesquisadores atribuem este fenômeno a problemas geológicos, de vulcanismo, mas nenhuma hipótese foi comprovada até agora.

Transição no ano passado foi anormal

A resposta deverá vir da Organização Meteorológica Mundial (OMM), num relatório com lançamento previsto para as próximas semanas. Pesquisadores da instituição passaram os últimos meses na América do Sul, analisando as mudanças climáticas e eventos extremos do continente. Também foi revisado o histórico de medições de temperatura do Pacífico da última década.

– A transição de um desses fenômenos para outro não é normal; não de uma forma tão rápida – ressalta Ghassem Asrar, codiretor do Departamento de Pesquisas da OMM e diretor do Programa Mundial de Pesquisa Climática. – Normalmente El Niño e La Niña estão separados por períodos significativos de situações neutras, ou seja, anos em que a temperatura da água no Pacífico Equatorial não está muito quente ou muito fria.

De acordo com o último relatório do Painel Intergovernamental de Mudanças Climáticas (IPCC), de 2007, não há indícios de que os meninos do clima terão frequência ou extensão aumentadas este século. Suas principais consequências, no entanto, podem dar as caras mais vezes.

– É possível que cresçam os eventos extremos, associados ou não ao El Niño e La Niña – alerta Asrar. – As ondas de calor e as chuvas rigorosas, por exemplo, vão se tornar cada vez mais frequentes.

Cheias devastadoras no verão da Austrália

A mais recente catástrofe do clima está associada à La Niña. Em nota divulgada na semana passada, o governo australiano culpou o fenômeno pelas enchentes do estado de Queensland, que já deixaram cinco mortos e 75 mil pessoas isoladas, devido ao alagamento de estradas, ferrovias e aeroportos. O ano passado, quando começou o atual La Niña, foi o terceiro entre aqueles com mais precipitações da história do país.

– Embora a intensidade de El Niño e La Niña seja o mais importante fator para avaliar riscos climáticos, os eventos extremos podem se desenvolver como consequência de outras interações entre os oceanos e atmosfera – ressalta Rupa Kumar Kolli, pesquisador da OMM e especialista nos dois fenômenos. – Nem tudo depende da temperatura do Pacífico Equatorial.

Por romperem os padrões normais de circulação atmosférica, El Niño e La Niña mudam modelos climáticos típicos de cada região. Sua força é ainda mais visível nas regiões tropicais. O Brasil, país de dimensões continentais, recebe sinais nítidos de ambos os fenômenos.

– O La Niña leva chuva ao Nordeste, o que é bom; em compensação, o Sul fica seco. No El Niño, ocorre o inverso – explica Rosman. – Até a ressaca do mar segue um desses modelos. Durante o El Niño, o Posto 5,
em Copacabana, desaparece. A Marina da Glória é tomada por ondas. Os fenômenos são lentos, progressivos e cumulativos. Acontece que as pessoas só notam os problemas quando eles atingem o seu ápice. Quando cai a mureta da Praia do Arpoador, por exemplo.

No Rio, a La Niña facilitará a entrada de frentes frias neste verão. Ainda assim, segundo o Instituto Nacional de Pesquisas Espaciais, a temperatura pode ficar acima da média histórica. O índice de chuvas está dentro do normal, mas haverá “grande variabilidade espacial e temporal em sua distribuição” – ou seja, as precipitações podem ocorrer mais concentradas (portanto mais rigorosas), e períodos de seca não são descartados.

Mil anos de efeito estufa

Uma pesquisa publicada ontem na revista “Nature Geoscience” revela que o acúmulo de gases-estufa na atmosfera causará efeitos ininterruptos no clima global por, no mínimo, mil anos. A longa duração do evento será suficiente para provocar o colapso da camada de gelo da
Antártica Ocidental até o ano 3000. Com isso, haverá um aumento do nível dos oceanos de, no mínimo, quatro metros.

Esta é a primeira simulação de modelo climático a fazer previsões de um período tão grande. Para trabalhar com um cenário de 1.000 anos a partir de agora, os pesquisadores basearam-se em hipóteses mais otimistas, ou seja, de emissões de gases-estufa zeradas a partir de determinado momento, que variava entre 2010 e 2100.

– Criamos uma série de cenários – explica Shawn Marshall, professor de geografia da Universidade de Calgary, do Canadá, que desenvolveu a pesquisa junto ao Centro Canadense de Modelagem e Análise Climática. – “E se interrompêssemos completamente o uso de combustíveis fósseis e não emitíssemos mais gás carbônico na atmosfera? Quanto tempo demoraríamos para reverter os padrões atuais de mudanças climáticas? Primeiro a situação ficaria pior?”.

Outra pesquisa publicada pela revista indica que as geleiras de montanha podem perder entre 15% e 27% de seu volume até o fim do século, o que afetaria fortemente a disponibilidade de água para os centros urbanos. Entre as regiões mais afetadas estão a Nova Zelândia, que pode perder 72% de suas geleiras, e os Alpes (75%). O degelo provocaria um aumento médio do nível do mar em 12 centímetros.
(Renato Grandelle)
(O Globo, 11/1)

>Ciência ao alcance dos sertanejos (JC)

>
JC e-mail 4175, de 11 de Janeiro de 2011.

Projeto da Ufersa levará conhecimento às escolas públicas do semiárido do Rio Grande do Norte

A Universidade Federal Rural do Semi-Árido (Ufersa) irá executar, a partir de fevereiro, o Projeto Ciência para Todos no Semi-Árido Potiguar. O projeto, que tem como coordenadora a professora Celicina Maria da Silveira Borges Azevedo, foi submetido aos ministérios da Ciência e Tecnologia e da Educação, com colaboração da Universidade do Estado do Rio Grande do Norte (Uern).

Já aprovado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), o projeto objetiva despertar nos adolescentes de Escolas públicas de ensino médio do semiárido nordestino a curiosidade científica.

“A nossa proposta é treiná-los no uso da metodologia científica e realizar uma grande feira de ciências com, no mínimo, 100 projetos feitos pelos estudantes através do uso do método científico nas mais diversas áreas do conhecimento”, explica a professora Celicina Borges.

Ainda segundo a professora, a proposta foi concebida depois da experiência em projetos para a melhoria do ensino de ciências nas Escolas públicas da 12ª Diretoria Regional de Educação, Cultura e Desportos (Dired). Para possibilitar o aumento da experiência, a intenção é dar continuidade e ampliar o trabalho para outras Direds, como a 13ª, 14ª e 15ª.

Todas as 77 escolas de ensino médio dessas Direds serão contempladas. No total, 49 cidades, o que corresponde a 29% dos municípios do estado, todos na região do semiárido. O projeto tem custeio global de mais de R$ 190 mil.

A professora explica que o cronograma será dividido em cinco etapas. A primeira com a capacitação de professores, seguida de oficinas de construção de projetos e visitas de acompanhamento aos trabalhos desenvolvidos. A segunda será a realização, das Escolas, de suas próprias feiras de ciências e a escolha dos melhores projetos. A terceira etapa será a realização da feira de ciências a nível regional com os projetos selecionados na segunda etapa.

Por fim, as duas últimas etapas, em Mossoró, com a Semana de Ciência e Tecnologia, no mês de outubro, dando início a quarta etapa. A Feira Estadual terá a participação de todos os projetos selecionados nas feiras regionais das quatro Direds. A quinta e última etapa será a entrega das bolsas de Iniciação Científica Junior para os estudantes premiados, além da execução de um curso de Ciências para esses alunos.

No total, serão atribuídas 18 bolsas, onde dentre os critérios de escolha estão o uso do método científico, a criatividade e a relevância da pesquisa. A duração da bolsa será de 12 meses e, no final, os estudantes e professores premiados, bem como os coordenadores das Direds e a coordenadora geral do projeto receberão passagem aérea de ida e volta, para participação e apresentação dos projetos em Feira de Ciências de âmbito nacional.
(Diário de Natal, 9/1)

>Previsões mais acertadas (Agência Fapesp)

>Especiais

13/1/2011
Por Elton Alisson

Agência FAPESP – Apesar de estimar hoje com até 97% de acerto a probabilidade de chuvas nas próximas 24 horas, a previsão de tempo no Brasil ainda é incapaz de determinar com exatidão se temporais como os que castigaram São Paulo nesta semana voltarão a se repetir nos próximos dias com a mesma intensidade.

O problema se deve a limitações dos modelos meteorológicos (representações numéricas aproximadas do comportamento da atmosfera) utilizados até agora no País.

Mas, um supercomputador, que entrou em operação no início de janeiro no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), promete possibilitar aprimorar esses modelos para que possam indicar com maior precisão e antecedência chuvas e fenômenos meteorológicos extremos, como tempestades, que estão se tornando comuns no País.

Batizado de Tupã – o deus do trovão na mitologia tupi-guarani – o supercomputador permitirá aos pesquisadores do CPTEC desenvolver e executar modelos meteorológicos mais sofisticados e com maior resolução espacial, que demandam mais memória e velocidade de processamento. E, dessa forma, melhorar gradativamente a qualidade das previsões meteorológicas de tempo e clima no Brasil.

“Fazer previsão de tempo no Brasil é bastante complicado. O País é muito grande, com clima e geografia muito variadas, o que dificulta muito fazer previsões detalhadas para sete dias, por exemplo”, disse Marcelo Enrique Seluchi, chefe de supercomputação do Inpe e coordenador substituto do CPTEC à Agência FAPESP.

De acordo com o pesquisador, hoje a previsão diária de tempo no País, que indica apenas se ocorrerá ou não chuvas nas próximas 24 horas, tem um nível de confiabilidade equiparável à realizada pelos maiores centros meteorológicos do mundo, atingindo quase 100% de acerto. Já as previsões de longo prazo – como as de uma semana ou 15 dias – têm menores índices de acerto, atingindo 80% no prazo de uma semana e reduzindo cerca de 3% a cada dia acrescentado.

Com o supercomputador, os pesquisadores do Inpe pretendem aumentar progressivamente a margem de acerto dessas previsões para fazer com que possam prever com pelo menos dois dias de antecedência temporais como os que atingiram as cidades de São Luiz do Paraitinga (SP) e Angra dos Reis (RJ) no início de 2010.

“Nós ganhamos um dia de previsão para cada dez anos de investimento na melhoria dos modelos meteorológicos. Isso pode parecer pouco, mas representa um ganho muito grande para termos a ideia da magnitude de um evento meteorológico extremo”, disse Seluchi.

Limitações

Segundo o cientista, uma das maiores limitações na previsão do tempo no Brasil hoje é a resolução espacial e temporal relativamente baixa dos modelos meteorológicos numéricos utilizados.

A resolução espacial dos modelos usados hoje para prever tempestades, por exemplo, é de 20 quilômetros, o que impossibilita identificar nuvens de tempestade que podem ter de dois a três quilômetros de extensão. Além disso, eles fornecem previsões apenas a cada três horas, limitando a capacidade de detectar fenômenos meteorológicos extremos que surgem, desenvolvem-se e desaparecem em um menor período de tempo.

“O nível de detalhe espacial e temporal é hoje uma das maiores limitações para a melhoria da previsão do tempo no país que depende, fundamentalmente, da melhoria da resolução dos modelos meteorológicos”, disse Seluchi.

Para isso, os pesquisadores do Inpe pretendem com o novo supercomputador aumentar a resolução do modelo meteorológico regional utilizado nas previsões de tempo da instituição dos atuais 20 quilômetros para cinco quilômetros nos próximos anos. E paralelamente a essa mudança, também fazer com que possam representar de forma mais realista processos físicos que até então eram ignorados nos modelos anteriores.

De acordo com Seluchi, o supercomputador também possibilitará melhorar a geração do chamado diagnóstico ou “condição inicial” – o ponto de partida da elaboração dos modelos meteorológicos.

Qualquer erro nessa fase inicial da previsão, que se inicia com um diagnóstico preliminar da atmosfera a partir da coleta de observações de estações meteorológicas em terra, ar, oceano e espaço, pode provocar grandes falhas na previsão final.

“A geração dessa condição inicial será feita com uma metodologia muito mais cara e sofisticada do ponto de vista computacional, que incorporará uma série de novos dados”, disse.

Para diminuir a margem de erro nesse diagnóstico inicial, com o supercomputador o CPTEC, a exemplo dos principais centros meteorológicos no mundo, passará a gerar por meio de uma técnica matemática uma série de previsões climáticas paralelas.

Chamadas “previsões por conjunto”, segundo Seluchi, o grupo de previsões também permitirá aumentar a confiabilidade das previsões e indicar com maior assertividade a probabilidade de chuvas de grandes proporções.

“Ao rodar 20 previsões, das quais 18 apontam para um evento meteorológico extremo e as outras duas não, por exemplo, o meteorologista terá muito mais confiança para fazer suas previsões e decidir se é necessário enviar ou não um alerta para a Defesa Civil sobre um possível fenômeno extremo”, explicou.

Os primeiros novos modelos meteorológicos gerados pelo novo supercomputador, que foi adquirido com recursos da FAPESP e do Ministério da Ciência e Tecnologia (MCT), serão gerados para efeito de teste este mês. O sistema também será utilizado para pesquisar as novas gerações de modelos que serão utilizados para fazer previsões de mudanças climáticas no futuro.

>Tremores recorrentes ajudaram a moldar o relevo nordestino (Agência FAPESP)

>
CIÊNCIA | GEOLOGIA
Terra sacudida

Maria Guimarães
Edição Impressa 178 – Dezembro 2010

Falésias no Rio Grande do Norte. © JOÃO ALEXANDRINO.

O Nordeste brasileiro é terra de agitos, não só por causa do Carnaval e outras festividades. De acordo com pesquisadores do Rio Grande do Norte e de São Paulo, os terremotos que de vez em quando sacodem a região estão longe de ser novidade: já aconteciam muito antes de existir gente no planeta, e ocorrem até hoje. O geólogo Francisco Hilario Bezerra, da Universidade Federal do Rio Grande do Norte (UFRN), recorre à cultura popular para ressaltar a concepção errada que impera sobre os movimentos do solo brasileiro: “Vai, vai, vai, suba aqui na minha moto/ Vem, vem, vem, aqui não tem terremoto”, diz a música Insolação do coração, de Carlinhos Brown, interpretada por Claudia Leitte. Segundo o pesquisador, não é nada disso. No Brasil, sobretudo em sua região natal, tem muito terremoto.

“O Nordeste é o lugar do Brasil onde mais acontecem terremotos”, diz Bezerra, “não se sabe bem por quê”. Os resultados do grupo da UFRN deixam claro que terremotos têm sido comuns na região nos últimos 400 mil anos. Além de explicar o relevo nordestino, esse conhecimento pode também ter utilidade prática direta, como orientar a engenharia civil. “Se determinamos que uma zona é caracterizada, há milhares de anos, por terremotos de magnitude 5, por exemplo, é preciso que as construções resistam a esses tremores”, explica o geólogo.

A caracterização tectônica da região faz parte de um projeto mais amplo coordenado pelo geólogo Reinhardt Fuck, da Universidade de Brasília, no âmbito do Instituto Nacional de Ciência e Tecnologia (INCT) de Estudos Tectônicos. Parte do trabalho foi feita por Francisco Cézar Nogueira durante o doutorado sob orientação de Bezerra. Ele estudou uma falha tectônica com comprimento de 35 quilômetros por onde corre o rio Jundiaí, que corta a cidade de Natal, e viu que, mais ou menos a cada 16 mil anos, os movimentos dessa ruptura no terreno causam tremores, segundo artigo publicado este ano no Journal of Geodynamics.

A principal fonte de informações para Nogueira foi a areia que preenche as rachaduras profundas do solo. Como matéria-prima para análises geológicas, a areia pode ser desafiante. As zonas arenosas em climas áridos são pouco propensas à preservação de fósseis e por isso são difíceis de datar pela técnica mais comum, de carbono-14. A dificuldade foi resolvida por uma associação com o laboratório de Sonia Tatumi, da Faculdade de Tecnologia de São Paulo (Fatec-SP), especialista em análises de luminescência opticamente estimulada. A técnica mede a posição dos elétrons dentro dos grãos de quartzo da areia para avaliar sua idade. A luz solar atrai esses elétrons para a camada mais externa, mas eles voltam para o interior do grão quando a camada de areia é enterrada. Com esse método é possível estimar há quanto tempo o grão está no subsolo, dentro de um máximo de 1 milhão de anos. Ao pressupor que a areia infiltrada na falha Jundiaí foi soterrada em consequência da rachadura, as datações permitiram estimar que ela se formou cerca de 100 mil anos atrás. E esteve ativa desde então, o que não se podia saber observando os registros históricos. Durante os 200 anos em que há histórico sobre a atividade sísmica ­no Nordeste, não foram registrados tre­mores fortes na falha Jundiaí, o que poderia levar a crer – incorretamente – que ela não está ativa.

Solo movediço – Estudar falhas não é a única forma de investigar a sismologia de uma região. Mesmo sem ter acesso direto à falha que causa tremores em determinada área, o grupo da UFRN usa também outras alterações no solo para inferir movimentos passados. Um desses fenômenos é a liquefação, que acontece quando uma mistura de água e areia presa no subsolo é submetida a grande pressão, como a gerada por um terremoto. Bezerra ajuda a compreender fazendo uma analogia com a pressão que se cria quando uma garrafa de champanhe é sacudida. “A rolha, que no caso do solo pode ser uma rocha, impede a mistura de se expandir e a pressão aumenta até que estoura”, explica. No caso do champanhe é festivo, desde que a rolha não atinja alguém; mas quando grãos de quartzo se agitam com um terremoto e são ejetados, junto com a água, depois que a rocha se rompe, o resultado é destruição e, hoje, prédios demolidos.

As marcas desse tremor depois se solidificam e ficam registradas: é o que Elissandra Moura-Lima tem estudado durante seu trabalho de doutorado. As testemunhas providenciais aí são seixos por cima da areia. Mais uma vez, Bezerra recorre a uma imagem para deixar clara a instabilidade dessa disposição: “Imagine uma gelatina, dessas que a gente come, com um ferro de passar em cima”. Basta um tremor para acabar com o equilíbrio e fazer o ferro afundar. E provavelmente fará isso de lado, descendo pela gelatina na posição que oferece menos resistência. É o que acontece com os seixos: quando são flagrados debaixo da superfície em posição vertical, os pesquisadores podem inferir o trajeto que percorreram. E, mais uma vez com ajuda da luminescência, estimar quando aconteceram esses movimentos.

Elissandra usou também uma espécie de tomografia dos sedimentos conhecida como GPR, sigla em inglês para radar que penetra o solo (ground penetrating radar). Isso lhe permitiu caracterizar, no vale do rio Açu, parte da bacia Potiguar, as estruturas em domo formadas quando os seixos penetram solo adentro e empurram a areia para cima. Mapear essas deformações do solo no contexto da rede de falhas que percorre a região permite estimar o momento e a magnitude de tremores que ocorreram há milhares de anos. Um tremor de magnitude 5 ou 6, por exemplo, causa alterações num raio de dois quilômetros. No vale do rio Açu, o grupo mostrou que terremotos já eram recorrentes há 400 mil anos. As falhas que correm por baixo desse vale são, por isso, fortes candidatas a responsáveis por boa parte da atividade sísmica do passado na bacia Potiguar.

Mais que paisagem – Uma vantagem de ser geólogo especializado nessa região é poder trabalhar num cenário mais atraente do que pedreiras ou zonas desérticas. As falésias que caracterizam boa parte da costa nordestina são, além de deslumbrantes, uma fonte rica de informações. Naquelas paredes com até 30 metros de altura que se erguem junto ao mar coloridas com tons de vermelho, amarelo, roxo e branco está exposto um histórico sísmico e geológico que remonta a dezenas de milhares de anos. Basta a um especialista olhar para essas falésias para perceber as linhas horizontais que delimitam sedimentos com idades diferentes e reconhecer características que revelam a influência de atividades sísmicas em sua formação.

É nessa paisagem que se dá parte do trabalho de Dilce Rossetti, do Instituto Nacional de Pesquisas Espaciais (Inpe), que também analisa faces rochosas onde for possível, como as cortadas pela abertura de estradas. “A costa nordestina é ideal para esse tipo de estudo”, explica a pesquisadora, “pela abundância de falésias que se estendem por muitos quilômetros”. Isso lhe permite comparar as deformações no terreno causadas pela liquefação em contextos diversos, como perto de uma falha e longe dela, além de ter acesso, num único ponto de uma praia paradisíaca, a uma história com dezenas de milhares de anos. Em artigo que será publicado em janeiro de 2011, junto com o de Elissandra, numa edição especial sobre paleoterremotos da Sedimentary Geology, Dilce usa essas deformações para mostrar como a ponta da Paraíba, último ponto do continente americano a se desligar da África, não é passiva como se pensava. A atividade sísmica ali é disseminada.

Para datar esses eventos ela tem usado carbono-14, quando há matéria orgânica, e luminescência, cujos resultados estão em fase final de preparação para publicação. Ela viu que por cima da formação geológica conhecida como Barreiras, formada há cerca de 20 milhões de anos, há várias camadas com sinais de perturbação sísmica. Chegou a encontrar rochas com idade de 178 mil anos numa falésia paraibana, mas o mais comum é ter registros dos últimos 67 mil anos. “Nessa época já havia sismicidade em vários locais da Paraí­ba, e em outros estados do Nordeste também”, afirma. Segundo Dilce, esses movimentos de terra foram responsáveis por modelar parte do relevo da região, como as falésias e a localização dos leitos de alguns rios.

Não é possível extrapolar os resultados obtidos no Nordeste para outras regiões do Brasil. “Cada falha tem um comportamento específico”, explica Bezerra. Por isso as falhas paulistas de Taubaté e de Santos, por exemplo, podem ter uma periodicidade e um modo de ação distintos que ainda precisam ser estudados. Para ele, a grande importância desses trabalhos, em conjunto, é mostrar que olhar os fenômenos atuais da natureza não é suficiente para entender o que acontece hoje. “O conhecimento histórico e instrumental não basta, é preciso examinar as camadas do passado distante.”

>Coreia do Sul: robô substitui professor em sala de aula

>
Terra – 28 de dezembro de 2010 • 12h22

Batizado de “Engkey”, o robô sul-coreano custa cerca de R$ 12 mil. Foto: AFP.

Cerca de 30 robôs-professores foram introduzidos em salas de aula de 20 escolas primárias da Coreia do Sul. As máquinas, criadas pelo Instituto de Ciência e Tecnologia do país, tem a intenção de ensinar a língua inglesa para alunos sul-coreanos que não têm contato com o idioma.

Os robôs, chamados “Engkey”, são controlados ao vivo por professores de inglês a partir das Filipinas. Eles têm pouco mais de 1 m de altura e possuem uma tela que capta e mostra o rosto do professor que está, à distância, dando a aula. Os “Engkey” ainda conseguem ler os livros físicos dos alunos e dançar movimentos a cabeça e os braços.

Segundo Sagong Seong-Dae, cientista do Instituto, a questão financeira contou para a substituição do humano pela máquina. “Com boa formação e experiência, os professores filipinos são uma mão-de-obra mais barata do que os daqui”, contou ao site britânico Daily Mail.

Kim Mi-Young, uma oficial do departamento de educação do país, afirmou também ao site que a experiência foi bem-vinda. “As crianças parecem amar os robôs porque eles são bonitinhos. Mas alguns adultos também mostraram um interesse especial afirmando que se sentem menos nervosos de convesarem com máquinas do que com pessoas de verdade”, contou.

Mi-Young fez questão de destacar, no entanto, que os robôs não vão substituir completamente a atuação dos professores humanos, apesar do investimento governamental de cerca de US$ 1,5 milhão, algo em torno de R$ 2,5 milhões. Cada robô tem o preço de aproximadamente R$ 12 mil.

>Superprevisão do tempo? Pergunte ao Tupã (Agência FAPESP)

>
Especiais

Por Elton Alisson, de Cachoeira Paulista (SP)
29/12/2010

Um dos maiores supercomputadores do mundo para previsão de tempo e de mudanças climáticas é inaugurado em Cachoeira Paulista. Equipamento permitirá fazer previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade (foto: Eduardo Cesar/Ag.FAPESP)

Agência FAPESP – O Instituto Nacional de Pesquisas Espaciais (Inpe) inaugurou terça-feira (28/12), no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), o supercomputador Tupã.

Com o nome do deus do trovão na mitologia tupi-guarani, o sistema computacional é o terceiro maior do mundo em previsão operacional de tempo e clima sazonal e o oitavo em previsão de mudanças climáticas.

Não apenas isso. De acordo com a mais recente relação do Top 500 da Supercomputação, que lista os sistemas mais rápidos do mundo, divulgada em novembro, o Tupã ocupa a 29ª posição. Essa é a mais alta colocação já alcançada por uma máquina instalada no Brasil.

Ao custo de R$ 50 milhões, dos quais R$ 15 milhões foram financiados pela FAPESP e R$ 35 milhões pelo Ministério da Ciência e Tecnologia (MCT), por meio da Financiadora de Estudos e Projetos (Finep), o sistema foi fabricado pela Cray, em Wisconsin, nos Estados Unidos.

O Tupã é capaz de realizar 205 trilhões de operações de cálculos por segundo e processar em 1 minuto um conjunto de dados que um computador convencional demoraria mais de uma semana.

Com vida útil de seis anos, o equipamento permitirá ao Inpe gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 quilômetros na América do Sul e 20 quilômetros para todo o globo.

A máquina também possibilitará melhorar as previsões ambientais e da qualidade do ar, gerando prognósticos de maior resolução – de 15 quilômetros – com até seis dias de antecedência, e prever com antecedência de pelo menos dois dias eventos climáticos extremos, como as chuvas intensas que abateram as cidades de Angra dos Reis (RJ) e São Luiz do Paraitinga (SP) no início de 2010.

“Com o novo computador, conseguiremos rodar modelos meteorológicos mais sofisticados, que possibilitarão melhorar o nível de detalhamento das previsões climáticas no país”, disse Marcelo Enrique Seluchi, chefe de supercomputação do Inpe e coodernador substituto do CPTEC, à Agência FAPESP.

Segundo o pesquisador, no início de janeiro de 2011 começarão a ser rodados no supercomputador, em nível de teste, os primeiros modelos meteorológicos para previsão de tempo e de mudanças climáticas. E até o fim de 2011 será possível ter os primeiros resultados sobre os impactos das mudanças climáticas no Brasil com dados que não são levados em conta nos modelos internacionais.

Modelo climático brasileiro

De acordo com Gilberto Câmara, diretor do Inpe, o supercomputador foi o primeiro equipamento comprado pela instituição de pesquisa que dispensou a necessidade de financiamento estrangeiro.

“Todos os outros três supercomputadores do Inpe contaram com financiamento estrangeiro, que acaba custando mais caro para o Brasil. O financiamento da FAPESP e do MCT nos permitiu realizar esse investimento sem termos que contar com recursos estrangeiros”, afirmou.

O supercomputador será utilizado, além do Inpe, por outros grupos de pesquisa, instituições e universidades integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa sobre Mudanças Climática (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia (INCT) para Mudanças Climáticas.

Em seu discurso na inauguração, Carlos Henrique de Brito Cruz, diretor científico da FAPESP, destacou a importância do supercomputador para o avanço das pesquisas realizadas no âmbito do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, que foi concebido para durar pelo menos dez anos, e para a criação do Modelo Brasileiro do Sistema Climático Global (MBSCG).

O modelo incorporará os elementos do sistema terrestre (atmosfera, oceanos, criosfera, vegetação e ciclos biogeoquímicos, entre outros), suas interações e de que modo está sendo perturbado por ações antropogênicas, como, por exemplo, emissões de gases de efeito estudo, mudanças na vegetação e urbanização.

A construção do novo modelo envolve um grande número de pesquisadores do Brasil e do exterior, provenientes de diversas instituições. E se constitui em um projeto interdisciplinar de desenvolvimento de modelagem climática sem precedentes em países em desenvolvimento.

“Não tínhamos, no Brasil, a capacidade de criar um modelo climático global do ponto de vista brasileiro. Hoje, a FAPESP está financiando um grande programa de pesquisa para o desenvolvimento de um modelo climático brasileiro”, disse Brito Cruz.

Na avaliação dele, o supercomputador representará um avanço na pesquisa brasileira em previsão de tempo e mudanças climáticas globais, que são duas questões estratégicas para o país.

Impossibilitado de participar do evento, o ministro da Ciência e Tecnologia, Sergio Rezende, gravou um vídeo, exibido na solenidade de inauguração do supercomputador, em que declarou o orgulho da instalação no Brasil do maior supercomputador do hemisfério Sul.

“Com esse supercomputador, o Brasil dá mais um passo para cumprir as metas de monitoramento do clima assumidas internacionalmente e entra no seleto grupo de países capazes de gerar cenários climáticos futuros”, disse.