Todos os posts de renzotaddei

Avatar de Desconhecido

Sobre renzotaddei

Anthropologist, professor at the Federal University of São Paulo

>Can We Trust Climate Models? Increasingly, the Answer is ‘Yes’

>

18 JAN 2011: ANALYSIS

Yale Environment 360

Forecasting what the Earth’s climate might look like a century from now has long presented a huge challenge to climate scientists. But better understanding of the climate system, improved observations of the current climate, and rapidly improving computing power are slowly leading to more reliable methods.

by michael d. lemonick

A chart appears on page 45 of the 2007 Synthesis Report of the Intergovernmental Panel on Climate Change (IPCC), laying out projections for what global temperature and sea level should look like by the end of this century. Both are projected to rise, which will come as no surprise to anyone who’s been paying even the slightest attention to the headlines over the past decade or so. In both cases, however, the projections span a wide range of possibilities. The temperature, for example, is likely to rise anywhere from 1.8 C to 6.4 C (3.2 F to 11.5 F), while sea level could increase by as little as 7 inches or by as much as 23 — or anywhere in between.

It all sounds appallingly vague, and the fact that it’s all based on computer models probably doesn’t reassure the general public all that much. For many people, “model” is just another way of saying “not the real world.” In fairness, the wide range of possibilities in part reflects uncertainty about human behavior: The chart lays out different possible scenarios based on how much CO2 and other greenhouse gases humans might emit over the coming century. Whether the world adopts strict emissions controls or decides to ignore the climate problem entirely will make a huge difference to how much warming is likely to happen.

But even when you factor out the vagaries of politics and economics, and assume future emissions are known perfectly, the projections from climate models still cover a range of temperatures, sea levels, and other manifestations of climate change. And while there’s just one climate, there’s more than one way to simulate it. The IPCC’s numbers come from averaging nearly two dozen individual models produced by institutions including the National Center for Atmospheric Research (NCAR), the Geophysical Fluid Dynamics Laboratory (GFDL), the U.K.’s Met Office, and more. All of these models have features in common, but they’re constructed differently — and all of them leave some potentially important climate processes out entirely. So the question remains: How much can we really trust climate models to tell us about the future?

The answer, says Keith Dixon, a modeler at GFDL, is that it all depends on questions you’re asking. “If you want to know ‘is climate change something that should be on my radar screen?’” he says, “then you end up with some very solid results. The climate is warming, and we can say why. Looking to the 21st century, all reasonable projections of what humans will be doing suggest that not only will the climate continue to warm, you have a good chance of it accelerating. Those are global-scale issues, and they’re very solid.”

The reason they’re solid is that, right from the emergence of the first crude versions back in the 1960s, models have been at their heart a series of equations that describe airflow, radiation and energy balance as the Sun

The problem is that warming causes changes that act to accelerate or slow the warming.

warms the Earth and the Earth sends some of that warmth back out into space. “It literally comes down to mathematics,” says Peter Gleckler, a research scientist with the Program for Climate Model Diagnosis and Intercomparison at Livermore National Laboratory, and the basic equations are identical from one model to another. “Global climate models,” he says, echoing Dixon, “are designed to deal with large-scale flow of the atmosphere, and they do very well with that.”

The problem is that warming causes all sorts of changes — in the amount of ice in the Arctic, in the kind of vegetation on land, in ocean currents, in permafrost and cloud cover and more — that in turn can either cause more warming, or cool things off. To model the climate accurately, you have to account for all of these factors. Unfortunately, says James Hurrell, who led the NCAR’s most recent effort to upgrade its own climate model, you can’t. “Sometimes you don’t include processes simply because you don’t understand them well enough,” he says. “Sometimes it’s because they haven’t even been discovered yet.”

A good example of the former, says Dixon, is the global carbon cycle — the complex interchange of carbon between oceans, atmosphere, and biosphere. Since atmospheric carbon dioxide is driving climate change, it’s obviously important, but until about 15 years ago, it was too poorly understood to be included in the models. “Now,” says Dixon, “we’re including it — we’re simulating life, not just physics.” Equations representing ocean dynamics and sea ice also have been added to climate models as scientists have understood these crucial processes better.

Other important phenomena, such as changes in clouds, are still too complex to model accurately. “We can’t simulate individual cumulus clouds,” says Dixon, because they’re much smaller than the 200-kilometer grid boxes that make up climate models’ representation of the world. The same applies to aerosols — tiny particles, including natural dust and manmade soot — that float around in the atmosphere and can cool or warm the planet, depending on their size and composition.

But there’s no one right way to model these small-scale phenomena. “We don’t have the observations and don’t have the theory,” says Gleckler. The best they can do on this point is to simulate the net effect of all the clouds or aerosols in a grid box, a process known as “parameterization.” Different

‘It’s not a science for which everything is known, by definition,’ says one expert.

modeling centers go about it in different ways, which, unsurprisingly, leads to varying results. “It’s not a science for which everything is known, by definition,” says Gleckler. “Many groups around the world are pursuing their own research pathways to develop improved models.” If the past is any guide, modelers will be able to abandon parameterizations one by one, replacing them with mathematical representations of real physical processes.

Sometimes, modelers don’t understand a process well enough to include it at all, even if they know it could be important. One example is a caveat that appears on that 2007 IPCC chart. The projected range of sea-level rise, it warns, explicitly excludes “future rapid dynamical changes in ice flow.” In other words, if land-based ice in Greenland and Antarctica starts moving more quickly toward the sea than it has in the past — something glaciologists knew was possible, but hadn’t yet been documented — these estimates would be incorrect. And sure enough, satellites have now detected such movements. “The last generation of NCAR models,” says Hurrell, “had no ice sheet dynamics at all. The model we just released last summer does, but the representation is relatively crude. In a year or two, we’ll have a more sophisticated update.”

Sophistication only counts, however, if the models end up doing a reasonable job of representing the real world. It’s not especially useful to wait until 2100 to find out, so modelers do the next best thing: They perform “hindcasts,” which are the inverse of forecasts. “We start the models from the middle of the 1800s,” says Dixon, “and let them run through the present.” If a model reproduces the overall characteristics of the real-world climate record reasonably well, that’s a good sign.

What the models don’t try to do is to match the timing of short-term climate variations we’ve experienced. A model might produce a Dust Bowl like that of the 1930s, but in the model it might happen in the 1950s. It should produce the ups and downs of El Niño and La Niña currents in the Pacific with about the right frequency and intensity, but not necessarily at the same times as they happen in the real Pacific. Models should show slowdowns and accelerations in the overall warming trend, the result of natural fluctuations, at about the rate they happen in the real climate. But they won’t necessarily show the specific flattening of global warming we’ve observed during the past decade — a temporary slowdown that had skeptics declaring the end of climate change.

It’s also important to realize that climate represents what modelers call a boundary condition. Blizzards in the Sahara are outside the boundaries of our current climate, and so are stands of palm trees in Greenland next year. But within those boundaries, things can bounce around a great deal from year to year or decade to decade. What modelers aim to produce is a virtual climate that resembles the real one in a statistical sense, with El Niños, say, appearing about as often as they do in reality, or hundred-year storms coming once every hundred years or so.

This is one essential difference between weather forecasting and climate projection. Both use computer models, and in some cases, even the very same models. But weather forecasts start out with the observed state of the

Many decisions about how to adapt to climate change can’t wait for better climate models.

atmosphere and oceans at this very moment, then project it forward. It’s not useful for our day-to-day lives to know that September has this average high or that average low; we want to know what the actual temperature will be tomorrow, and the day after, and next week. Because the atmosphere is chaotic, anything less than perfect knowledge of today’s conditions (which is impossible, given that observations are always imperfect) will make the forecast useless after about two weeks.

Since climate projections go out not days or weeks, but decades, modelers don’t even try to make specific forecasts. Instead, they look for changes in averages — in boundary conditions. They want to know if Septembers in 2050 will be generally warmer than Septembers in 2010, or whether extreme weather events — droughts, torrential rains, floods — will become more or less frequent. Indeed, that’s the definition of climate: the average conditions in a particular place.

“Because models are put together by different scientists using different codes, each one has its strengths and weaknesses,” says Dixon. “Sometimes one [modeling] group ends up with too much or too little sea ice but does very well with El Niño and precipitation in the continental U.S., for example,” while another nails the ice but falls down on sea-level rise. When you average many models together, however, the errors tend to cancel.

Even when models reproduce the past reasonably well, however, it doesn’t guarantee that they’re equally reliable at projecting the future. That’s in part because some changes in climate are non-linear, which is to say that a small nudge can produce an unexpectedly large result. Again, ice sheets are a good example: If you look at melting alone, it’s pretty straightforward to calculate how much extra water will enter the sea for every degree of temperature rise. But because meltwater can percolate down to lubricate the undersides of glaciers, and because warmer oceans can lift the ends of glaciers up off the sea floor and remove a natural brake, the ice itself can end up getting dumped into the sea, unmelted. A relatively small temperature rise can thus lead to an unexpectedly large increase in sea level. That particular non-linearity was already suspected, if not fully understood, but there could be others lurking in the climate system.

Beyond that, says Dixon, if three-fourths of the models project that the Sahel (the area just south of the Sahara) will get wetter, for example, and a fourth says it will dry out, “there’s a tendency to go with the majority. But we can’t rule out without a whole lot of investigation whether the minority is doing something right. Maybe they have a better representation of rainfall patterns.” Even so, he says, if you have the vast majority coming up with similar results, and you go back to the underlying theory, and it makes physical sense, that tends to give you more confidence they’re right. The best confidence-builder of all, of course, is when a trend projected by models shows up in observations — warmer springs and earlier snowmelt in the Western U.S., for example, which not only makes physical sense in a warming world, but which is clearly happening.

Climate Forecasts: The Case For Living with Uncertainty

As climate science advances, predictions about the extent of future warming and its effects are likely to become less — not more — precise, journalist Fred Pearce writes. That may make it more difficult to convince the public of the reality of climate change, but it hardly diminishes the urgency of taking action.
READ MORE

And the models are constantly being improved. Climate scientists are already using modified versions to try and predict the actual timing of El Ninos and La Niñas over the next few years. They’re just beginning to wrestle with periods of 10, 20 and even 30 years in the future, the so-called decadal time span where both changing boundary conditions and natural variations within the boundaries have an influence on climate. “We’ve had a modest amount of skill with El Niños,” says Hurrell, “where 15-20 years ago we weren’t so skillful. That’s where we are with decadal predictions right now. It’s going to improve significantly.”

After two decades of evaluating climate models, Gleckler doesn’t want to downplay the shortcomings that remain in existing models. “But we have better observations as of late,” he says, “more people starting to focus on these things, and better funding. I think we have better prospects for making some real progress from now on.” 

POSTED ON 18 JAN 2011 IN BUSINESS & INNOVATION CLIMATE ENERGY SCIENCE & TECHNOLOGY NORTH AMERICA NORTH AMERICA 

>Clima sob o olhar do Brasil (Fapesp)

>

Especiais

1/2/2011

Por Elton Alisson


Agência FAPESP – Nos modelos climáticos globais divulgados no mais recente relatório do Painel Intergovernamental sobre Mudança Climática (IPCC), divulgado em 2007, o Pantanal e o Cerrado são retratados como se fossem savanas africanas.

Já fenômenos como as queimadas, que podem intensificar o efeito estufa e mudar as características de chuvas e nuvens de uma determinada região, por exemplo, não são caracterizados por não serem considerados relevantes para os países que elaboraram os modelos numéricos utilizados.

Para dispor de um modelo capaz de gerar cenários de mudanças climáticas com perspectiva brasileira, pesquisadores de diversas instituições, integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa em Mudanças Climáticas Globais (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia sobre Mudanças Climáticas (INCT-MC), estão desenvolvendo o Modelo Brasileiro do Sistema Climático Global (MBSCG).

Com conclusão estimada para 2013, o MSBCG deverá permitir aos climatologistas brasileiros realizar estudos sobre mudanças climáticas com base em um modelo que represente processos importantes para o Brasil e que são considerados secundários nos modelos climáticos estrangeiros.

“Boa parte desses modelos internacionais não atende às nossas necessidades. Temos muitos problemas associados ao clima em virtude de ações antropogênicas, como as queimadas e o desmatamento, que não são retratados e que agora serão incluídos no modelo que estamos desenvolvendo no Brasil”, disse Gilvan Sampaio de Oliveira, pesquisador do Centro de Ciência do Sistema Terrestre (CCST) do Instituto Nacional de Pesquisas Espaciais (Inpe), um dos pesquisadores que coordena a construção do MBSCG.

Segundo ele, o modelo brasileiro incorporará processos e interações hidrológicas, biológicas e físico-químicas relevantes do sistema climático regional e global. Dessa forma, possibilitará gerar cenários, com resolução de 10 a 50 quilômetros, de mudanças ambientais regionais e globais que poderão ocorrer nas próximas décadas para prever seus possíveis impactos em setores como agricultura e energia.

“Com esse modelo, teremos capacidade e autonomia para gerar cenários futuros confiáveis, de modo que o país possa se preparar para enfrentar os fenômenos climáticos extremos”, disse Sampaio à Agência FAPESP.

A primeira versão do modelo brasileiro com indicações do que pode ocorrer com o clima no Brasil nos próximos 50 anos deverá ficar pronta até o fim de 2011.

Para isso, os pesquisadores estão instalando e começarão a rodar em fevereiro no supercomputador Tupã, instalado no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), uma versão preliminar do modelo, com módulos computacionais que analisam os fenômenos climáticos que ocorrem na atmosfera, no oceano e na superfície terrestre.

Os módulos computacionais serão integrados gradualmente a outros componentes do modelo, que avaliarão os impactos da vegetação, do ciclo de carbono terrestre, do gelo marinho e da química atmosférica no clima. Em contrapartida, um outro componente apontará as influências das mudanças climáticas em cultivares agrícolas como a cana-de-açúcar, soja, milho e café.

“No futuro, poderemos tentar estimar a produtividade da cana-de-açúcar e da soja, por exemplo, frente ao aumento da concentração de gases de efeito estufa na atmosfera”, disse Sampaio.


Classe IPCC

Segundo o cientista, como a versão final do MSBCG só ficará pronta em 2013, o modelo climático brasileiro não será utilizado no próximo relatório que o IPCC divulgará em 2014, o AR-5. Mas o modelo que será utilizado pelo Painel Intergovernamental para realizar as simulações do AR5, o HadGEM2, contará com participação brasileira.

Por meio de uma cooperação entre o Hadley Center, no Reino Unido, e o Inpe, os pesquisadores brasileiros introduziram no modelo internacional módulos computacionais que avaliarão o impacto das plumas de fumaça produzidas por queimadas e do fogo florestal sobre o clima global, que até então não eram levados em conta nas projeções climáticas.

Com isso, o modelo passou a ser chamado HadGEM2-ES/Inpe. “Faremos simulações considerando esses componentes que introduzimos nesse modelo”, contou Sampaio.

Em 2013, quando será concluída a versão final do Modelo Brasileiro do Sistema Climático Global, o sistema ganhará um módulo computacional de uso da terra e outro metereológico, com alta resolução espacial. No mesmo ano, também serão realizadas as primeiras simulações de modelos regionais de alta resolução para a elaboração de um modelo climático para América do Sul com resolução de 1 a 10 km.

“Até hoje, levávamos meses e até anos para gerar cenários regionais. Com o novo sistema de supercomputação os esforços em modelagem climática regional ganharão outra escala”, afirmou Sampaio.

Leia reportagem publicada pela revista Pesquisa FAPESP sobre o modelo climático brasileiro. 

>O povo ribeirinho do São Francisco traduz as lutas populares do Brasil (IHU Online)

>

 Instituto Humanitas Unisinos – IHU Online – 2/2/2011
“Existe um sertão com bastante água. A questão é que esta água é colocada majoritariamente a serviço dos interesses do capital e suas oligarquias, a água é apropriada privadamente”, aponta o fotógrafo.

Confira a entrevista.

 
 

Um fotógrafo operário. Assim se define João Zinclar que já foi metalúrgico e hoje vive da fotografia. O gaúcho, que hoje vive em Campinas-SP, durante seis anos percorreu as margens do rio São Francisco e registrou a vida deste e de quem depende dele para viver. Assim nasceu o livro O Rio São Francisco e as Águas no Sertão (Campinas: sem editora, 2010). Em entrevista à IHU On-Line, realizada por email, Zinclar conta como foi esse processo de captação das imagens e convivência com o povo da região. “Percorremos a extensão do rio, que é de 2.700 quilômetros várias vezes, perfazendo mais de 15 mil quilômetros nesses seis anos”, descreve.

Nesse tempo, Zinclar acompanhou todo o processo de transposição do rio São Francisco, desde as discussões sobre o projeto até o início das obras. “A natureza vem sendo constantemente privatizada, transformada em mercadoria. Esse processo não é novo, faz parte da natureza do capitalismo em todos os tempos. Hoje, o controle sobre a água indica um novo patamar dessa disputa. A transposição é parte dessa apropriação privada das riquezas comuns. A água é um bem comum, não há vida sem água e hoje uma parte considerável da humanidade não tem acesso a este recurso”, afirmou. Ao longo da entrevista é possível ver algumas das imagens que Zinclar publicou em seu livro.

Confira a entrevista.

IHU On-Line – Como foi a viagem e a produção das imagens para conhecer as águas do sertão brasileiro?

João Zinclar – O trabalho que resultou no livro O Rio São Francisco e as Águas no Sertão lançado em novembro de 2010 em Campinas-SP tem durado seis (6) anos, desde janeiro de 2005 até os dias de hoje. É motivado pela questão política envolvendo a grande polêmica e os conflitos acerca da equivocada proposta do governo federal de efetivar as obras da transposição das águas rio São Francisco para o chamado nordeste setentrional.

Por entender a questão da água como valor de luta estratégica para os trabalhadores e o povo, (a guerra pela água em Cochabamba na Bolívia no início do século é um exemplo disso), considerei que a fotografia poderia contribuir nessa polêmica sobre o futuro das águas do velho Chico. Ajudar na divulgação e documentação das lutas populares de resistência ao projeto de transposição, mostrar a grave situação de degradação na vida do rio, para uma compreensão melhor no principal caso real e de relevância nacional sobre conflitos em torno da defesa, do uso e controle de águas no Brasil.

Percorremos a extensão do rio, que é de 2.700 quilômetros várias vezes, perfazendo mais de 15 mil quilômetros nesses seis anos. Nesse tempo, contarei e convivi com comunidades tradicionais, quilombolas, indígenas, ribeirinhos, sem terra, pescadores, trabalhadores rurais. Assim, fotografei e documentei suas lutas para defender o rio do veneno capitalista que contamina e usurpa suas águas, com suas mineradoras, barragens e monoculturas agroexportadoras que devastam criminosamente biomas importantes para a formação do São Francisco como o cerrado e a caatinga.

Além das margens do rio, também percorremos várias regiões por onde estão sendo construídos e passando os canais da transposição. Estivemos no Ceará, Rio Grande do Norte e Paraíba, onde procuramos mostrar e abordar o sertão de outra forma, um sertão em tom azul, azul de água, com uma quantidade enorme estocadas em grandes, médios e pequenos açudes espalhados pelo sertão, construídos ao longo do último século em nome do “combate à seca”. Aí foi possível revelar uma das principais críticas ao projeto de transposição: a de que a obra vai chover no molhado, vai levar água para onde já tem água, água essa que, se distribuída para o povo, seria suficiente para abastecer todos os usos, desfazendo o mito da falta dela no sertão.

Quero destacar que esse processo todo só foi possível com o importante apoio nas mais variadas formas de pessoas amigas, dos movimentos sociais, sindicatos, pastorais sociais, de profissionais jornalistas, tanto de Campinas-SP, como do povo da beira do rio e no sertão. Foi a solidariedade desse povo que me ajudou a compreender realidades distantes de nosso dia a dia e também entender melhor a luta de classes no Brasil. Antes de virar livro, essas fotos percorreram várias cidades da beira do rio, de outros estados e países e serviram para ilustrar reportagens e debates sobre o rio São Francisco.

IHU On-Line – Você é um operário fotógrafo. Que diferenças o seu olhar de “operário” ressalta sobre o povo e a vida do rio São Francisco?

João Zinclar – A fotografia é paixão antiga. Hoje consigo sobreviver dela, como free-lancer, a serviço da luta operária e popular, mas minha profissão primeira é operário metalúrgico. Trabalhei no chão de fábrica durante muitos anos, fui dirigente sindical da categoria, onde forjei minha consciência de classe e visão socialista de mundo.

Não existe neutralidade jornalística nessa história. Portanto, a visão que conduz o livro é a de uma postura classista e anticapitalista e que a luta do povo ribeirinho em defesa de sua sobrevivência, de seu trabalho e da qualidade da água de seu rio contribui, à sua maneira, no conflito mais geral contra o capital, no campo e na cidade, resistindo à nova fase do avanço predatório do capitalismo no campo brasileiro.

A diversidade das lutas dos povos que habitam o velho Chico, com indígenas e quilombolas enfrentando o poder econômico em disputas para retomar terras, pescadores na defesa da pesca artesanal, sem terra em luta pela reforma agrária e outras manifestações, deveria ter a devida atenção dos trabalhadores urbanos e suas organizações políticas.

IHU On-Line – O Rio São Francisco passa por um momento de conflito em função das obras da transposição. O que você viu sobre as obras? O que você ouviu do povo sobre isso?

João Zinclar – Entre 2005 e 2008, vários movimentos sociais e pessoas se colocaram contrários ao projeto. Pessoas se mobilizaram com as greves de fome de Dom Luiz Cappio, com as ocupações de barragens e dos canteiros das obras da transposição. Vários protestos foram realizados, bem como denúncias de arbitrariedades aos direitos humanos e alertas sobre os impactos ambientais para iniciar a obra. O governo triturou tudo isso e as obras iniciaram e, hoje, estão em andamento.

Algumas lutas recentes (como greves de trabalhadores das empreiteiras por melhorias salariais e reclamações contra as péssimas condições de trabalho) produziram uma redução nos ritmos das obras. Agora, as questões se colocam de outra maneira e nem por isso são menos importantes. A desinformação sobre o projeto e os impactos negativos sobre a vida das comunidades atingidas pela transposição na região receptora das águas do velho Chico é a regra. A máquina propagandística do governo é poderosa e isso tem enorme potencial desmobilizador. Os atingidos pelas obras da transposição têm tido grandes dificuldades em se articular. Reclamam dos valores recebidos e das compensações materiais pagas pelo governo, pois anos de trabalho não se contabilizam facilmente. Muitos deixam sua história de vida e seu trabalho em troca de valores irrisórios em sua tentativa de recomeçar tudo de novo em outras localidades, atingidas pela crescente valorização das terras em torno dos canais da transposição.

Há uma insatisfação grande com o enfraquecimento das economias locais e a destruição das bases de vida de pequenos agricultores. A oferta de emprego não cumpre o prometido: são temporários e poucos. As obras afetam os povos originários, que têm na terra um referencial cultural, de vida com outros valores, que não apenas econômicos, pois a construção do eixo norte devasta terras Trukás em Cabrobró-PE, e território Anacé no Ceará, o eixo leste ameaça território sagrado dos pipipã em Pernambuco.

Além disso, o debate em torno da revitalização do rio continua atual, uma vez que as iniciativas do governo pouco realizaram nesse aspecto, mantendo o mesmo padrão de degradação do rio que afeta duramente da qualidade de vida dos ribeirinhos. A controvérsia e a oposição ao projeto de transposição continuam, essa é uma questão mal resolvida, que terá desdobramentos futuros, sustentada na insatisfação popular, quando perceberem a contradição, além de ser a água mais cara do Brasil, ás águas da transposição não são para servir ao povo do sertão, como diz o discurso do governo.

IHU On-Line – Qual a importância de registrar o São Francisco e as águas do sertão nesse momento atual em que vivemos?

João Zinclar – Sempre que pensamos no sertão nordestino vem em nossa cabeça a imagem dramática de seca, da caatinga retorcida, de vida difícil, quase inviável. A imagem cunhada por Euclides da Cunha de que “O sertanejo é antes de tudo um forte” ilustra essa ideia. Só um forte é capaz de conviver com isso. No entanto, olhando com outra abordagem também real, existe um sertão com bastante água. A questão é que esta água é colocada majoritariamente a serviço dos interesses do capital e suas oligarquias, a água é apropriada privadamente. O atual modelo de desenvolvimento na região, com o agronegócio à frente, se apropria das riquezas naturais, de forma radical, na medida em que novas frentes de negócios vão se abrindo. Essa é a questão central, em minha opinião.

A natureza vem sendo constantemente privatizada, transformada em mercadoria. Esse processo não é novo, faz parte da natureza do capitalismo em todos os tempos. Hoje o controle sobre a água indica um novo patamar dessa disputa. A transposição é parte dessa apropriação privada das riquezas comuns. A água é um bem comum, não há vida sem água e hoje uma parte considerável da humanidade não tem acesso a este recurso. Eu posso escolher se compro um jeans novo ou não, um livro ou um celular, mas não posso optar por não consumir água. A transposição do São Francisco, a nova polêmica em torno da construção da Usina de Belo Monte, assim como a ocupação das margens dos rios e encostas, a proteção das nascentes são temas políticos, não apenas técnico e ambiental. A luta social dos povos atingidos por esse “desenvolvimento” precisa se articular num horizonte político mais amplo, capaz de resgatar o caráter de classe desse debate. Porque são as populações pobres e os trabalhadores que mais sofrem com os efeitos desse processo.

IHU On-Line – O que suas imagens revelam sobre a Alma do Velho Chico?

João Zinclar – As imagens captadas revelam a diversidade de um povo. Expressão de um Brasil contraditório e de luta. O povo ribeirinho traduz as lutas populares no Brasil. Muitas vezes desarticuladas, essas ações estão repletas de vida e inovação. Lutas que incorporam tradições seculares, povos indígenas, a religiosidade, a luta contra a opressão num momento em que elas assumem a vanguarda numa luta pela preservação dos bens comuns, não em oposição ao desenvolvimento, mas propondo pensar as questões: Qual desenvolvimento? E pra quem? Busquei captar essa relação entre um projeto “moderno” que se apropria dos bens coletivos em nome de um único desenvolvimento possível e um mundo que se constrói, pensando na preservação dos valores coletivos sem abrir mão de avançar por melhores condições de vida.

IHU On-Line – O que o São Francisco representa para o povo que vive em seu entorno?

João Zinclar – Representa a vida em todos os sentidos, sem chavão, o São Francisco é a sobrevivência de homens e mulheres que dependem de suas águas, contam com a potencialidade de sua biodiversidade para desenvolverem sua forma de economia independente, sua cultura de vida, amparados na pesca e na agricultura de vazante e familiar.

>Baixo retorno político (Fapesp)

>Especiais

2/2/2011

Por Fábio de Castro

Mais educação não se traduz automaticamente em mais democracia, segundo estudo realizado na USP. Entre 1989 e 2006, diminuiu a diferença entre a participação política dos mais e menos escolarizados (ABr)

Agência FAPESP – Na avaliação do senso comum, educação e politização andam de mãos dadas. Para a elite brasileira – de acordo com pesquisas de opinião –, o aumento da escolaridade da população tem o poder de gerar cidadãos que participam mais da vida política do país e que valorizam mais a democracia. Mas um novo estudo mostra que essa visão não corresponde à realidade.

A pesquisa de doutorado de Rogério Schlegel, defendida no Departamento de Ciência Política da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da Universidade de São Paulo (USP), utilizou análises estatísticas para interpretar os dados de pesquisas de opinião realizadas entre 1989 e 2006. O trabalho concluiu que a educação brasileira está trazendo ganhos decrescentes em termos políticos.

“O estudo mostrou que os cidadãos mais escolarizados já não se tornam tão participativos e democráticos como ocorria há duas décadas. O maior nível de escolaridade ainda diferencia os cidadãos, mas essa diferença encolheu muito em 20 anos – isto é, os retornos políticos da educação têm sido decrescentes no Brasil. Em alguns quesitos de participação e apoio à democracia, a diferença entre os mais e os menos escolarizados chega a ser inexistente”, disse Schlegel à Agência FAPESP.

A pesquisa de Schlegel foi orientada pelo professor José Álvaro Moisés, da FFLCH-USP, e integra o Projeto Temático “A Desconfiança do Cidadão nas Instituições Democráticas”, coordenado por Moisés e financiado pela FAPESP.

Segundo Schlegel, uma pesquisa de opinião coordenada em 2000 pela professora Elisa Reis, do Departamento de Sociologia da Universidade Federal do Rio de Janeiro (UFRJ), já mostrava que, na avaliação da elite brasileira, a baixa escolaridade é o maior entrave para a democracia no país.

“Por trás dessa ideia há um pressuposto de que a educação só tem impacto no comportamento político por meio da capacitação cognitiva – isto é, basta fornecer mais educação e as pessoas terão mais recursos para acompanhar a política, discutindo, lendo jornais e fazendo exigências. Mas na realidade há caminhos alternativos para a entrada nessa vida política. Os resultados do estudo indicam que não há uma relação linear entre obter mais acesso à educação e obter mais instrumentos para participar da democracia”, afirmou.

Foram analisados vários mecanismos capazes de explicar os retornos políticos decrescentes da escolarização. A hipótese mais plausível é que o fenômeno tenha sido causado pela queda na qualidade da educação brasileira.

“Ao falhar na capacitação cognitiva do indivíduo e na transmissão de conhecimentos, o sistema educacional brasileiro estaria deixando de dar as ferramentas que ajudam o cidadão a atuar na esfera política. O resultado é que o aumento do acesso ao ensino ou do volume de escolarização – em tempo passado na escola ou anos de estudo completados – não é acompanhado pelos ganhos esperados em matéria de comportamento político”, disse.

O estudo teve fundamento em quatro pesquisas de opinião realizadas pelo grupo ligado ao Projeto Temático, a primeira realizada logo após a redemocratização, em 1989, e a mais recente – financiada pela FAPESP –, em 2006.

A partir desses dados, Schlegel utilizou análises estatísticas para controlar as diversas variáveis sociodemográficas disponíveis e observar, de forma isolada, o efeito da escolaridade no comportamento do cidadão ao longo do tempo.

“Na sociologia econômica é comum o uso, por exemplo, do conceito de ‘retorno econômico da educação’ para avaliar até que ponto uma maior escolaridade pode se refletir em maior renda, ou em maior arrecadação de impostos. A partir desse conceito, o estudo trabalha com a ideia de ‘retorno político da educação’”, explicou.

Indiferença política

O retorno político foi avaliado por meio de diferentes quesitos, como participação, apoio aos princípios democráticos e confiança nas instituições. Os resultados mostraram que a distância entre mais e menos escolarizados caiu marcadamente em relação à demonstração de interesse por política, consumo de notícias sobre o tema e hábito de conversar sobre ele.

“Em alguns quesitos, o nível de escolaridade é praticamente indiferente. No caso da participação em partidos, sindicatos e associações de bairro, por exemplo, o envolvimento é igualmente baixo entre os menos e mais escolarizados”, disse Schlegel.

A maior perda de retorno político, durante os 17 anos do período analisado, deu-se na faixa do ensino médio – faixa de escolarização que teve a maior expansão de alunos nas últimas duas décadas.

“Na média, hoje não se diferencia alguém que se formou no ensino médio de um cidadão com fundamental incompleto, em termos de preferir a democracia como forma de governo ou rejeitar a concentração de poder nas mãos de um líder centralizador”, afirmou.

Em 1993, de acordo com o estudo, a chance de um universitário ser muito interessado em política era 3,6 vezes maior que a de alguém com o ensino fundamental incompleto. Em 2006, as chances se reduziram para 1,6. “A diferença entre o universitário e alguém sem nenhum diploma escolar era enorme, em termos de interesse na política. Agora, a diferença ainda existe, mas é muito menor”, ressaltou Schegel.

Em 1989, uma pessoa com o segundo grau completo tinha 66% mais chance de preferir a democracia a qualquer outro regime, em comparação com alguém sem diploma do ensino fundamental. “Em 2006, já não havia mais diferença estatística entre os dois públicos. Nesse quesito, havia no passado uma distância que desapareceu entre os diferentes níveis de escolaridade em termos de comportamento político”, disse.

A confiança nas instituições tem uma relação especial com a escolaridade. Em 1993, quem tinha mais escolaridade confiava mais nos partidos que em 2006. Mas os dados não permitem concluir se houve de fato um aumento ou diminuição da confiança.

“Tratava-se de um momento em que os partidos estavam em reconstrução e havia uma noção generalizada de que eles eram o caminho para construir a democracia. Em 2006, essa noção já havia sido desfeita pelos partidos de aluguel e isso pode ter desencadeado a maior desconfiança dos mais escolarizados”, explicou.

Para Schlegel, os resultados do estudo, ao identificar que a escolarização vem trazendo ganhos decrescentes em termos políticos, desaconselham apostas na educação como panaceia capaz de promover uma cidadania superior e fazer superar os déficits democráticos no Brasil.

“A educação importa, mas sozinha não resolve. Os efeitos benéficos da escolarização para a convivência democrática precisam de ensino de qualidade para todos para se concretizarem plenamente”, disse.

>Cinema, psicoses e neurônios reprogramados (CH)

>
Em sua coluna de estreia, o biólogo Stevens Rehen aproveita o lançamento do filme ‘Cisne Negro’ no Brasil para falar das origens, desenvolvimento e efeitos da esquizofrenia, doença que atinge 1% da população mundial.

Por: Stevens Rehen
Publicado em 28/01/2011 | Atualizado em 28/01/2011

Natalie Portman em ‘Cisne Negro’. O filme, que estreia no Brasil no dia 4 de fevereiro, fala sobre situações que podem desencadear psicoses, transtornos mentais caracterizados por deterioração afetiva e perda do contato com a realidade. (foto: divulgação)

No próximo dia 4 de fevereiro estreia no Brasil Cisne Negro. Com seis indicações ao Oscar, o filme retrata as demandas físicas e emocionais que as bailarinas enfrentam no competitivo mundo do balé profissional.

O enredo do longa-metragem, dirigido por Darren Aronofsky, gira em torno do primeiro surto psicótico de Nina (Natalie Portman), dançarina que luta para se firmar como figura central de uma companhia de balé que ensaia uma nova versão do Lago dos Cisnes.

Cisne Negro é um retrato cinematográfico sobre situações que podem desencadear psicoses e, a reboque, suscita o interesse dos espectadores a respeito da esquizofrenia, um dos mais misteriosos transtornos mentais.

A incidência da esquizofrenia na população mundial é de 1%, com homens e mulheres igualmente afetados. Há mais pacientes esquizofrênicos do que doentes com Alzheimer ou esclerose múltipla, por exemplo.

Há mais pacientes esquizofrênicos do que doentes com Alzheimer ou esclerose múltipla

Os prejuízos sociais decorrentes do desenvolvimento da esquizofrenia são bastante significativos. A doença é caracterizada por delírios e alucinações que levam a uma deterioração afetiva e perda do contato com a realidade.

Os primeiros sintomas surgem na adolescência e começo da vida adulta. Há um forte componente genético associado à enfermidade, que, entretanto, não explica a maioria dos casos. Infecções virais durante o período perinatal, desnutrição materna e disfunções do sistema imunológico também são fatores de risco.

Atualmente, é considerada uma doença do desenvolvimento, associada à má formação do sistema nervoso. Apesar de não existir uma teoria de consenso capaz de explicar suas causas, há indícios de que o estresse oxidativo tenha papel fundamental na geração da patologia.

Entre o bem e o mal

O estresse oxidativo ocorre quando as defesas antioxidantes de nosso corpo falham em controlar as espécies reativas de oxigênio geradas pelo metabolismo normal de nossas células. Para entendermos como essa condição biológica está associada aos transtornos mentais, é preciso que conheçamos o “paradoxo do oxigênio”.

O oxigênio desempenha papéis contraditórios. É essencial para a vida e, ao mesmo tempo, pode ser tóxico. A molécula de oxigênio, formada por dois átomos, é quebrada durante a respiração, para a conversão de nutrientes em energia. Durante esse processo, subprodutos conhecidos como espécies reativas de oxigênio são gerados. Aí é que está o problema.

Estrutura do ácido ascórbico, um conhecido antioxidante. Disfunções no sistema antioxidante estão relacionadas ao desenvolvimento da esquizofrenia. (foto: Wikimedia Commons)

Espécies reativas de oxigênio são capazes de interferir em processos inflamatórios e na diferenciação de neurônios, mas estão principalmente relacionadas a modificações deletérias de macromoléculas como ácidos nucleicos, proteínas e lipídeos.

Infelizmente, em pacientes com esquizofrenia, elementos essenciais que normalmente reagem ao estresse oxidativo encontram-se comprometidos. Há relatos de disfunção do sistema antioxidante nesses indivíduos e de pequenas alterações em seus genes que reduzem a capacidade de se protegerem da ação danosa dos radicais livres.

Estudos em animais e relatos de pacientes sugerem, inclusive, que o aumento induzido nos níveis de radicais livres causa alterações cognitivas em indivíduos saudáveis e exacerbam psicoses em pacientes esquizofrênicos.

Cérebro frágil

Curiosamente, o hábito de fumar é até três vezes mais comum em pacientes esquizofrênicos do que na população em geral. Há indícios de que tal hábito seja uma tentativa inconsciente de compensar a carência de receptores para nicotina em seus cérebros. Por outro lado, o fumo reduz drasticamente os níveis de antioxidantes, comprometendo mais ainda a capacidade desses pacientes em lidar com o acúmulo de espécies reativas de oxigênio.

Devido ao alto consumo de oxigênio, o cérebro é mais vulnerável ao estresse oxidativo do que outros órgãos do corpo. Alterações de expressão gênica e de proteínas causadas por radicais livres comprometem a plasticidade neural e o funcionamento do sistema nervoso.

Já há antioxidantes que previnem ou aliviam distúrbios associados à esquizofrenia

Em concordância com essas observações, há uma relação entre a eficácia de sistemas antioxidantes e a severidade dos sintomas da esquizofrenia, o que pode levar ao desenvolvimento de novos medicamentos.

Já há, inclusive, descrições sobre antioxidantes que previnem ou aliviam distúrbios associados à doença. Sua utilização aumentaria a eficácia dos antipsicóticos, melhorando o quadro clínico de pacientes com transtornos mentais.

Múltiplo impacto

De fato, há evidências que todo o metabolismo energético esteja comprometido nessas pessoas. As mitocôndrias, organelas essenciais à respiração celular, também parecem alteradas nos pacientes esquizofrênicos.

Para a geração de energia, além de oxigênio, é necessário açúcar. Em 1919, F.H. Kooy descreveu um aumento na incidência de hiperglicemia em pacientes esquizofrênicos, sugerindo que comportamentos depressivos influenciariam os níveis de glicose no sangue.

Mais recentemente, pôde-se comprovar uma maior prevalência de diabetes com resistência à insulina nesses pacientes. Há novas pesquisas avaliando a aplicação de medicamentos antidiabéticos como co-fatores no tratamento da esquizofrenia.

As principais evidências de alterações bioquímicas dos sistemas antioxidantes associadas à esquizofrenia foram obtidas a partir de fragmentos cerebrais de pacientes já falecidos.

O estabelecimento de novos modelos de estudo, como, por exemplo, neurônios reprogramados a partir de células da pele de pacientes esquizofrênicos, deverá contribuir para um melhor entendimento sobre a influência do estresse oxidativo no desenvolvimento do sistema nervoso desses indivíduos.

Neurônios reprogramados a partir de células da pele (na foto) de pacientes esquizofrênicos podem ajudar a explicar a influência do estresse oxidativo no desenvolvimento do sistema nervoso desses indivíduos. (foto: Bruna Paulsen/LaNCE-UFRJ)

Sem revelar mais detalhes sobre o filme, o surto psicótico da bailarina Nina deve ter sido provocado por uma combinação de herança genética, abuso na infância, estresse ambiental e má alimentação.

Apesar de ainda serem necessários muitos estudos para comprovar o papel das espécies reativas de oxigênios como agente causador da esquizofrenia, cabe dizer que Nina deveria ter se preocupado um pouco mais com a dieta, optando por alimentos saudáveis, principalmente numa fase da vida de estresse ambiental tão extremo. Melhor prevenir do que remediar.

Stevens Rehen
Instituto de Ciências Biomédicas
Universidade Federal do Rio de Janeiro

>Um céu de probabilidades (O Povo)

>
O cearense carrega uma memória cultural, muitas vezes inconsciente, sobre a escassez de água que afetou as famílias no passado. Em entrevista ao Vida&Arte Cultura, o professor da UFRJ, Renzo Taddei, traça aspectos sobre a compreensão do clima e como isso reflete no cidadão

05.02.2011| 17:00

Em Quixadá, os profetas da chuva fazem suas previsões todos os anos (DÁRIO GABRIEL, EM 9/1/2010)

Diante dos ciclos da natureza, profetas preveem o futuro. Os cientistas tornam públicas as medições matemáticas e físicas que ditam a probabilidade de nublar ou fazer sol. Mediadas pela imprensa, as previsões meteorológicas afetam o cidadão e sua maneira de perceber o clima e a cidade. Professor-adjunto da Escola de Comunicação da Universidade Federal do Rio de Janeiro (UFRJ), Renzo Taddei tem relacionamento íntimo com o semi-árido cearense.

Pesquisador há quase uma década das manifestações populares na previsão do clima, em especial na atuação dos profetas da chuva de Quixadá, Renzo vez por outra vem à Fortaleza ministrar palestras, participar de encontros e pesquisas sobre o tema. Na última quarta, o professor recebeu a reportagem numa das salas da Funceme. Na entrevista que você lê a seguir, o pesquisador chama a atenção para alertas globais, como o aquecimento climático. “Já se percebeu que o tom alarmista de catástrofe iminente raramente produz algum efeito positivo. O que produz é uma sensação de impotência geral, como se não há nada que se possa fazer”. (Elisa Parente)

O POVO – Como é possível entender o clima para além do efeito atmosférico?
Renzo Taddei – A questão do clima no Ceará é muito interessante porque, ano passado, segundo a Seplag (Secretaria do Planejamento e Gestão), a economia cearense cresceu 8%. O que é um número incrível. Em 2010, tivemos o pior ano em chuvas nos últimos 30 anos. Foi a pior seca e um ano de bom crescimento para o Estado. Claramente, a agricultura contribui pouco para a economia no Ceará e, cada vez menos, as pessoas se sentem terrivelmente vulneráveis com relação ao clima. Por vários fatores, inclusive por causa dos programas sociais do governo Lula, pelas melhorias de infra-estrutura dos últimos governos do Ceará. Ou seja, a vida está um pouco mais fácil.

OP – De que maneira isto afeta na organização da cidade?
Renzo – Existiu uma estatística onde mais da metade da população acima de 40, 50 anos tinha nascido fora da Capital. Então a presença do imaginário rural é muito forte. Esse é um dos elementos do peso psicológico da seca. Até quem não tem nada a ver com agricultura, se alegra ao ver chuva. A história do bonito pra chover traz uma continuidade e uma ruptura, principalmente com relação às gerações mais novas que nasceram em Fortaleza. Entrevistei um agrônomo que me disse ter o hábito de desligar a água enquanto se ensaboava no chuveiro. E o filho dele perguntou por que ele desligava a água se o banho não tinha acabado. Ele se deu conta de que a geração mais nova sequer tem memória a respeito da escassez de água do seu Estado. A última grande crise em Fortaleza foi 1993, na construção do Canal do Trabalhador. Fortaleza é a única capital encravada no semi-árido, mesmo assim as pessoas não têm essa consciência. Você anda por Fortaleza e vê que cada lançamento imobiliário precisa ter um parque aquático, não é nem piscina. É o uso arquitetônico e recreativo da água. Só se compara a Las Vegas, que é outro lugar de abundância irresponsável encravado no deserto. Então as pessoas não têm experiência da falta de água, mas têm uma herança cultural de hipervalorização dela. Fortaleza é orgulhosa de sua pujança e gasta como novo rico. É um lance que tem a ver com cultura. Enquanto isso, o Canal da Integração está trazendo um mundo de água e a transposição do Rio São Francisco vai trazer ainda mais para Fortaleza não ter problema pelos próximos 30 anos.

OP – Mas isso também pode ter efeito contrário.
Renzo – Isso é perigoso porque, a longo prazo, não dá para achar que é sustentável você consumir. O grande debate da transposição, da construção do Castanhão e do Canal da Integração é esse. Está sempre aumentando a infra-estrutura que acumula água ao invés de educar a população para consumir menos. Não que dê para fazer os dois ao mesmo tempo, mas o fato é que os últimos governos têm preferido aumentar a oferta de água.

OP – Uma das linhas da sua pesquisa centra foco na antropologia da incerteza e do futuro. De que maneira isto está ligado ao estudo do clima?
Renzo – Isto talvez seja a parte mais desafiadora de entender qual o papel que o clima tem na nossa vida cotidiana. Porque a meteorologia rapidamente se deu conta de que a atmosfera é algo muito complexo. Agora a estação chuvosa no Ceará é algo muito mais complicado. Porque o agricultor quer saber hoje se vai ter chuva em maio. Não tem nenhum radar que mostre isso, mas a meteorologia usa a física e a matemática criando modelos que simulam no computador a maneira como funciona a natureza. Mas isso tem limitações. Por isso se fala em termos de probabilidade, porque às vezes uma coisa pequena pode mudar tudo. Então a meteorologia tem que conviver com essa relação complicada com a sociedade.

OP – Porque é tão difícil lidar com a incerteza?
Renzo – Tem inúmeras pesquisas que mostram que temos dificuldade tremenda de reter isso. A informação probabilística demanda um esforço cognitivo muito grande. É realmente complexo. É como se fôssemos programados mentalmente para não operar com probabilidade e para fingir que tudo é certo ou errado. Temos essa tendência a polarizar as coisas. E isso influencia a relação da sociedade com o clima. Veja, por exemplo, a estratégia dos agricultores. O agricultor familiar está o tempo inteiro prestando atenção em previsões do clima, só que não usa nenhuma. Ele espera o solo ficar úmido numa certa profundidade, para depositar a semente. Só que as primeiras chuvas da estação são fracas, o broto morre e ele precisa começar tudo de novo.

OP – A incerteza é parte da natureza.
Renzo – Acompanho os profetas da chuva desde 2002. É muito recorrente que alguns deles se digam observadores da natureza, e não profetas. Ser profeta tem uma carga simbólica religiosa muito forte e é um peso muito grande pra eles carregarem nas costas. Então eles fazem as previsões e, no final, dizem que quem sabe mesmo é Deus. O interessante é que, em termos de conteúdo, eles dizem exatamente o que a Funceme diz em termos de probabilidade. Existe uma incerteza envolvida. Então as pessoas aceitam, mas não dão à ciência o direito de viver as incertezas.

OP – Como a meteorologia figura nesta história?
Renzo – Uma parte dessa confusão tem a ver com a história da meteorologia no Ceará. Ela começou com muita fanfarronice, voando de avião, fazendo uma pulverização nas nuvens com sal de prata pra fazer chover mais rápido. Só que você percebe que o spray não produz chuva, só apressa. Então essa tecnologia sempre foi muito controvertida. Para uma mentalidade do sertão, isso equivaleria dizer que o homem da cidade se acreditava com o poder de produzir chuva. E tanto é assim que o Patativa do Assaré fez o poema Ao dotô do avião, onde ele coloca vários elementos importantes. O homem se adequa ao ciclo da natureza e não vice-versa. No Ceará, o clima sempre esteve ligado à religião. Então era desrespeitoso e absurdo achar que o cidadão iria produzir chuva.

OP – As pessoas já absorveram a gravidade do aquecimento global?
Renzo – Não sei se, algum dia, entenderemos o aquecimento global. A natureza funciona em ciclos. O dia e a noite, as estações do ano. São ciclos que, por serem curtos, a gente consegue entender bem. Só que existem aqueles que são muito longos. Costuma-se dizer que, aqui no semi-árido, existem ciclos onde duas ou três décadas são mais secas, depois outras mais chuvosas. Pode ser que exista um ciclo bem mais longo que a gente não tem nem ideia. Se o futuro provar que estamos errados, tudo bem, fizemos o que tinha de ser feito.

OP – Então existe uma visão positiva para o futuro?
Renzo – A ciência é feita por incertezas, ela só caminha porque ensina o que não sabe. Mas existe o que chamam de princípio precaucionário. Que diz que você precisa medir o quanto você perde se tiver certo e não fazer nada e o quanto perde se estiver errado e fizer muita coisa. Então imagina que não existe aquecimento global nenhum, só que tomamos as atitudes necessárias. O que a gente perde? Existe uma perda em termos de crescimento econômico. Agora a outra opção é que existe um aquecimento global, ele está acontecendo, tem a ver com produção industrial, mas a gente assume que não está acontecendo e não faz nada. O que perdemos no futuro? Várias pessoas dizem que não fazer nada pode ter um custo muito alto. A chance de estarmos certos é grande e mesmo que estejamos errados, tem como recuperar. Existe ainda um outro lado em que talvez não tenhamos como recuperar. Talvez a gente de fato passe por uma sequência grande de eventos extremos. O lance do aquecimento climático não tem a ver com o mundo ficar mais quente todo dia. O ponto é que eventos extremos, como chuva, furacão, tendam a ser mais frequentes. O nível do mar já está subindo, algumas nações já começam a se transferir. E voltamos à história de Fortaleza ser a Las Vegas do semi-árido. Não dá pra falar em cortar a emissão de carbono sem reduzir atividade industrial. E não podemos falar de aquecimento global sem redução de consumo. E como faz para a população da Aldeota parar de consumir tanto? Nos meus momentos mais pessimistas, eu penso que a humanidade só consegue se re-programar mentalmente em escala continental numa experiência de quase morte. O que significa uma imensa catástrofe. E aí todo mundo para e se repensa. Mas eu sou professor e tenho que acreditar que a educação tem o seu valor.

Dr. Google e seus bilhões de pacientes (Ciência Hoje)

Uma análise mais cuidadosa da relação de doentes com a internet leva a crer que médicos e cientistas precisam aprender a lidar com a nova geração de enfermos.

Por: Thiago Camelo

Publicado em 02/02/2011 | Atualizado em 03/02/2011

Dr. Google e seus bilhões de pacientes
Pintura do século 19 retrata visita de médico a casa do paciente. A profissão está longe, bem longe, de ser questionada. Mas muitas pessoas valem-se, atualmente, da pesquisa na internet para entender melhor algumas doenças. (Wikimedia Commons)

Regina Elizabeth Bisaglia, em mais uma consulta de rotina, indicava ao paciente a melhor maneira de cuidar da pressão. Ao mesmo tempo, observava a expressão introspectiva do homem a sua frente. A cardiologista não entendia ao certo a desconfiança em seu olhar, mas começava a presumir o motivo. Logo, entenderia o porquê.

Depois de uma explicação um pouco mais técnica, o senhor abriu um sorriso e o olhar tornou-se mais afável. A médica acabara de falar o que o paciente queria ouvir e, por isso, passava a ser merecedora de sua confiança.

“Entendi. O senhor andou consultando o doutor Google, certo?”, disse, de modo espirituoso, Bisaglia.

A médica atesta: muitas vezes os pacientes chegam ao consultório com o diagnóstico já pronto e buscam apenas uma confirmação. Ou mais: vão ao médico dispostos a testar e aprovar (ou não) o especialista.

“Não adianta os médicos reclamarem. Os pacientes vão à internet pesquisar e isso é um caminho sem volta. Informação errada existe em todos os meios, mas eu diria que muitas vezes é interessante que a pessoa procure se informar melhor”, diz a cardiologista, com mais de 30 anos de profissão.

“Há momentos em que o paciente não confia no que o médico diz ou se faz de desentendido. Nessas horas, é muito importante que ele perceba que existem mais pessoas falando a mesma coisa e passando pelo mesmo problema e que, portanto, é fundamental se cuidar. Nada melhor do que a conversa na rede para isso”, completa a médica.

Discussão antiga

Não é de hoje que a questão do ‘doutor Google’ e do ‘paciente expert‘ é debatida. Mas se antes a maioria dos argumentos pendia a favor dos médicos e contra a pesquisa dos leigos na área – sob o medo compreensível da automedicação ou dá má informação –, agora o viés da conversa caminha para um olhar mais relativista. Estudos sobre o assunto já propõem, inclusive, que os médicos tenham na sua formação uma espécie de aula especial para lidar com os pacientes internautas.

“Médicos e pesquisadores precisam estar cientes de que a informação está lá fora e que os pacientes estão tentando se educar da melhor forma possível”, diz, em conversa por e-mail, a neurocientista norte-americana Katie Moisse.

A cientista também é repórter da Scientific American e escreveu, na edição de fevereiro da revista, um artigo que fala justamente sobre a tríade médico-paciente-internet. No texto, Moisse conta a história do cirurgião vascular Paulo Zamboni, que no final de 2009 relatou um experimento que prometia ajudar os portadores de esclerose múltipla. A questão: Zamboni estava no início da pesquisa e não tinha, até o momento, feito testes rigorosos o suficiente para colocar sua técnica em prática.

Em outros tempos, diz Moisse, poucas pessoas teriam acesso ao estudo. Não foi, naturalmente, o que aconteceu com o cirurgião, que se viu pressionado por grupos de pacientes e seus familiares para disponibilizar, o quanto antes, o procedimento desenvolvido por ele.

Esse fenômeno também não é recente. O primeiro ‘motim’ de um grupo de doentes para que resultados de pesquisas fossem liberados e aplicados rapidamente é amplamente conhecido na literatura médica: na década de 1980, os infectados pelo vírus da Aids não se conformavam com a ideia de que, enquanto pacientes morriam aos milhares, poucos tinham acesso aos primeiros medicamentos (à altura, ainda em fase de teste).

Um verdadeiro grupo de ativistas, alguns com e outros sem a doença, formou-se e, se a relação entre médico e paciente mudou desde então, muito se deve a esses manifestantes.

Novo fenômeno

Hoje, a internet propicia a formação de grupos sobre não apenas uma, mas várias doenças: salas de discussão, fóruns e páginas sobre as mais diversas patologias. Um dos sites mais conhecidos é o Patients like me (Pacientes como eu, em português), uma rede social com quase 50 mil pessoas que reúne pacientes com os mais diversos problemas. O objetivo, como a maioria dos grupos, é o de trocar informação sobre doenças e, também, encontrar alento e apoio naqueles que partilham o mesmo sofrimento.

“A internet certamente faz do mundo um lugar menor. É uma oportunidade maravilhosa para as pessoas compartilharem ideias. Algumas redes de pacientes usam a internet para coletar dados e, até mesmo, publicá-los em periódicos revisados por pares”, conta Moisse.

Em alguns casos, os portais sobre doenças – sejam elas nada letais como a psoríase ou extremamente perigosas como a hepatite C – podem ajudar o paciente a se inteirar mais sobre a doença que, anteriormente, desconhecia.

“A informação disponível na internet pode trabalhar a favor da saúde, como o caso de uma pessoa que descobre que a sua timidez excessiva pode ser na verdade um quadro de transtorno de ansiedade, um transtorno psiquiátrico que tem tratamentos de eficácia comprovada”, diz o psiquiatra Rafael Freire.

É a mesma linha defendida pelo biólogo e neurocientista Daniel Cadilhe, responsável pela mediação entre o leitor-paciente e o portal do Laboratório Nacional de Células-tronco Embrionárias.

“No Orkut há uma comunidade com quase 26 mil membros sobre o assunto [células-tronco]. Chegam perguntas diariamente sobre possibilidades de tratamentos utilizando o que estudamos.

Tentamos responder da forma mais clara, realista e responsável possível, sempre passando a informação verdadeira ou indicando quem poderá ajudar a tirar a dúvida”, explica Cadilhe, absolutamente ciente do reboliço que causam as palavras ‘células-tronco embrionárias’.

A grande maioria dos especialistas, como era de se esperar, dá o mesmo conselho para o paciente na hora de pesquisar e se juntar a grupos na internet: seja responsável, busque as melhores referências e procure saber quem está dando a informação. E ainda: lembre-se de que nem sempre o que se deseja ler/ouvir é o diagnóstico correto.

Como diz, com certo humor, a cardiologista Regina Elizabeth Bisaglia, a primeira busca na internet pode ser a mais simplória: “A pesquisa mais importante na rede é o nome de um bom médico para se consultar”.

Thiago Camelo
Ciência Hoje On-line

>Amazônia teve pior seca em cem anos (FSP, JC, Fapesp)

>
JC e-mail 4193, de 04 de Fevereiro de 2011

Árvores mortas pela seca de 2010 podem liberar quantidade de CO2 semelhante às emissões dos EUA, diz estudo

A seca de 2010 da Amazônia foi a pior dos últimos cem anos. E a quantidade de CO2 emitido pelas árvores mortas pode ser parecida com as emissões dos EUA.

As constatações são de estudiosos britânicos (da Universidade de Leeds) e brasileiros, do Ipam (Instituto de Pesquisa Ambiental da Amazônia). Eles publicaram um artigo na revista “Science”.

O grupo de pesquisadores, liderado pelo britânico Simon Lewis, mostrou que a seca de 2010 foi mais intensa e afetou uma área maior que a estiagem de 2005 -até então considerada recorde em várias décadas.

No ano passado, uma área de 3 milhões km2 foi atingida pela estiagem, contra 1,9 milhão km2 em 2005.

Os cientistas fizeram um cálculo do desvio da média de chuvas comuns nas estações secas da Amazônia (chamado de desvio padrão).

“A intensidade da seca foi maior em 2010 em relação à média”, explica o biólogo Paulo Brando, do Ipam, um dos autores do trabalho.

A segunda parte do estudo, explica ele, verificou quais as consequências dessa seca do ponto de vista dos estoques de carbono. Aí vem a outra má notícia: com as secas, a floresta emitirá mais CO2 do que absorverá.

Os pesquisadores relacionaram os dados de seca de 2010 com o crescimento das árvores (a partir de dados de campo coletados em 2005).

A conclusão foi que a seca do ano passado pode emitir 5 bilhões de toneladas de CO2 para a atmosfera em 2010 e nos próximos anos. Isso não acontece de uma vez, já que a decomposição das árvores mortas é um processo lento.

Para se ter uma ideia do que isso significa: a emissão da queima de combustíveis fósseis dos EUA é de 5,4 bilhões de toneladas por ano. Em condições “normais”, estima-se que a Amazônia absorva 1,5 bilhão de toneladas de CO2 da atmosfera.

“A seca de 2010 talvez tenha matado as árvores que já estavam vulneráveis por causa de 2005”, explica Brando.

“Pode ser que a floresta se recupere, mas ainda não fomos para campo medir. Ainda temos muito trabalho de campo pela frente”, diz.

Para o climatologista José Marengo, do Inpe (Instituto Nacional de Pesquisas Espaciais), é preciso analisar os dados com cuidado.

“Reduzimos o desmatamento em cinco anos, mas um fenômeno natural deixou nossa absorção de CO2 na estaca zero. Se esses cálculos não forem bem interpretados, poderão ser usados a favor do desmatamento”, diz.

Marengo e sua equipe já mostraram que a seca de 2010 reduziu mais os níveis dos rios amazônicos que a estiagem anterior, de 2005.
(Sabine Righetti)
(Folha de SP, 4/2)

* * *

Divulgação Científica
Amazônia mais seca
4/2/2011

Em artigo na Science, cientistas do Brasil e do exterior destacam que seca de 2010 na Floresta Amazônica foi ainda pior do que a de 2005, que havia sido considerado evento único no século.


Agência FAPESP – Em 2005, a Floresta Amazônica passou por uma seca tão severa que foi classificada como um fenômeno raro, dos que costumam ocorrer uma vez a cada cem anos. Entretanto, apenas cinco anos depois a região teve uma seca ainda mais forte.

Segundo estudo feito por cientistas do Brasil e do Reino Unido, publicado nesta sexta-feira (4/2) na revista Science, em 2010 a maior floresta tropical do mundo teve ainda menos chuvas do que em 2005. Como secas severas são danosas à vegetação, menos carbono foi capturado no ano passado.

Paulo Brando e Daniel Nepstead, do Instituto de Pesquisa Ambiental da Amazônia, e colegas analisaram dados climáticos, pluviométricos e de perda de vegetação para concluir a repetição do “evento único no século”.

Segundo eles, a Floresta Amazônica costuma atuar fortemente no sequestro de carbono atmosférico, mas secas podem revertar essa característica. Em 2005, estima-se que a morte das árvores resultante da seca tenha promovido a liberação, nos anos seguintes, de cerca de 5 bilhões de toneladas de dióxido de carbono na atmosfera. Em um ano normal, a floresta sequestra cerca de 1,5 bilhão de toneladas de CO2.

Para efeito de comparação, o valor é quase toda a emissão de CO2 a partir de combustíveis fósseis nos Estados Unidos em 2009. Com mais árvores tendo morrido em 2010 do que em 2005, os cientistas destacam que muito mais carbono permaneceu na atmosfera e mais de 5 bilhões de toneladas ainda serão lançados em decorrência da morte de árvores.

Os autores ainda vão estimar o impacto da vegetação perdida em 2010 e apontam que a seca de 2005 pode ter impactado na gravidade da estiagem cinco anos depois.

Os resultados indicam que secas semelhantes e repetidas na região poderão ter impacto importante no ciclo global de carbono e, por consequência, no clima terrestre. Se tais secas intensas se tornarem frequentes, apontam os autores, os dias da Amazônia como equilibrador natural das emissões de carbono promovidas pelo homem podem estar ameaçados.

O artigo The 2010 Amazon Drought (doi:10.1126/science.1200807), de Simon Lewis e outros, pode ser lido por assinantes da Science em http://www.sciencemag.org.

>Água do rio São Francisco será a mais cara do país (FSP)

>
SOFIA FERNANDES
DE BRASÍLIA
22/11/2010  08h14

Da torneira do nordestino atendido pela transposição do rio São Francisco vai pingar a água mais cara do país.

O Conselho Gestor do Projeto de Integração do São Francisco avalia cobrar dos Estados atendidos pela obra R$ 0,13 por mil litros de água.

O dinheiro será recolhido pela Agnes, estatal em gestação na Casa Civil. A empresa vai gerenciar as operações da transposição do rio e a distribuição da água para as previstas 12 milhões de pessoas beneficiadas.

O preço médio cobrado em outras bacias hidrográficas pelo uso da água é de R$ 0,01 a R$ 0,02 por mil litros. A Sabesp, por exemplo, paga R$ 0,015 ao comitê gestor da bacia do rio Piracicaba, fonte de metade da água consumida na cidade de São Paulo.

COMPLEXIDADE

O valor mais elevado, afirma o governo, se deve à complexidade do projeto de transposição e ainda porque a Agnes será a responsável pela captação e pelo bombeamento da água.

No entanto, os quatro Estados envolvidos (Pernambuco, Paraíba, Rio Grande do Norte e Ceará) terão de investir em obras internas para dar capilaridade à rede de água e ainda precisarão pagar uma taxa fixa à Agnes, provavelmente mensal.

Em construção, os canais para a transposição do rio São Francisco têm 25 metros de largura, 5 metros de profundidade e 622 quilômetros de extensão, somando os dois eixos.

O porte das obras e os obstáculos naturais, como a Serra da Borborema, que vai de Alagoas ao Rio Grande do Norte, explicaria o alto custo de transportar a água no semiárido nordestino. Para isso, serão necessários potentes mecanismos de bombeamento.

Editoria de Arte/Folhapress

O governo não diz se haverá mecanismo para amortizar o custo do consumidor final nos quatros Estados.

Em teoria, as obras do São Francisco têm um foco prioritário, que são os pequenos agricultores das terras secas do sertão e do agreste nordestinos.

O Ministério da Integração, responsável pelo empreendimento, afirma que o assunto está em fase de análise e de debates com os Estados receptores.

Para que o projeto seja viável, é possível que os Estados promovam subsídios cruzados, aumentando as tarifas de grandes centros urbanos que não receberão as águas da transposição do Velho Chico, como Recife.

A Agnes terá de apresentar um relatório de custos, explicando os motivos para o elevado preço da água.

Essa tarifa deverá cobrir os gastos do sistema de transposição em funcionamento, nem mais nem menos.

“Temos de avaliar a planilha de custos da agência para saber se o preço está certo. A tarifa deve cobrir os custos de manutenção e operação do sistema”, diz Patrick Thomás, gerente de cobrança pelo uso da água da Ana (Agência Nacional de Águas).

Um dos maiores críticos do projeto, o pesquisador João Suassuna, da Fundação Joaquim Nabuco, acha difícil que o agricultor das áreas atendidas pela transposição consiga pagar essa conta.

“Os colonos do Vale do São Francisco hoje já estão com dificuldades para pagar por uma água a R$ 0,02. Imagine com esse preço”, afirma o Suassuna.

Mas o pesquisador vê outro problema. O porte das obras e o volume de água deixam patente que o propósito da transposição não é matar a sede e a fome de quem vive na seca.

A mira, afirma, está no agronegócio para exportação, a criação de camarão e o abastecimento de indústrias.

Estados fazem lobby por sede da nova estatal

DE BRASÍLIA

A transposição do rio São Francisco, uma das vedetes do PAC (Programa de Aceleração do Crescimento), suscitou a criação de uma nova estatal, a Agnes (Águas Integradas do Nordeste Setentrional).

O governo estuda a criação da empresa há um ano, o que deve ocorrer por meio de projeto de lei ou medida provisória. Ainda não há data para o envio do texto ao Congresso.

No entanto, a corrida para sediar a estatal já esquenta entre os Estados.

A Paraíba faz lobby forte para que Campina Grande receba a empresa, que terá sua receita abastecida com o dinheiro pago pelo uso da água, com as tarifas fixas pagas pelos Estados e provavelmente com recursos da União.

O secretário de Meio Ambiente, Recursos Hídricos e Ciência e Tecnologia do Estado, Francisco Sarmento, diz que a cidade fica exatamente no centro das obras, simbolismo que a credencia a ser sede.

Outro motivo: a Paraíba não é sede de nenhuma grande empresa do governo. Pernambuco já tem a Sudene, em Recife, e o Ceará já conta com o Banco do Nordeste, com sede em Fortaleza.

“É um argumento suplementar”, diz Sarmento.

>Estudo europeu aperfeiçoará modelos para predizer o clima (FSP, JC)

>
JC e-mail 4187, de 27 de Janeiro de 2011

“É importante registrar que o estudo não abala a constatação de que a Groenlândia está, de qualquer forma, perdendo mais gelo do que acumula”

Marcelo Leite é jornalista. Artigo publicado na “Folha de SP”:

O artigo sobre geleiras da Groenlândia na atual edição da “Nature” constitui um bom exemplo das complexidades envolvidas nas previsões climáticas.

O trabalho científico é um exemplo, também, da dificuldade de apresentar ao público resultados incrementais da pesquisa.

À primeira vista, o estudo tira força da ideia de que o aquecimento global esteja acelerando a contribuição do gelo groenlandês para a elevação do nível dos mares.

O raciocínio era plausível. Com a atmosfera mais quente, ocorre mais derretimento na superfície. O líquido adicional fica disponível para penetrar por fendas até a base da geleira e lubrificar seu escorregamento.

Agora se sabe, graças ao grupo britânico e belga, que o fenômeno comporta um efeito de limiar.

Até um certo ponto de aquecimento, o derretimento superficial provoca aceleração. A partir desse ponto, a água passa a escoar melhor, sem lubrificar a base da geleira. Menos blocos gigantes de desprendem.

Isso não significa que seja nulo o efeito sobre a geleira groenlandesa. Algum aumento de temperatura de fato acelera sua ruptura.

O que foi posto em dúvida pelo estudo -até que novas pesquisas o confirmem ou refutem- é a hipótese de que o aumento contínuo de temperatura vá produzir uma perda linear de massa de gelo, sempre crescente.

Com esse conhecimento, os modelos de computador para predizer o comportamento do clima serão aperfeiçoados. Mas é importante registrar que o estudo não abala a constatação de que a Groenlândia está, de qualquer forma, perdendo mais gelo do que acumula.
(Folha de SP, 27/1)

>A essência da realidade física (JC, FSP)

>
JC e-mail 4184, de 24 de Janeiro de 2011

“Não enxergamos o que ocorre na essência da realidade física. Temos apenas nossos experimentos, e eles nos dão uma imagem incompleta do que ocorre”

Marcelo Gleiser é professor de física teórica no Dartmouth College, em Hanover (EUA). Artigo publicado na “Folha de SP”:

Vivemos num mundo quântico. Talvez não seja óbvio, mas sob nossa experiência do real -contínua e ordenada- existe uma outra realidade, que obedece a regras bem diferentes. A questão é, então, como conectar as duas, isto é, como começar falando de coisas que sequer são “coisas” -no sentido de que não têm extensão espacial, como uma cadeira ou um carro- e chegar em cadeiras e carros.

Costumo usar a imagem da “praia vista à distância” para ilustrar a transição da realidade quântica até nosso dia a dia: de longe, a praia parece contínua. Mas de perto, vemos sua descontinuidade, a granularidade da areia. A imagem funciona até pegarmos um grão de areia. Não vemos sua essência quântica, porque cada grão é composto de trilhões de bilhões de átomos. Com esses números, um grão é um objeto “comum”, ou “clássico”.

Portanto, não enxergamos o que ocorre na essência da realidade física. Temos apenas nossos experimentos, e eles nos dão uma imagem incompleta do que ocorre.

A mecânica quântica (MQ) revolve em torno do Princípio de Incerteza (PI). Na prática, o PI impõe uma limitação fundamental no quanto podemos saber sobre as partículas que compõem o mundo. Isso não significa que a MQ é imprecisa; pelo contrário, é a teoria mais precisa que há, explicando resultados de experimentos ao nível atômico e sendo responsável pela tecnologia digital que define a sociedade moderna.

O problema com a MQ não é com o que sabemos sobre ela, mas com o que não sabemos. E, como muitos fenômenos quânticos desafiam nossa intuição, há uma certa tensão entre os físicos a respeito da sua interpretação. A MQ estabelece uma relação entre o observador e o que é observado que não existe no dia a dia. Uma mesa é uma mesa, independentemente de olharmos para ela. No mundo quântico, não podemos afirmar que um elétron existe até que um detector interaja com ele e determine sua energia ou posição.

Como definimos a realidade pelo que existe, a MQ parece determinar que o artefato que detecta é responsável por definir a realidade. E como ele é construído por nós, é a mente humana que determina a realidade.

Vemos aqui duas consequências disso. Primeiro, que a mente passa a ocupar uma posição central na concepção do real. Segundo, como o que medimos vem em termos de informação adquirida, informação passa a ser o arcabouço do que chamamos de realidade. Vários cientistas, sérios e menos sérios, veem aqui uma espécie de teleologia: se existimos num cosmo que foi capaz de gerar a mente humana, talvez o cosmo tenha por objetivo criar essas mentes: em outras palavras, o cosmo vira uma espécie de deus!

Temos que tomar muito cuidado com esse tipo de consideração. Primeiro, porque em praticamente toda a sua existência (13,7 bilhões de anos), não havia qualquer mente no cosmo. E, mesmo sem elas, as coisas progrediram perfeitamente. Segundo, porque a vida, especialmente a inteligente, é rara. Terceiro, porque a informação decorre do uso da razão para decodificar as propriedades da matéria.

Atribuir a ela uma existência anterior à matéria, a meu ver, não faz sentido. Não há dúvida de que a MQ tem os seus mistérios. Mas é bom lembrar que ela é uma construção da mente humana.
(Folha de SP, 23/1)

>Falhas de comunicação em série agravaram desastre histórico na Região Serrana do Rio (O Globo)

>
14.jan.2011

RIO – Falhas no sistema de comunicação entre a Defesa Civil do Estado e os 92 municípios possibilitaram que a causa do maior desastre na história do Estado fosse ignorado. Na terça-feira, horas antes das chuvas que deixaram mais de 500 mortos na Região Serrana, o órgão recebeu um boletim alertando para a existência de “condições meteorológicas favoráveis à ocorrência de chuvas moderadas ou fortes”.

O aviso foi emitido pelo Instituto Nacional de Meteorologia (Inmet) e repassado pela Secretaria Nacional de Defesa Civil (Sedec). Todas as comunicações foram feitas por e-mail. Ainda assim, pelo menos uma prefeitura local, a de Teresópolis, alegou não ter recebido o informe.

A formação da grande tempestade foi detectada inclusive pelo novo radar da Prefeitura do Rio, o doppler, instalado em dezembro no Sumaré. O aparelho é capaz de identificar a origem de grandes precipitações num raio de 250 quilômetros – mais do que o suficiente para abranger a Região Serrana. No entanto, as imagens que poderiam ter sido coletadas por esta estrutura não foram repassadas.

Estado: faltam meteorologistas
De acordo com o prefeito Eduardo Paes, mesmo que o radar tenha flagrado a formação de temporais próximo à Região Serrana, não seria possível emitir um alerta aos municípios.

– O radar fornece fotografias, mas o sistema de análise é mais complexo: ele envolve dados como imagens de satélite, dados geológicos e redes pluviométricas – pondera. – Nossos meteorologistas nunca poderiam fazer previsões de outras cidades sem ter essas informações.

Segundo Paes, sequer as imagens captadas pelo radar poderiam ter sido repassadas a outras instâncias:

– Não sei se o Estado e essas cidades têm meteorologistas.

A Secretaria de Saúde e Defesa Civil do Estado informou que a oferta da prefeitura é “genérica”, e ainda não houve tempo para decidir como serão feitas as análises das imagens do radar. Segundo a assessoria do órgão, os técnicos só seriam responsáveis pelo repasse dos boletins meteorológicos, por e-mail, aos municípios. Cada prefeitura seria encarregada de efetuar um plano de contingência. No entanto, a secretaria não divulgou se há meteorologistas em seu quadro de funcionários.

O problema também é destacado pelo meteorologista Manoel Gan, do Instituto Nacional de Pesquisas Espaciais (Inpe).

– Ainda faltam radares e outros sistemas de detecção de tempestades, mas o maior déficit é de profissionais – critica. – Esses equipamentos requerem mão de obra especializada. E, daqui a cinco anos, a grande maioria dos meteorologistas que ainda estão na ativa já terá se aposentado.

Sem as imagens do radar do Sumaré, a única previsão que subiu a serra veio do Inmet. O aviso especial 12/2011, emitido pelo órgão, foi enviado na terça-feira à tarde para a Sedec. Esta repassou os dados às 13h56m para a Secretaria estadual de Defesa Civil, ao comando-geral do Corpo de Bombeiros do Rio e à Secretaria Especial de Ordem Pública. O boletim alertava para o “índice significativo” de chuva acumulado em todo o estado, destacando a Região Serrana.

O prefeito de Teresópolis, Jorge Mário (PT), afirmou que o risco não chegou a ser comunicado para seu município:

– Não houve aviso de que poderia ocorrer aquela tragédia. A informação que eu tenho é que ela (a tempestade) não poderia ter sido prevista.

Na vizinha Nova Friburgo, o alerta chegou, de acordo com o secretário estadual de Ambiente Carlos Minc. A população, no entanto, não foi comunicada.

– Nosso equipamento que monitora a altura do rio em Friburgo funcionou, mas tem de haver um treinamento prévio para que as pessoas em suas casas sejam avisadas – ressalta.

Professor de meteorologia da Universidade Federal de Santa Maria, Ernani Nascimento elogia o investimento da prefeitura do Rio no radar de Sumaré, mas acredita que o sistema pode ser ampliado.

– Um sistema possível, já testado em Campinas, usa sirenes – lembra. – Alguns moradores têm pluviômetros em casa e são treinados para, com o equipamento, perceber a gravidade das precipitações. Se uma chuva for grave, eles acionam o alarme, permitindo que as pessoas evacuem suas casas.

A tragédia levou o governo do Estado e a prefeitura do Rio a recorrer à médium Adelaide Scritori da Fundação Cacique Cobra Coral (FCCC) que diz controlar o tempo. O convênio foi renovado na quarta-feira às pressas.

>Recorde de 2010 confirma aquecimento global e é alerta para desastres climáticos (O Globo, JC)

>
Extremo e perigoso

JC e-mail 4183, de 21 de Janeiro de 2011

Marcado por desgraças climáticas de todos os tipos, 2010 foi considerado na quinta-feira pela Organização Mundial de Meteorologia (OMM) uma prova de que o aquecimento global está em curso. Classificado como o ano mais quente desde 1850, quando os registros começaram, 2010 está estatisticamente empatado com 1998 e 2005.

Porém, ele confirma a tendência de aquecimento observada ao longo do século XX e neste começo do XXI. E a década de 2001 a 2010 foi a mais quente da História. Se as emissões de CO2 e outros gases-estufa não forem reduzidas, alertou a OMM, a Terra se tornará cada vez mais quente e instável.

Segundo a OMM, uma agência que integra as Nações Unidas, nenhum fator natural explica a elevação da temperatura do planeta. Os dois principais agentes naturais que influenciam a temperatura planetária foram descartados.

A ação de vulcões, na verdade, contribuiu para reduzir a temperatura e, possivelmente, aliviar o ritmo do aquecimento. Na última década a atividade solar também foi menor do que a normal, o que também teria contribuído para diminuir a temperatura.

As emissões por ação humana dos gases do efeito estufa, todavia, continuam a aumentar.

– 2010 confirma a tendência de aquecimento a longo prazo – declarou na quinta-feira, em Genebra, o secretário-geral da OMM, Michel Jarraud.

O ano de 2010 foi excepcionalmente quente em quase toda a África, no sul e no oeste da Ásia, na Groenlândia e no Ártico canadense. A camada de gelo sobre o Ártico no verão nunca esteve tão fina, tornando uma das regiões mais frias da Terra (a mais fria é a Antártica) o canário da mina do clima. A OMM alertou que embora a mais forte La Niña desde 1974 esteja em curso contribuindo para reduzir a temperatura global, a tendência é que 2011 também seja um ano marcadamente quente.

Todo tipo de evento climático extremo foi registrado em 2010. Os especialistas da OMM explicam que aquecimento global não significa necessariamente só mais calor.

Aquecimento global implica em extremos climáticos. E 2010 teve uma abundância de ondas de calor e frio extremos, enchentes, supertufões, desmoronamentos e secas.

Isso acontece porque a elevação da temperatura global lança mais energia no sistema climático da Terra. Essa energia desequilibra a delicada e complexa dinâmica climática. É por isso que nevascas e ondas de frio rigoroso podem ser ligadas ao aquecimento global.

– A tendência de aquecimento, infelizmente, prosseguirá e se fortalecerá ano após ano. Porém, a amplitude do problema será determinada pela quantidade de gases do efeito estufa que o homem liberará – alertou Michel Jarraud.

Um estudo independente apresentado esta semana e baseado em dados da própria ONU estimou que até 2020 a Terra estará 2,4 graus Celsius mais quente, com severas consequências na produção global de alimentos. Uma elevação de 2 graus na temperatura média é suficiente para intensificar e multiplicar chuvas, secas e ondas de frio e calor.

– Temos que agir depressa para limitar as emissões – frisou Bob Ward, do Centro de Pesquisa de Mudanças Climáticas Grantham, da Universidade de Londres.
(O Globo, 21/1)

>Pânico pode alimentar ceticismo da população a respeito do aquecimento global (FSP, JC)

>
Clima de alarmismo, artigo de Marcelo Leite

JC e-mail 4180, de 18 de Janeiro de 2011

Marcelo Leite é jornalista. Artigo publicado na “Folha de SP Online”:

A nova hecatombe na região serrana do Rio sugere que as previsões sobre desastres inomináveis no futuro, em decorrência da mudança do clima, podem não ser tão exagerados quanto afirmam os céticos do aquecimento global. Tudo depende de conectar causalmente esse tipo de desastre, e sua frequência, com as predições dos modelos climáticos de que uma atmosfera mais quente trará mais eventos meteorológicos extremos como esses – o que não é coisa trivial de fazer.

Pressupor tal conexão, no entanto, já foi muito criticado por pesquisadores do clima. Não haveria uma tragédia planetária por acontecer de imediato, como fantasiou o filme “O Dia Depois de Amanhã”. Agora, uma pesquisa de psicologia aplicada vem corroborar essa percepção, dizendo que mensagens alarmistas sobre a mudança climática podem ser contraproducentes e alimentar o ceticismo na população a respeito do aquecimento global.

O estudo foi publicado por Matthew Feinberg e Robb Willer em dezembro no periódico Psychological Science. Usaram dois experimentos para “provar” que mensagens alarmistas de fato aumentam o ceticismo por contradizerem a tendência das pessoas a acreditar que o mundo é justo.

Se a mudança do clima vai matar, empobrecer ou prejudicar também pessoas inocentes, como as crianças afogadas em lama no Rio, uma reação natural das pessoas seria duvidar de que o aquecimento global seja uma realidade. Li rapidamente o artigo e os dois experimentos não me convenceram muito, mas fica o convite para o leitor formar sua própria opinião.

A tese, porém, é boa. Com efeito, é de pasmar a capacidade de muita gente de não enxergar – ou não querer ver – como são abundantes os indicativos da ciência de que há, sim, uma mudança climática em curso.

Uma explicação, obviamente, é político-ideológica. Muitos optam por não acreditar em aquecimento global porque acham que é uma conspiração dos socialistas para extinguir a liberdade empresarial (por meio de regulamentação) ou a liberdade individual de dirigir jipões movidos a diesel, mas também há socialistas e comunistas – como no Brasil – convencidos de que a conspiração é de imperialistas americanos para impedir o desenvolvimento de países emergentes como o Brasil.

Quem reage irracional e psicologicamente ao alarmismo ou ideológica e canhestramente a fantasmas conspiradores vai ter razão de sobra para se tornar ainda mais cético diante do sítio de internet Global Warning (um trocadilho intraduzível entre Global Warming – aquecimento global – e Global Warning – alerta global).

Trata-se de um esforço para vincular aquecimento global com ameaças à segurança doméstica dos EUA – de bases militares ameaçadas de inundação à dependência de combustíveis fósseis importados. Ou seja, para sensibilizar o americano médio, conservador e republicano e diminuir seu ceticismo diante do fenômeno.

Se Feinberg e Willer estiverem certos, o tiro vai sair pela culatra. E os socialistas céticos tupiniquins vão babar um pouco mais de raiva dos imperialistas.
(Folha de SP Online, 17/1)

>Governo do Ceará quer tirar licenciamentos da Superintendência de Ambiente (FSP)

>
17/01/2011 – 21h04

PAOLA VASCONCELOS
COLABORAÇÃO PARA A FOLHA, DE FORTALEZA

O governador do Ceará, Cid Gomes (PSB), enviou à Assembleia do Estado um projeto que permite a dispensa de licenciamento ambiental de obras públicas ou privadas de “interesse social”.

Sob a justificativa de possibilitar “o desenvolvimento de obras e atividades de relevância com celeridade”, o texto, que deve ser votado nos próximos dias, vem causando polêmica.

A própria titular da Superintendência Estadual do Meio Ambiente, Lúcia Teixeira, já se manifestou publicamente contra o projeto. O órgão hoje tem competência exclusiva para licenciamentos ambientais no Ceará.

Com o projeto, a responsabilidade nos casos de “interesse social” é transferida para o Conpam (Conselho de Políticas e Gestão do Meio Ambiente), órgão ligado diretamente ao governador.

Apesar de ter assinado a proposta, Cid Gomes recuou e disse não estar convencido sobre o assunto. No entanto, ainda não retirou o texto da tramitação. Existe a possibilidade de a Procuradoria-Geral do Estado fazer alterações.

O deputado estadual Heitor Férrer (PDT) considerou um “estupro à natureza”.

“A obra é de caráter social e o meio ambiente que se lixe? O licenciamento ambiental tem que existir, não existe dispensa para isso. É inconstitucional”, disse Férrer.

O PV do Ceará também divulgou nota posicionando-se “radicalmente contra”.

O deputado Wellington Landim (PSB), à frente do bloco governista na Assembleia, disse que muitos projetos estão emperrados por “excesso de burocracia” na concessão das licenças.

“Não se trata de querer aprovar tudo, mas apenas de receber sim ou não como resposta. Há problemas de ordem exagerada na burocracia”, disse.
A superintendência informou, por meio de nota, que a demora no processo de licenciamento é necessária para que os critérios técnicos sejam verificados com eficácia.

Disse também que os procedimentos adotados são respaldados pela legislação

>Ministros anunciam novo sistema de monitoramento e alerta de desastres (G1)

>
JC e-mail 4179, de 17 de Janeiro de 2011

Presidente Dilma se reuniu com quatro ministros nesta segunda (17/1), entre eles Aloizio Mercandante, da C&T, e definiu estruturação do Sistema Nacional de Alerta e Prevenção de Desastres Naturais

Depois de uma reunião com a presidente da República, Dilma Rousseff, ministros do governo anunciaram nesta segunda-feira (17) uma reformulação no sistema de monitoramento, alerta e resposta a desastres, como o registrado na região serrana do Rio de Janeiro nos últimos dias.

Participaram do encontro os ministros da Defesa, Nelson Jobim; da Integração Nacional, Fernando Bezerra; da Justiça, José Eduardo Cardozo; e da Ciência e Tecnologia, Aloizio Mercadante.

O Ministério da Ciência e Tecnologia começará a trabalhar na estruturação do Sistema Nacional de Alerta e Prevenção de Desastres Naturais.

Segundo o ministro Mercadante, 58% dos desastres naturais no Brasil são inundações e 11% deslizamentos.

“O peso dos desastres naturais decorrentes de fortes chuvas está se acentuando, e nós precisamos recorrer aos sistemas de prevenção”, disse Mercadante.

Ele afirmou ainda que a capacidade de previsão do sistema de monitoramento do clima será ampliada por meio de um supercomputador do Instituto Nacional de Pesquisas Espaciais (Inpe). “Queremos já implantar parte desse sistema nas áreas mais críticas para o próximo verão”, disse o ministro.

Ainda de acordo com o Ministério da Ciência e Tecnologia, o Brasil tem cerca de 500 áreas de risco de deslizamento de encostas, onde vivem cerca de 5 milhões de pessoas. O número de locais com alerta para inundações chega a 300 em todo o país.

A intenção é gerar informações geoespecializadas dessas áreas de risco para aprimorar a capacidade de previsão. Segundo Mercadante, é preciso adquirir novos equipamentos e conectá-los em um sistema único. A previsão do governo para concluir o trabalho de montagem do sistema é de quatro anos.

A estrutura, segundo o ministro, deve contar com uma sede central de coordenação e escritórios espalhados pelas cinco regiões do país. O sistema será comandado pelo pesquisador Carlos Afonso Nobre, coordenador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Inpe entre 1991 e 2003.
(Informações do G1, 17/1)

>Chuvas: quem é que vai pagar por isso?

>
Por Vilmar Sidnei Demamam Berna*

Não existe explicação que justifique a repetição freqüente e previsível,
verão após verão, de tantas perdas de vida e de patrimônio em função das
chuvas. Temos gente com conhecimento, tecnologias, recursos, então, por que
este problema repete-se em todos os verãos, como já previu Tom Jobim, na
música “Águas de março”?

Dizem que não é de bom tom, e que chega a ser cruel, no momento da tragédia,
quando se contam os mortos e os prejuízos, cobrar culpas e
responsabilidades. Entretanto, em respeito aos que morreram agora, e em
respeito aos que poderão morrer no próximo verão, temos de remexer nesta
ferida. Lembro a pergunta do Lobão, na canção Revanche: “Quem vai pagar por
isso? Até quando as autoridades permitirão, por ação ou omissão, a ocupação
das áreas de encosta frágeis pela sua própria natureza, que irão deslizar de
qualquer jeito, com ou sem floresta por cima? Até quando as margens de rios
e as áreas de várzeas continuarão sendo ocupadas, mesmo com todos sabendo
que mais dia ou menos dia encherão? Antigamente, só os mais pobres eram
afetados, mas agora, os ricos e a classe média também contam seus mortos.
Antes, o problema atingia mais duramente as áreas de risco, mas agora até as
áreas consideradas seguras estão sendo atingidas. E alguns ainda resistem em
admitir o impacto das mudanças climáticas.

Precisamos aprender com os erros, pois se não fizermos isso, é certo que
voltaremos a repeti-los. E entre os mais graves erros está o de só liberarem
recursos para as Prefeituras diante da emergência ou calamidade! Por que não
se liberam recursos antes, já sabendo que cada real gasto em prevenção
economiza mais de 10 na reparação do desastre?

As leis de uso do solo, os planos diretores, as políticas de licenciamento,
estão completamente ultrapassadas ou mesmo mal feitas e precisam ser
revistos para impedir a ocupação das áreas frágeis ainda desocupadas. Onde
estão nossos vereadores tão céleres para conceder títulos e aprovar emendas
ao orçamento para seus bairros?

Quanto às áreas já ocupadas, onde estão nossos prefeitos e governadores para
promoverem sua desocupação, com ordenamento e inteligência, pois se
continuar a não ser feito por bem, a natureza fará por mal, verão após
verão! As populações de baixa renda que foram deixadas à própria sorte para
ocupar áreas de risco e não edificantes precisam ser realocadas. Onde estão
nossas autoridades do Governo Federal e seus programas habitacionais para
essas populações de baixa renda? Poderiam estar incentivando mutirões
remunerados e o cooperativismo para que os próprios futuros moradores
construíssem suas próprias casas, após receberem a devida capacitação, e
apoio técnico necessário, em áreas seguras, gerando trabalho e renda,
aproveitando para incorporar tecnologias limpas e ecoeficientes.

As unidades de conservação, parques e bosques urbanos não seriam só para a
proteção da natureza, mas para proteger as pessoas da natureza. Na medida em
que as áreas de risco fossem desocupadas, em seu lugar seriam criadas essas
unidades de conservação no local, e cada metro quadrado daria ao município o
direito de receber repasses federais e estaduais que os compensassem pela
perda de receita com os impostos, que deixarão de arrecadar sobre estas
áreas protegidas, como já é feito pelo ICMS Ecológico.

Os profissionais de imprensa, por sua vez, vivem em momentos assim situações
equivalente a dos correspondentes de guerra. Como se proteger e ao mesmo
tempo estar na linha de frente dos acontecimentos? Como lidar com fontes
emocionadas, desinformadas, mal informadas? Como improvisar quando o
equipamento falha? Como encontrar as alternativas para transmitir os dados a
serem divulgados? Como lidar com o emocional e o profissional diante dos
dramas vividos pelas pessoas e pelo próprio profissional? Ate aonde ir neste
envolvimento sem prejudicar a tarefa de colher e transmitir a informação?
Como lidar com pessoas fragilizadas sem ser invasivo ou insensível diante da
dor alheia? Como fazer o seu trabalho sem atrapalhar ao trabalho dos outros,
do pessoal do resgate? Como colocar o foco na noticia, ir à raiz do
problema, fazer as perguntas certas às pessoas certas? Não dá para se
imaginar que toda essa capacitação e prontidão para as respostas acontecerão
por um acaso. Onde estão os cursos de capacitação para profissionais de
comunicação que precisam cobrir desastres e calamidades?

A solidariedade humana surpreende em momentos de desastre, como surpreende
também o despreparo. Muito trabalho voluntário é perdido por que falta
coordenação, sistemas de aviso e comunicação, planejamento das ações, onde o
trabalho voluntário ajuda e onde atrapalha, onde é mais necessário, etc. E
nada disso é possível fazer durante o desastre. Então, precisa ser feito
antes. Entretanto, onde estão os cursos de capacitação para voluntários?
Como eles podem ser avisados e serem mantidos informados? A quem recorrer
para serem encaminhadas para a linha de frente de trabalho voluntários? Quem
os ampara psicologicamente diante dos dramas e perdas que irão assistir e
com os quais terão de conviver? Sim, por que ao lado das perdas materiais,
as pessoas sofrem com terríveis perdas espirituais, que podem ser tão ou
mais devastadoras que as perdas materiais. As pessoas podem desmoronar por
dentro, perder o estimulo e a motivação para lutar e se reerguer. Como lidar
com crianças resgatadas sozinhas, que se tornaram órfãos da noite para o
dia, perderam a casa e todas as referências? O lar não está na casa perdida,
nos bens materiais, nos documentos históricos. O lar é espiritual. Está onde
estiver a família ou o que sobrou dela. Pode estar num estádio que reúne os
sobreviventes.

* Vilmar Sidnei Demamam Berna é escritor e jornalista. Em Janeiro de 1996,
fundou a REBIA – Rede Brasileira de Informação Ambiental (www.rebia.org.br)
e edita desde então a Revista do Meio Ambiente (que substituiu o Jornal do
Meio Ambiente) e o Portal do Meio Ambiente (www.portaldomeioambiente.org.br).
Em 1999, recebeu no Japão o Prêmio Global 500 da ONU Para o Meio
Ambiente e, em 2003, o Prêmio Verde das Américas –
http://www.escritorvilmarberna.com.br

>Blame game begins in wake of deadly Brazil floods (CSM)

>
As the Brazil floods continue, some blame municipalities for allowing residents to build in insecure areas, while others blame the federal government for misallocating funds

By Andrew Downie, Correspondent / January 14, 2011
São Paulo, Brazil

A resident looks at a destroyed house after a landslide in Teresopolis, Brazil, on Jan. 13. Rescue workers struggled on Thursday to reach areas cut off by floods and landslides that have killed at least 511 people in one of Brazil’s worst natural disasters in decades. Bruno Domingos/Reuters.

With rain still falling in parts of Rio de Janeiro and the death toll from massive flooding topping 500, authorities and experts turned their attention to apportioning blame and deciding how to avoid repeats of what has become a familiar tale in Brazil.

Local officials estimate the death toll at 511 so far, concentrated in four hillside cities north of Rio de Janeiro, after torrential rains caused rivers to jump their banks and hillsides to give way. While national and state authorities are pinning the blame on municipalities for allowing citizens to build in insecure areas, the federal government itself is coming under scrutiny for recently slashing its budget for handling natural disasters.

“There is carelessness at every level of government,” says Gil Castello Branco, the secretary general of Contas Abertas, a non-profit that monitors government spending. “We turn that old saying on its head: We aren’t safe, we are sorry.”

Federal government cut budget for disaster prevention

Even though annual flooding is common around Rio, a proposed national center for disaster management never got off the drawing board and the federal budget for disaster prevention and preparation measures is down 18 percent in 2010, says Mr. Castello Branco.

Last year the government spent just 40 percent of the cash allocated for disaster prevention and preparation, and more than half of that went to Bahia, a state that had no major disasters, because the minister in charge of disbursing funds was running for governor there, Castello Branco says in a telephone interview.

“We are not saying it was illegal, but Bahia should never have got half the money,” he says. “It was in [the minister’s] political interest but not in society’s.”

Triumphant rescues

The flooding that began in the past week is being described as the worst natural disaster in Brazilian history. Footage of the worst-hit areas looked like it came from a Hollywood disaster movie.

One cameraman caught the remarkable scene of a housewife being hauled to safety through roaring river with just a rope around her waist. Another caught the joy of rescue workers discovering a baby alive after being buried in mud for 12 hours.

However, those were rare positive moments.

“It was like something out of Noah’s Ark,” says Marcos Maia, a 31-year old who lost five members of his family and spent most of Wednesday helping out at the local morgue. “An avalanche of rocks just washed their house away.”

When asked to describe the road where he lived, Mr. Maia told the Monitor by telephone: “Now there is no road. It’s just a muddy river.”

It was a rude awakening for Brazilian President Dilma Rousseff, who took office less than two weeks ago and stopped off in one of the cities, Nova Friburgo, for 45 minutes on Thursday. Ms. Rousseff promised the state of Rio de Janeiro more than $1 billion in aid by 2014 but played down the fact this was the third major disaster caused by flooding in the last three years in Brazil, and the second consecutive tragedy in Rio.

Rousseff blames municipalities

Rousseff and Rio state governor Sergio Cabral put the problem down to decades of lax oversight by municipal authorities who allowed people – mostly poor people – to build houses on hillsides vulnerable to landslides. Mr. Cabral said 18,000 people lived in high risk areas in the city of Rio de Janeiro alone and said the city’s mayor would need to make the unpopular decision of removing them.

“Building houses on high risk areas is the rule in Brazil, not the exception,” Rousseff added. “You have to get people away and into secure areas. The two fundamental issues are housing and land use” and that involves putting proper drainage and sewage systems in place.

Experts, however, cautioned that such plans can take decades to carry out and said that politicians have failed to take such sensible steps to avoid repeated tragedy. Floods killed 133 people in the southern state of Santa Catarina in 2008 and left more than 200,000 people homeless in the impoverished Northeast in 2009. In 2010, floods killed 53 people when an entire neighborhood built on a hillside garbage dump gave way in Rio.

>Abertura de represa em Franco da Rocha (SP) foi irresponsável, diz PDT (UOL)

>
13/01/2011 – 15h53
Do UOL Notícias
Em São Paulo

O PDT (Partido Democrático Trabalhista) anunciou nesta quinta-feira (13) que vai entrar com uma ação contra a Sabesp (Companhia de Saneamento Básico de São Paulo) exigindo apuração rigorosa e cobrando indenização para os moradores de Franco da Rocha prejudicados pelas enchentes desta semana.

Para o partido, a abertura das comportas da represa Paiva Castro, que deixou parte da cidade submersa, foi irresponsável. Escolas, casas, comércios, o fórum, o prédio da prefeitura e a delegacia estão cercados por água devido à decisão da direção da Sabesp.
Enchente paralisa serviços em Franco da Rocha (SP)

“A falta de planejamento da Sabesp, somada a uma comunicação precária, prejudicou milhares de pessoas. Não podemos nos calar diante de tal irresponsabilidade e insensibilidade social por parte da empresa”, afirma o presidente do PDT estadual, Paulo Pereira da Silva, o Paulinho. “Pela incompetência demonstrada, e pela falta de respeito para com a população, o presidente da Sabesp, Gesner Oliveira, deve ser demitido.”

A direção do PDT também estuda entrar com ação em outras localidades prejudicadas pela mesma situação.

A Sabesp informou que reduziu a vazão da represa. Apesar da medida, a cidade permanecia com a região central alagada. A vazão, que chegou a ser de 80 m3 por segundo, passou a ser de 10 m3/s às 9h de hoje. Apesar disso, a prefeitura afirmou por meio de sua assessoria que a medida ainda não traz tranquilidade a administração municipal devido à chuva que continua atingir a região nesta quinta-feira.

Nesta quarta, o prefeito Márcio Cecchettinio (PSDB) afirmou esperar da Sabesp, responsável pela barragem, uma resposta definitiva sobre a abertura das comportas. Ele ressaltou que gostaria que elas fossem fechadas para que a cidade pare de ser alagada.

A Prefeitura informou que as fortes chuvas elevaram o nível da água represada no Sistema Cantareira e um alerta foi lançado para a necessidade de dar vazão à água e manter o nível máximo de segurança.

O sistema é composto por seis barragens, que passam pelos municípios de Bragança Paulista, Piracaia, Vargem, Joanópolis, Nazaré Paulista, Franco Da Rocha, Mairiporã, Caieiras. A represa de Paiva Castro fica na parte mais baixa, portanto recebe a água acumulada nos demais pontos do sistema.

>Sabesp diz que abertura de comportas de represa em Franco da Rocha era "inevitável" (R7)

>
Vice-prefeito atribuiu alagamento em Franco da Rocha à ação da empresa
João Varella, do R7

Entorno do Hospital Estadual do Juqueri, na região central de Franco da Rocha, ficou completamente alagado na manhã desta quarta-feira (12). Luis Cleber/AE.

A direção da Sabesp, empresa responsável pelo saneamento básico em São Paulo, negou que a abertura das comportas da represa Paiva Castro tenha alagado a cidade de Franco da Rocha, na região metropolitana. A empresa atribuiu a enchente – no início da noite desta quarta-feira (12) partes do município permaneciam alagadas – a chuvas fora do comum e informou que a abertura da represa era “inevitável”. Caso contrário, a barragem se romperia e o alagamento seria ainda pior, disseram dirigentes da empresa.

Em entrevista na tarde desta quarta-feira, o presidente da Sabesp, Gesner Oliveira, afirmou que “as represas estão atenuando a ação das chuvas” em Franco da Rocha. Segundo o vice-prefeito, José Antônio Pariz Júnior, o alagamento foi provocado pela abertura da represa Paiva Castro, que, na manhã de terça-feira (11), atingiu o nível máximo.

Paulo Masato, diretor da Sabesp na região metropolitana, confirma que a abertura das comportas é responsável pela permanência da enchente em Franco da Rocha, mas ressalva que a ação era inevitável, uma vez que a represa estava muito cheia por causa das chuvas que atingiram a região. Segundo a Sabesp, a água será escoada gradualmente. Partes da cidade permanecem alagadas, porque o rio Juqueri tem agora capacidade menor de escoamento do que a represa demanda.

– Já tínhamos avisado a Defesa Civil e tivemos que tomar essa decisão de abrir mais as comportas. A Defesa Civil estava junto com a Sabesp. O que tem que fazer é melhorar a canalização do rio Juqueri.

No período das cheias, as represas retêm boa parte da vazão de água que chega ao rio, liberando esse volume aos poucos, de forma controlada, evitando ou reduzindo o impacto das inundações. Segundo Oliveira, a Sabesp segue todas as regras da ANA (Agência Nacional das Águas).
Se não chover, a previsão é de, na noite desta quarta-feira, a abertura comportas seja reduzida, diminuindo assim a área alagada. Masato diz que, a partir de agora, o volume de água no rio Juqueri deve começar a baixar. Segundo ele, no final da manhã desta quarta-feira, a represa Paiva Castro liberava 37,92 m³/s de água. Entre a 0h e a 7h, a barragem chegou a liberar 80 m³/s.

– A represa passou de um nível de 45% de água para, em menos de 18 horas, ir para 97%. Estamos descarregando agora 50 m³/s. A partir das 19h, vamos liberar só 10 m³/s. Isso, se não voltar a chover.

A vazão média da represa é de 1 m³/s – cada metro cúbico de água equivale a 1.000 litros (volume de uma caixa d’água residencial).

O recorde histórico de vazão se deu em janeiro de 1987, quando a represa passou a expelir média de 85 m³/s de água por quatro dias.

Cloro

O presidente da empresa anunciou que haverá distribuição de cloro para a população de Franco da Rocha. O produto deverá ser usado na higienização de casas que foram alagadas. Tendas da Sabesp estão sendo montadas na cidade para orientar os moradores.

– Faremos tudo que é necessário para mitigar os efeitos da chuva e colaborar com qualquer ação que as prefeituras venham a precisar.

Segundo a Sabesp, a prefeitura decidirá quando inicia a distribuição, que começará na estação de trem de Franco da Rocha.

Trovão

Masato teve sua explicação sobre o funcionamento da represa de Paiva Castro interrompiada pelo som de um relâmpago que anunciava chuva que cairia na capital paulista neste quarta-feira (12). A cidade foi colocada em estado de atenção às 17h50.

>Clima ajudou queda de Império Romano (FSP, JC)

>
JC e-mail 4178, de 14 de Janeiro de 2011

Estudo mostra que, a partir do século 3, esfriou e parou de chover no Império, e a agricultura entrou em colapso

Não é a resposta que quem corrige vestibulares espera, mas um novo estudo diz que, entre os fatores que levaram o Império Romano ao fim, está uma mudança climática.

Pesquisadores da Universidade Harvard e de várias instituições europeias mostraram que, no auge da expansão de Roma, o clima era quente e chuvoso. Isso fortalece a agricultura e, assim, ajuda a alimentar grandes exércitos, além de permitir uma economia pujante, evitando insatisfações internas.

Isso aconteceu por volta do ano 100 d.C., quando o Mediterrâneo virou um “lago romano”, e o Império chegou a colocar os pés até no Norte da atual Inglaterra, onde concluiu, em 126 d.C., a muralha de Adriano, para manter os inimigos afastados.

Uma hora, porém, a prosperidade acabou. A partir do meio do século 3, mudanças climáticas tornaram o Império Romano mais seco e frio.

Segundo o grupo internacional de pesquisadores, que publicou suas conclusões na “Science”, isso certamente afetou a produção de alimentos e pode ter estimulado causas tradicionalmente relacionadas à decadência de Roma, como a inflação.

Certamente políticas monetárias erradas colaboraram para piorar o cenário de crise econômica, dizem, mas não é por isso que se deve, nas palavras de Jan Esper, da Universidade Johannes Gutenberg (Alemanha), “seguir a crença comum de que civilizações estão isoladas de variações ambientais”.

Para saber como era o clima há tanto tempo, os cientistas analisaram 9.000 pedaços grandes de madeira antiga. A maioria veio de restos de construções e artefatos de madeira na Europa.

Cada ano cria um anel único no tronco da árvore. Pacientemente, os cientistas foram retrocedendo, comparando pedaços de madeira cada vez mais antigos.

O desafio era ir criando uma sequência história de troncos: quando não havia mais como retroceder nos anéis de um, ter um novo pedaço de madeira, mais antigo, para seguir.

Conforme a grossura desses anéis, é possível saber quanto choveu e se fez frio ou calor naquele ano.

Os cientistas destacam que a existência de mudanças climáticas em um período pré-Revolução Industrial não significa que o aquecimento global contemporâneo seja natural. “O que está acontecendo agora não tem precedentes, é muito mais rápido”, dizem os cientistas.

A ideia de que fatores ambientais, mais do que políticos, levam sociedades ao colapso ganhou força em 2005, quando o biogeógrafo americano Jared Diamond lançou o livro “Colapso”. Nele, Diamond mostra como coisas como a exploração excessiva da madeira ou da pesca levaram sociedades à crise.

Não existia grande material científico, em 2005, sobre como o ambiente tinha atingido Roma. Os romanos, ao menos, não tiveram culpa pelas mudanças no clima que atingiram seu Império.
(Ricardo Mioto)
(Folha de SP, 14/1)

>"La Niña" explica inundações em vários países do mundo (FSP, JC)

>
JC e-mail 4178, de 14 de Janeiro de 2011

Fenômeno tem causado chuvas torrenciais desde o ano passado

Menos conhecido e menos frequente que o “El Niño”, o “La Niña” é um fenômeno natural que resfria as águas do oceano Pacífico e produz mudanças na dinâmica atmosférica. Assim como o primeiro, também pode impor um padrão distinto de comportamento climático em todo o mundo.

O último episódio do “La Niña” atinge agora seu pico e, segundo estudiosos, pode se estender até o meio deste ano. Seus primeiros efeitos, avaliados como sendo de intensidade moderada a forte, começaram a ser percebidos em meados de 2010.

O fenômeno pode ser o responsável por inundações na Austrália e nas Filipinas, onde dez pessoas morreram desde o início deste mês.

As chuvas torrenciais que mataram centenas de pessoas na Venezuela e na Colômbia, em novembro e dezembro, também são reflexos do “La Niña”.

A inundação no Paquistão, em agosto do ano passado, encaixa-se nos efeitos do fenômeno.

Naquele país, os reflexos do “La Niña” foram particularmente ruins. Na região, o “La Niña” foi imediatamente seguido pelo “El Niño”, que tende a deixar as temperaturas no oceano Índico mais altas que o normal.

O ar mais quente contém mais vapor de água e assim pode produzir mais chuva.

“Os padrões altos de precipitação do “La Niña”, aliados ao calor após o “El Niño”, ajudam a explicar por que as inundações no Paquistão foram tão devastadoras”, diz o especialista Kevin Trenberth, do Centro Americano para Pesquisa Atmosférica.

Mares mais quentes na Austrália também podem explicar a dimensão das atuais inundações.

Devido ao aquecimento das águas, as inundações, em associação ao “El Niño”, devem se agravar em breve. E esses não são os únicos danos que o fenômeno pode causar. Nos próximos meses, a corrente “La Niña” pode fazer mais vítimas em outras partes do mundo.

De acordo com um estudo da Cruz Vermelha e do Instituto Internacional de Pesquisas de Clima e Sociedade, chuvas fortes podem ser esperadas no norte da América do Sul e no sudoeste da África nos próximos dois meses.

Em fevereiro de 2000, as enchentes devastadoras em Moçambique, na África, ocorreram exatamente quando o “La Niña” estava próximo do seu pico.
(Folha de SP, 14/1)

>Clima não pode justificar falta de ação contra enchentes, diz especialista (JC)

>
JC e-mail 4177, de 13 de Janeiro de 2011

Para diretora de centro de pesquisas sobre desastres, governos não podem evitar chuvas, mas devem agir para prevenir consequências

O aumento da incidência de chuvas em consequência das mudanças climáticas globais não pode servir de desculpa para os governos não agirem para evitar enchentes, na avaliação de Debarati Guha-Sapir, diretora do Centro de Pesquisas sobre a Epidemiologia de Desastres (Cred), de Bruxelas, na Bélgica.

“Não é possível fazer nada agora para que não chova mais. Mas temos que buscar os fatores não ligados à chuva para entender e prevenir desastres como esses [das enchentes no Brasil e na Austrália]”, disse ela à BBC Brasil.

“Dizer que o problema é consequência das mudanças climáticas é fugir da responsabilidade, é desculpa dos governos para não fazer nada para resolver o problema”, critica Guha-Sapir, que é também professora de Saúde Pública da Universidade de Louvain.

O Cred vem coletando dados sobre desastres no mundo todo há mais de 30 anos. Guha-Sapir diz que os dados indicam um aumento considerável no número de enchentes na última década, tanto em termos de quantidade de eventos quanto em número de vítimas.

Segundo ela, as consequências das inundações são agravadas pela urbanização caótica, pelas altas concentrações demográficas e pela falta de atuação do poder público.

“Há muitas ações de prevenção, de baixo custo, que podem ser adotadas, sem a necessidade de grandes operações de remoção de moradores de áreas de risco”, diz, citando como exemplo proteções em margens de rios e a criação de áreas para alagamento (piscinões).

Para a especialista, questões como infraestrutura, ocupação urbana, desenvolvimento das instituições públicas e nível de pobreza e de educação ajudam a explicar a disparidade no número de vítimas entre as enchentes na Austrália e no Brasil.

“A Austrália é um país com uma infraestrutura melhor, com maior capacidade de alocar recursos e equipamentos para a prevenção e o resgate, com instituições e mecanismos mais democráticos, que conseguem atender a toda a sociedade, incluindo os mais pobres, que estão em áreas de mais risco”, afirma.

Para ela, outro fator que tem impacto sobre o número de mortes é o nível de educação da população. “Pessoas mais educadas estão mais conscientes dos riscos e têm mais possibilidades de adotar ações apropriadas”, diz.

Apesar disso, ela observa que a responsabilidade sobre as enchentes não deve recair sobre a população. “Isso é um dever das autoridades. Elas não podem fugir à responsabilidade”, afirma.
(BBC Brasil, 13/1)

>El Niño violento dá lugar a uma poderosa La Niña e intriga cientistas (JC)

>
JC e-mail 4175, de 11 de Janeiro de 2011.

Clima de extremos

Quando o assunto é clima, o planeta tem sido regido por extremos. Ou El Niño – ocasião em que o Pacífico Equatorial se aquece acima da média – ou La Niña, quando a mesma região fica anormalmente fria. Ambos os fenômenos causam distúrbios de alcance global.

A passagem de um extremo a outro sempre ocorreu. O que preocupa é a velocidade com que ela tem acontecido. Nos últimos 60 anos, houve apenas uma vez em que um desses fenômenos foi imediatamente sucedido pelo outro, em 1972-1973. Agora, a mudança drástica voltou a ocorrer no biênio 2010-2011, intrigando especialistas.

Até o meio do ano passado, o planeta aquecia sob a influência do El Niño. O fenômeno foi o responsável por 2010 ter chegado ao fim como o ano mais quente desde o início dos registros meteorológicos, em 1850. Logo depois, para a surpresa dos pesquisadores, o clima esfriou sob a La Niña, cuja duração deve se estender até abril.

– Não há uma explicação definitiva para uma flutuação tão grande das temperaturas no Pacífico – admite Paulo Cesar Rosman, professor de Engenharia Oceânica e Costeira da Coppe. – Alguns pesquisadores atribuem este fenômeno a problemas geológicos, de vulcanismo, mas nenhuma hipótese foi comprovada até agora.

Transição no ano passado foi anormal

A resposta deverá vir da Organização Meteorológica Mundial (OMM), num relatório com lançamento previsto para as próximas semanas. Pesquisadores da instituição passaram os últimos meses na América do Sul, analisando as mudanças climáticas e eventos extremos do continente. Também foi revisado o histórico de medições de temperatura do Pacífico da última década.

– A transição de um desses fenômenos para outro não é normal; não de uma forma tão rápida – ressalta Ghassem Asrar, codiretor do Departamento de Pesquisas da OMM e diretor do Programa Mundial de Pesquisa Climática. – Normalmente El Niño e La Niña estão separados por períodos significativos de situações neutras, ou seja, anos em que a temperatura da água no Pacífico Equatorial não está muito quente ou muito fria.

De acordo com o último relatório do Painel Intergovernamental de Mudanças Climáticas (IPCC), de 2007, não há indícios de que os meninos do clima terão frequência ou extensão aumentadas este século. Suas principais consequências, no entanto, podem dar as caras mais vezes.

– É possível que cresçam os eventos extremos, associados ou não ao El Niño e La Niña – alerta Asrar. – As ondas de calor e as chuvas rigorosas, por exemplo, vão se tornar cada vez mais frequentes.

Cheias devastadoras no verão da Austrália

A mais recente catástrofe do clima está associada à La Niña. Em nota divulgada na semana passada, o governo australiano culpou o fenômeno pelas enchentes do estado de Queensland, que já deixaram cinco mortos e 75 mil pessoas isoladas, devido ao alagamento de estradas, ferrovias e aeroportos. O ano passado, quando começou o atual La Niña, foi o terceiro entre aqueles com mais precipitações da história do país.

– Embora a intensidade de El Niño e La Niña seja o mais importante fator para avaliar riscos climáticos, os eventos extremos podem se desenvolver como consequência de outras interações entre os oceanos e atmosfera – ressalta Rupa Kumar Kolli, pesquisador da OMM e especialista nos dois fenômenos. – Nem tudo depende da temperatura do Pacífico Equatorial.

Por romperem os padrões normais de circulação atmosférica, El Niño e La Niña mudam modelos climáticos típicos de cada região. Sua força é ainda mais visível nas regiões tropicais. O Brasil, país de dimensões continentais, recebe sinais nítidos de ambos os fenômenos.

– O La Niña leva chuva ao Nordeste, o que é bom; em compensação, o Sul fica seco. No El Niño, ocorre o inverso – explica Rosman. – Até a ressaca do mar segue um desses modelos. Durante o El Niño, o Posto 5,
em Copacabana, desaparece. A Marina da Glória é tomada por ondas. Os fenômenos são lentos, progressivos e cumulativos. Acontece que as pessoas só notam os problemas quando eles atingem o seu ápice. Quando cai a mureta da Praia do Arpoador, por exemplo.

No Rio, a La Niña facilitará a entrada de frentes frias neste verão. Ainda assim, segundo o Instituto Nacional de Pesquisas Espaciais, a temperatura pode ficar acima da média histórica. O índice de chuvas está dentro do normal, mas haverá “grande variabilidade espacial e temporal em sua distribuição” – ou seja, as precipitações podem ocorrer mais concentradas (portanto mais rigorosas), e períodos de seca não são descartados.

Mil anos de efeito estufa

Uma pesquisa publicada ontem na revista “Nature Geoscience” revela que o acúmulo de gases-estufa na atmosfera causará efeitos ininterruptos no clima global por, no mínimo, mil anos. A longa duração do evento será suficiente para provocar o colapso da camada de gelo da
Antártica Ocidental até o ano 3000. Com isso, haverá um aumento do nível dos oceanos de, no mínimo, quatro metros.

Esta é a primeira simulação de modelo climático a fazer previsões de um período tão grande. Para trabalhar com um cenário de 1.000 anos a partir de agora, os pesquisadores basearam-se em hipóteses mais otimistas, ou seja, de emissões de gases-estufa zeradas a partir de determinado momento, que variava entre 2010 e 2100.

– Criamos uma série de cenários – explica Shawn Marshall, professor de geografia da Universidade de Calgary, do Canadá, que desenvolveu a pesquisa junto ao Centro Canadense de Modelagem e Análise Climática. – “E se interrompêssemos completamente o uso de combustíveis fósseis e não emitíssemos mais gás carbônico na atmosfera? Quanto tempo demoraríamos para reverter os padrões atuais de mudanças climáticas? Primeiro a situação ficaria pior?”.

Outra pesquisa publicada pela revista indica que as geleiras de montanha podem perder entre 15% e 27% de seu volume até o fim do século, o que afetaria fortemente a disponibilidade de água para os centros urbanos. Entre as regiões mais afetadas estão a Nova Zelândia, que pode perder 72% de suas geleiras, e os Alpes (75%). O degelo provocaria um aumento médio do nível do mar em 12 centímetros.
(Renato Grandelle)
(O Globo, 11/1)