Arquivo da tag: Mediação tecnológica

Social Identification, Not Obedience, Might Motivate Unspeakable Acts (Science Daily)

ScienceDaily (July 18, 2012) — What makes soldiers abuse prisoners? How could Nazi officials condemn thousands of Jews to gas chamber deaths? What’s going on when underlings help cover up a financial swindle? For years, researchers have tried to identify the factors that drive people to commit cruel and brutal acts and perhaps no one has contributed more to this knowledge than psychological scientist Stanley Milgram.

Just over 50 years ago, Milgram embarked on what were to become some of the most famous studies in psychology. In these studies, which ostensibly examined the effects of punishment on learning, participants were assigned the role of “teacher” and were required to administer shocks to a “learner” that increased in intensity each time the learner gave an incorrect answer. As Milgram famously found, participants were willing to deliver supposedly lethal shocks to a stranger, just because they were asked to do so.

Researchers have offered many possible explanations for the participants’ behavior and the take-home conclusion that seems to have emerged is that people cannot help but obey the orders of those in authority, even when those orders go to the extremes.

This obedience explanation, however, fails to account for a very important aspect of the studies: why, and under what conditions, people did not obey the experimenter.

In a new article published in Perspectives on Psychological Science, a journal of the Association for Psychological Science, researchers Stephen Reicher of the University of St. Andrews and Alexander Haslam and Joanne Smith of the University of Exeter propose a new way of looking at Milgram’s findings.

The researchers hypothesized that, rather than obedience to authority, the participants’ behavior might be better explained by their patterns of social identification. They surmised that conditions that encouraged identification with the experimenter (and, by extension, the scientific community) led participants to follow the experimenters’ orders, while conditions that encouraged identification with the learner (and the general community) led participants to defy the experimenters’ orders.

As the researchers explain, this suggests that participants’ willingness to engage in destructive behavior is “a reflection not of simple obedience, but of active identification with the experimenter and his mission.”

Reicher, Haslam, and Smith wanted to examine whether participants’ willingness to administer shocks across variants of the Milgram paradigm could be predicted by the extent to which the variant emphasized identification with the experimenter and identification with the learner.

For their study, the researchers recruited two different groups of participants. The expert group included 32 academic social psychologists from two British universities and on Australian university. The nonexpert group included 96 first-year psychology students who had not yet learned about the Milgram studies.

All participants were read a short description of Milgram’s baseline study and they were then given details about 15 variants of the study. For each variant, they were asked to indicate the extent to which that variant would lead participants to identify with the experimenter and the scientific community and the extent to which it would lead them to identify with the learner and the general community.

The results of the study confirmed the researchers’ hypotheses. Identification with the experimenter was a very strong positive predictor of the level of obedience displayed in each variant. On the other hand, identification with the learner was a strong negative predictor of the level of obedience. The relative identification score (identification with experimenter minus identification with learner) was also a very strong predictor of the level of obedience.

According to the authors, these new findings suggest that we need to rethink obedience as the standard explanation for why people engage in cruel and brutal behavior. This new research “moves us away from a dominant viewpoint that has prevailed within and beyond the academic world for nearly half a century — a viewpoint suggesting that people engage in barbaric acts because they have little insight into what they are doing and conform slavishly to the will of authority,” they write.

These new findings suggest that social identification provides participants with a moral compass and motivates them to act as followers. This followership, as the authors point out, is not thoughtless — “it is the endeavor of committed subjects.”

Looking at the findings this way has several advantages, Reicher, Haslam, and Smith argue. First, it mirrors recent historical assessments suggesting that functionaries in brutalizing regimes — like the Nazi bureaucrat Adolf Eichmann — do much more than merely follow orders. And it simultaneously accounts for why participants are more likely to follow orders under certain conditions than others.

The researchers acknowledge that the methodology used in this research is somewhat unorthodox — the most direct way to examine the question of social identification would involve recreating the Milgram paradigm and varying different aspects of the paradigm to manipulate social identification with both experimenter and learner. But this kind of research involves considerable ethical challenges. The purpose of the article, the authors say, is to provide a strong theoretical case for such research, “so that work to address the critical question of why (and not just whether) people still prove willing to participate in brutalizing acts can move forward.”

*   *   *

Most People Will Administer Shocks When Prodded By ‘Authority Figure’

ScienceDaily (Dec. 22, 2008) — Nearly 50 years after one of the most controversial behavioral experiments in history, a social psychologist has found that people are still just as willing to administer what they believe are painful electric shocks to others when urged on by an authority figure.

Jerry M. Burger, PhD, replicated one of the famous obedience experiments of the late Stanley Milgram, PhD, and found that compliance rates in the replication were only slightly lower than those found by Milgram. And, like Milgram, he found no difference in the rates of obedience between men and women.

Burger’s findings are reported in the January issue of American Psychologist. The issue includes a special section reflecting on Milgram’s work 24 years after his death on Dec. 20, 1984, and analyzing Burger’s study.

“People learning about Milgram’s work often wonder whether results would be any different today,” said Burger, a professor at Santa Clara University. “Many point to the lessons of the Holocaust and argue that there is greater societal awareness of the dangers of blind obedience. But what I found is the same situational factors that affected obedience in Milgram’s experiments still operate today.”

Stanley Milgram was an assistant professor at Yale University in 1961 when he conducted the first in a series of experiments in which subjects – thinking they were testing the effect of punishment on learning – administered what they believed were increasingly powerful electric shocks to another person in a separate room. An authority figure conducting the experiment prodded the first person, who was assigned the role of “teacher” to continue shocking the other person, who was playing the role of “learner.” In reality, both the authority figure and the learner were in on the real intent of the experiment, and the imposing-looking shock generator machine was a fake.

Milgram found that, after hearing the learner’s first cries of pain at 150 volts, 82.5 percent of participants continued administering shocks; of those, 79 percent continued to the shock generator’s end, at 450 volts. In Burger’s replication, 70 percent of the participants had to be stopped as they continued past 150 volts – a difference that was not statistically significant.

“Nearly four out of five of Milgram’s participants who continued after 150 volts went all the way to the end of the shock generator,” Burger said. “Because of this pattern, knowing how participants react at the 150-volt juncture allows us to make a reasonable guess about what they would have done if we had continued with the complete procedure.”

Milgram’s techniques have been debated ever since his research was first published. As a result, there is now an ethics codes for psychologists and other controls have been placed on experimental research that have effectively prevented any precise replications of Milgram’s work. “No study using procedures similar to Milgram’s has been published in more than three decades,” according to Burger.

Burger implemented a number of safeguards that enabled him to win approval for the work from his university’s institutional review board. First, he determined that while Milgram allowed his subjects to administer “shocks” of up to 450 volts in 15-volt increments, 150 volts appeared to be the critical point where nearly every participant paused and indicated reluctance to continue. Thus, 150 volts was the top range in Burger’s study.

In addition, Burger screened out any potential subjects who had taken more than two psychology courses in college or who indicated familiarity with Milgram’s research. A clinical psychologist also interviewed potential subjects and eliminated anyone who might have a negative reaction to the study procedure.

In Burger’s study, participants were told at least three times that they could withdraw from the study at any time and still receive the $50 payment. Also, these participants were given a lower-voltage sample shock to show the generator was real – 15 volts, as compared to 45 volts administered by Milgram.

Several of the psychologists writing in the same issue of American Psychologist questioned whether Burger’s study is truly comparable to Milgram’s, although they acknowledge its usefulness.

“…there are simply too many differences between this study and the earlier obedience research to permit conceptually precise and useful comparisons,” wrote Arthur G. Miller, PhD, of Miami University in Oxford, Ohio.

“Though direct comparisons of absolute levels of obedience cannot be made between the 150-volt maximum of Burger’s research design and Milgram’s 450-volt maximum, Burger’s ‘obedience lite’ procedures can be used to explore further some of the situational variables studied by Milgram, as well as look at additional variables,” wrote Alan C. Elms, PhD, of the University of California, Davis. Elms assisted Milgram in the summer of 1961.

Um novo bóson à vista (FAPESP)

Físicos do Cern descobriram nova partícula que parece ser o bóson de Higgs

MARCOS PIVETTA | Edição Online 19:46 4 de julho de 2012

Colisões de prótons nos quais se observa quatro elétrons de alta energia (linhas verdes e torres vermelhas). O evento mostra características esperadas do decaimento de um bóson de Higgs mas também é coerente com processos de fundo do modelo padrão

de Lindau (Alemanha)*

O maior laboratório do mundo pode ter encontrado a partícula que dá massa a todas as outras partículas, o tão procurado bóson de Higgs. Era a peça que faltava para completar um quebra-cabeça científico chamado modelo padrão, o arcabouço teórico formulado nas últimas décadas para explicar as partículas e forças presentes na matéria visível do Universo. Depois de analisarem trilhões de colisões de prótons produzidas em 2011 e em parte deste ano no Grande Acelerador de Hádrons (LHC), físicos dos dois maiores experimentos tocados de forma independente no Centro Europeu de Energia Nuclear (Cern) anunciaram nesta quarta-feira (4), nos arredores de Genebra (Suíça), a descoberta de uma nova partícula que tem quase todas as características do bóson de Higgs, embora ainda não possam assegurar com certeza de que se trata especificamente desse ou de algum outro tipo de bóson.

“Observamos em nossos dados sinais claros de uma nova partícula na região de massa em torno de 126 GeV (Giga-elétron-volts)”, disse a física Fabiola Gianotti, porta-voz do experimento Atlas. “Mas precisamos um pouco mais de tempo para prepararmos os resultados para publicação.” As informações provenientes de outro experimento feito no Cern, o CMS, são praticamente idênticas. “Os resultados são preliminares, mas os sinais que vemos em torno da região com massa de 125 GeV são dramáticos. É realmente uma nova partícula. Sabemos que deve ser um bóson e é o bóson mais pesado que achamos”, afirmou o porta-voz do experimento CMS, o físico Joe Incandela. Se tiver mesmo uma massa de 125 ou 126 GeV, a nova partícula será tão pesada quanto um átomo do elemento químico iodo.

Em ambos os casos experimentos, o grau de confiabilidade das análises estatísticas atingiu o nível que os cientistas chamam de 5 sigma. Nesses casos, a chance de erro é de uma em três milhões. Ou seja, com esse nível de certeza, é possível falar que houve uma descoberta, só não se conhece em detalhes a natureza da partícula encontrada. “É incrível que essa descoberta tenha acontecido durante a minha vida”, comenta Peter Higgs, o físico teórico britânico que, há 50 anos, ao lado de outros cientistas, previu a existência desse tipo de bóson. Ainda neste mês, um artigo com os dados do LHC deverá ser submetido a uma revista científica. Até o final do ano, quando acelerador será fechado para manutenção por ao menos um ano e meio, mais dados devem ser produzidos pelos dois experimentos.

“Estou rindo o dia todo”
Em Lindau, uma pequena cidade do sul da Alemanha à beira do lago Constance na divisa com a Áustria e a Suíça, onde ocorre nesta semana o 62º Encontro de Prêmios Nobel, os pesquisadores comemoraram a notícia vinda dos experimentos no Cern. Como o tema do encontro deste ano era física, não faltaram laureados com a maior honraria da ciência para comentar o feito. “Não sabemos se é o bóson (de Higgs), mas é um bóson”, disse o físico teórico David J. Gross, da Universidade de Califórnia, ganhador do Nobel de 2004 pela descoberta da liberdade assintótica. “Estou rindo o dia todo.” O físico experimental Carlo Rubia, ex-diretor geral do Cern e ganhador do Nobel de 1984 por trabalhos que levaram à identificação de dois tipos de bósons (o W e Z), foi na mesma linha de raciocínio. “Estamos diante de um marco”, afirmou.

Talvez com um entusiasmo um pouco menor, mas ainda assim reconhecendo a enorme importância do achado no Cern, dois outros Nobel deram sua opinião sobre a notícia do dia. “É algo que esperávamos há anos”, afirmou o físico teórico holandês Martinus Veltman, que recebeu o prêmio em 1999. “O modelo padrão ganhou um degrau maior de validade.” Para o cosmologista americano George Smoot, ganhador do Nobel de 2006 pela descoberta da radiação cósmica de fundo (uma relíquia do Big Bang, a explosão primordial que criou o Universo), ainda deve demorar uns dois ou três anos para os cientistas realmente saberem que tipo de nova partícula foi realmente descoberta. Se a nova partícula não for o bóson de Higgs, Smoot disse que seria “maravilhoso se fosse algo relacionado com a matéria escura”, um misterioso componente que, ao lado da matéria visível e da ainda mais desconhecida energia escura, seria um dos pilares do Universo.

Não é possível medir de forma direta partículas com as propriedades do bóson de Higgs, mas sua existência, ainda que fugaz, deixaria rastros, que, estes sim, poderiam ser detectados num acelerador de partículas tão potente como o LHC. Instáveis e fugazes, os bósons de Higgs sobrevivem uma ínfima fração de segundo – até decaírem e virarem partículas menos pesadas, que, por sua vez, decaem também e dão origem a partículas ainda mais leves. O modelo padrão prevê que, em função de sua massa, os bósons de Higgs devem decair em diferentes canais, ou seja, em distintas combinações de partículas mais leves, como dois fótons ou quatro léptons. Nos experimentos feitos no Cern, dos quais participaram cerca de 6 mil físicos, foram encontradas evidências quase inequívocas das formas de decaimento que seriam a assinatura típica dos bóson de Higgs.

*O jornalista Marcos Pivetta viajou a Lindau a convite do Daad (Serviço Alemão de Intercâmbio Acadêmico)

Para evitar catástrofes ambientais (FAPERJ)

Vilma Homero

05/07/2012

 Nelson Fernandes / UFRJ
 
  Novos métodos podem prever onde e quando
ocorrerão deslizamentos na região serrana

Quando várias áreas de Nova Friburgo, Petrópolis e Teresópolis sofreram deslizamentos, em janeiro de 2011, soterrando mais de mil pessoas em toneladas de lama e destroços, a pergunta que ficou no ar foi se o desastre poderia ter sido minimizado. No que depender do Instituto de Geociências da Universidade Federal do Rio de Janeiro (UFRJ), as consequências provocadas por cataclismas ambientais como esses poderão ser cada vez menores. Para isso, os pesquisadores estão desenvolvendo uma série de projetos multidisciplinares para viabilizar sistemas de análise de riscos. Um deles é o Prever, que, com suporte de programas computacionais, une os avanços alcançados em metodologias de sensoriamento remoto, geoprocessamento, geomorfologia e geotecnia, à modelagem matemática para a previsão do tempo em áreas mais suscetíveis a deslizamentos, como a região serrana. “Embora a realidade dos vários municípios daquela região seja bastante diferente, há em comum uma falta de metodologias voltadas à previsão para esse tipo de risco. O fundamental agora é desenvolver métodos capazes de prever a localização espacial e temporal desses processos. Ou seja, saber “onde” e “quando” esses deslizamentos podem ocorrer”, explica o geólogo Nelson Ferreira Fernandes, professor do Departamento de Geografia da UFRJ e Cientista do Nosso Estado da FAPERJ.Para elaborar métodos de previsão de risco, em tempo real, que incluam movimentos de massa deflagrados em resposta a entradas pluviométricas, os pesquisadores estão traçando um mapeamento, realizado a partir de sucessivas imagens captadas por satélites, que são cruzadas com mapas geológicos e geotécnicos. O Prever combina modelos de simulação climática e de previsão de eventos pluviométricos extremos, desenvolvidos na área da meteorologia, com modelos matemáticos de previsão, mais as informações desenvolvidos pela geomorfologia e pela geotecnia, que nos indicam as áreas mais suscetíveis a deslizamentos. Assim, podemos elaborar traçar previsões de risco, em tempo real, classificando os resultados de acordo com a gravidade desse risco, que varia continuamente, no espaço e no tempo”, explica Nelson.

Para isso, os Departamentos de Geografia, Geologia e Meteorologia do Instituto de Geociências da UFRJ se unem à Faculdade de Geologia da Universidade do Estado do Rio de Janeiro (Uerj) e ao Departamento de Engenharia Civil da Pontifícia Universidade Católica (PUC-Rio). Com a sobreposição de informações, pode-se apontar, nas imagens resultantes, as áreas mais sensíveis a deslizamentos. “Somando esses conhecimentos acadêmicos aos dados de órgãos estaduais, como o Núcleo de Análise de Desastres (Nade), do Departamento de Recursos Minerais (DRM-RJ), responsável pelo apoio técnico à Defesa Civil, estaremos não apenas atualizando constantemente os mapas usados hoje pelos órgãos do governo do estado e pela Defesa Civil, como estaremos também facilitando um planejamento mais preciso para a tomada de decisões.”

 Divulgação / UFRJ
Uma simulação mostra em imagem a possibilidade de
um deslizamento de massas na
 região de Jacarepaguá

Esse novo mapeamento também significa melhor qualidade e maior precisão e mais detalhamento de imagens. “Obviamente, com melhores instrumentos em mãos, o que quer dizer mapas mais detalhados e precisos, os gestores públicos também poderão planejar e agir de forma mais acurada e em tempo real”, afirma Nelson. Segundo o pesquisador, esses mapas precisam ter atualização constante para acompanhar a dinâmica da interferência da ocupação humana sobre a topografia das várias regiões. “Isso vem acontecendo seja pelo corte de encostas, seja pela ocupação de áreas aterradas ou pelas mudanças em consequência da drenagem de rios. Tudo isso altera a topografia e, no caso de chuvas mais fortes e prolongadas, pode tornar determinados solos mais propensos a deslizamentos ou a alagamentos e enchentes”, exemplifica Nelson.Mas os sistemas de análises de desastres e riscos ambientais também compreendem outras linhas de pesquisa. No Prever, se trabalha em duas linhas de ação distintas. “Uma delas é a de clima, em que detectamos as áreas em que haverá um aumento pluviométrico a longo prazo e fornecemos informações a órgãos de decisão e planejamento. Outra é a previsão de curtíssimo prazo, o chamadonowcasting.” No caso de previsão de longo prazo, a professora Ana Maria Bueno Nunes, do Departamento de Meteorologia da mesma universidade, vem trabalhando no projeto “Implementação de um Sistema de Modelagem Regional: Estudos de Tempo e Clima”, sob sua coordenação, com a proposta de uma reconstrução do hidroclima da América do Sul, uma extensão daquele projeto.

“Unindo dados sobre precipitação fornecidos por satélite às informações das estações atmosféricas, é possível, através de modelagem computacional, traçar estimativas de precipitação. Assim, podemos não apenas saber quando haverá chuvas de intensidade mais forte, ou mais prolongadas, como também observar em mapas passados qual foi a convergência de fatores que provocou uma situação de desastre. A reconstrução é uma forma de estudar o passado para entender cenários atuais que se mostrem semelhantes. E, com isso, ajudamos a melhorar os modelos de previsão”, afirma Ana. Estas informações, que a princípio servirão para uso acadêmico e científico, permitirão que se tenha dados cada vez mais detalhados de como se formam grandes chuvas, aquelas que são capazes de provocar inundações em determinadas áreas. “Isso permitirá não apenas compreender melhor as condições em que certas situações de calamidade acontecem, como prever quando essas condições podem se repetir. Com o projeto, estamos também formando recursos humanos ainda mais especializados nessa área”, avalia a pesquisadora, cujo trabalho conta com recursos de um Auxílio à Pesquisa (APQ 1).

Também integrante do projeto, o professor Gutemberg Borges França, da UFRJ, explica que existem três tipos de previsão meteorológica: a sinótica – que traça previsões numa média de 6h até sete dias, cobrindo alguns milhares de km, como o continente sul-americano; a de mesoescala, que faz previsões sobre uma média de 6h a dois dias, cobrindo algumas centenas de km, como o estado do Rio de Janeiro; e a de curto prazo, ou nowcasting, que varia de poucos minutos até 3h a 6h, sobre uma área específica de poucos km, como a região metropolitana do Rio de Janeiro, por exemplo.

Se previsões de longo prazo são importantes, as de curto prazo, ou nowcasting, também são. Segundo Gutemberg, os atuais modelos numéricos de previsão ainda são deficientes para realizar a previsão de curto prazo, que termina sendo feita em grande parte com base na experiência do meteorologista, pela interpretação das informações de várias fontes de dados disponíveis, como imagens de satélites; de estações meteorológicas de superfície e altitude; de radar e sodar (Sonic Detection and Ranging), e modelos numéricos. “No entanto, o meteorologista carece ainda hoje de ferramentas objetivas que possam auxiliá-lo na integração dessas diversas informações para realizar uma previsão de curto prazo mais acurada”, argumenta Gutemberg.Atualmente, o Rio de Janeiro já dispõe de estações de recepção de satélites, estação de altitude – radiosondagem – que geram perfis atmosféricos, estações meteorológicas de superfície e radar. O Laboratório de Meteorologia Aplicada do Departamento de Meteorologia, da UFRJ, está desenvolvendo, desde 2005, ferramentas de previsão de curto prazo, utilizando inteligência computacional, visando o aprimoramento das previsões de eventos meteorológicos extremos para o Rio de Janeiro. “Com inteligência computacional, temos essa informação em tempo mais curto e de forma mais acurada.”, resume.

© FAPERJ – Todas as matérias poderão ser reproduzidas, desde que citada a fonte.

The Secret Lives of Dangerous Hackers (N.Y.Times)

‘We Are Anonymous’ by Parmy Olson

By , Published: May 31, 2012

In December 2010 the heat-seeking Internet pranksters known as Anonymous attacked PayPal, the online bill-paying business. PayPal had been a conduit for donations to WikiLeaks, the rogue whistle-blower site, until WikiLeaks released a huge cache of State Department internal messages. PayPal cut off donations to the WikiLeaks Web site. Then PayPal’s own site was shut down, as Anonymous did what it did best: exaggerate the weight of its own influence.

WE ARE ANONYMOUS – Inside the Hacker World of LulzSec, Anonymous, and the Global Cyber Insurgency, By Parmy Olson. 498 pages. Little, Brown & Company. $26.99.

But, according to “We Are Anonymous,” by Parmy Olson, the London bureau chief for Forbes magazine, it had taken a single hacker and his botnet to close PayPal. “He then signed off and went to have his breakfast,” she writes.

(The accuracy of this account is in dispute. PayPal says that its site was never fully down. But as Ms. Olson says, in “a note about lying to the press,” this is how she weighed information as a reporter: “Did supporters of Anonymous lie to me in some interviews?  Yes, though admittedly not always to start with. Over time, if I was not sure about a key point, I would seek to corroborate it with others.  Such is the case with statements presented as fact in this book.  My approach to Anons who were lying to me was simply to go along with their stories, acting as if I were impressed with what they were saying in the hope of teasing out more information that I could later confirm.  I have signposted certain anecdotes with the word “claimed” — e.g., a person “claimed” that story is true.  Not everyone in Anonymous and LulzSec lied all the time, however, and there were certain key sources who were most trustworthy than others and whose testimony I tended to more closely, chief among them being Jake Davis.”  Mr. Davis, known as Topiary, appears to be a principal source in describing how the PayPal attack unfolded.)

Valgas Moore. Parmy Olson

Even so, Anonymous made it seem like the work of its shadowy horde. “We lied a bit to the press to give it that sense of abundance,” says the figure named Topiary, one of the best sources in “We Are Anonymous,” a lively, startling book by Ms. Olson that reads as “The Social Network” for group hackers.

As in that Facebook film the technological innovations created by a few people snowball wildly beyond expectation, until they have mass effect. But the human element — the mix of glee, malevolence, randomness, megalomania and just plain mischief that helped spawn these changes — is what Ms. Olson explores best.

“Here was a network of people borne out of a culture of messing with others,” she writes, “a paranoid world whose inhabitants never asked each other personal questions and habitually lied about their real lives to protect themselves.”

The story of Anonymous and its offshoots is worth telling because of the fast and unpredictable ways they have grown. Anonymous began attracting attention after it attacked the Church of Scientology in 2008; subsequent targets have included Sony’s PlayStation network, Fox television and ultimately the C.I.A.  The Homeland Security Department expressed its own worries last year.

Ms. Olson provides a clear timeline through Anonymous’s complicated, winding history. She concentrates particularly on how it spun off the smaller, jokier group LulzSec. “If Anonymous had been the 6 o’clock news, LulzSec was ‘The Daily Show,’ ” she writes.

The breeding ground for much of this was 4chan, the “Deep Web” destination “still mostly unknown to the mainstream but beloved by millions of regular users.” The realm of 4chan called /b/ is where some of this book’s most destructive characters spent their early Internet years, soaking up so much pornography, violence and in-joke humor that they became bored enough to move on. Ms. Olson, whose evenhanded appraisals steer far clear of sensationalism, describes 4chan as “a teeming pit of depraved images and nasty jokes, yet at the same time a source of extraordinary, unhindered creativity.” It thrived on sex and gore. But it popularized the idea of matching funny captions with cute cat photos too.

“We Are Anonymous” also captures the broad spectrum of reasons that Anonymous and LulzSec attracted followers. Some, like Topiary — who turned out to be Jake Davis, an outwardly polite 19-year-old from a sheep-farming community on the remote Shetland Island called Yell, who was arrested in 2011 — were in it for random pranks and taunting laughs. This book does not shy away from the raw language its principals used, as when Topiary told one victim: “Die in a fire. You’re done.” Other participants had political motivations. The New Yorker calling himself Sabu began as a self-styled revolutionary and was instrumental in getting Anonymous to invade the Web sites of top government officials in Tunisia.

A pivotal part of this book concerns the arrest of Sabu, the unveiling of his real identity as Hector Monsegur, and the F.B.I.’s subsequent use of him as an informant. Sabu’s dealings with Julian Assange of WikiLeaks are also described. Ms. Olson notes how Sabu “suddenly seemed very keen to talk to the WikiLeaks founder once his F.B.I. handlers were watching.”

Ms. Olson regards it as inevitable that neither Anonymous nor LulzSec could reconcile the divergent goals of its participants. Bullying jokesters and politically oriented hacktivists may share sophisticated knowledge of how to manipulate the Web and social media, but each faction became an embarrassment to the other. Topiary told Ms. Olson about his own long-distance contact with Mr. Assange, whom he describes as both intrigued by the saboteurs’ potential and critical of their silly side. (After sifting through 75,000 e-mails from a digital security firm, Topiary bashfully admits, one of the things that most interested him was an e-mail from the chief executive’s wife saying, “I love when you wear your fuzzy socks with your jammies.” )

The most startling conversation in “We Are Anonymous” was arranged by the author: an in-the-flesh meeting between Topiary and a person she calls William, since he remains unidentified.

William personifies the dehumanizing effects of cybercrime, and he knows it. One of his specialties is extorting pornographic pictures and then putting them to damaging use. “We split up several boyfriends and girlfriends and appalled many people’s mothers,” he recalls, about the Facebook tricks the book describes in detail. “I’d be lying if I said there was any great reason,” he adds. “I don’t feel guilty, it makes me laugh, and it wastes a night.”

Together they confirm the worst suspicions about the power of sophisticated but untethered Internet manipulation. “You could inspire some 15-year-old, or someone with a 15-year-old’s mind-set, to hate whoever you want them to hate,” William says.

Postscript: May 31, 2012

After this article was published, PayPal contacted The Times to take issue with the statements in the book that say the hackers shut down its Web site. Jennifer Hakes, a senior manager in corporate communications, said that as a result of the attacks in December 2010, “PayPal was never down.”

Steiner e Cúpula dos Povos se chocam quanto à economia verde (IPS)

Economia Verde
19/6/2012 – 09h28

por Fabiana Frayssinet, da IPS

c17 300x198 Steiner e Cúpula dos Povos se chocam quanto à economia verde

Achim Steiner debatendo na Cúpula dos Povos. Crédito: João Roberto Ripper

Rio de Janeiro, Brasil, 18/6/2012 (TerraViva) O diretor-executivo do Programa das Nações Unidas para o Meio Ambiente (Pnuma), Achim Steiner, acredita que ele a Cúpula dos Povos coincidem quanto ao atual modelo econômico ter causado o colapso ambiental. Porém, o diálogo sobre como substituí-lo se transformou em áspero debate.

O encontro com Steiner foi o mais esperado da Cúpula dos Povos: um alto representante da Conferência das Nações Unidas sobre Desenvolvimento Sustentável, a Rio+20, se deslocou para o outro lado da cidade, até a sede da reunião da sociedade civil no Aterro do Flamengo, para discutir com ecologistas e ativistas sociais sobre economia verde.

A economia verde é proposta como uma grande transformação dos modelos de produção e consumo para deter a contaminação e o esgotamento dos recursos naturais. Entretanto, para os movimentos sociais, não é mais do que outra cor para disfarçar o capitalismo.

“A Cúpula dos Povos é crítica da economia verde, porque os povos é que sofrem a crise do capitalismo e desse modelo de produção que quanto mais se agrava mais avança sobre nossos direitos”, afirmou de início a brasileira Fátima Mello, uma das organizadoras do encontro.

“Entendemos que a economia verde, que se baseia na mercantilização de bens naturais, está estreitamente ligada a uma economia marrom”, de contaminação e depredação, disse a também brasileira Larissa Packer, da organização Terra de Direitos.

A verdadeira “economia verde não é o dólar verde, como a veem os governantes. É nossa Amazônia verde”, defendeu o indígena boliviano Edwin Vásquez, que acusou as corporações transnacionais de invadirem e saquearem os recursos naturais.

Por sua vez, o argentino Juan Herrera, da rede internacional Via Camponesa, propôs um modelo de “economia popular, solidária e camponesa” que substitua o atual grande agronegócio, pois este “gerou verdadeiros desertos de soja e milho onde os camponeses já não têm um lugar”.

Diante desses pronunciamentos e críticas, Steiner, um especialista em políticas ambientais, se confessou “surpreso”. “No Pnuma estabelecemos que o modelo econômico atual não é o modelo do futuro. Estamos de acordo com vocês nisso”, afirmou, orientando os participantes a “lerem o documento oficial desta agência das Nações Unidas que aborda as diferentes interpretações sobre economia verde.

Sem seus habituais terno e gravata, Steiner explicou que o “fracasso” de não se ter evitado a degradação natural “tem a ver com o modelo econômico do mundo que trata o planeta como mineração: extrair, extrair e extrair”.

E quase adotou a mesma linguagem que a plateia adversária, ao se declarar crítico da “capacidade do mercado de alcançar o desenvolvimento sustentável”, e especificou: um mercado baseado, como se fosse uma “lei da física”, na livre oferta e demanda.

“O atum de barbatana azul vale hoje no mercado US$ 4 mil. Por isto, as empresas poderiam capturar até o último exemplar”, deu como exemplo para justificar que o “mercado não ajuda a administrar o planeta de forma sustentável”.

As diferenças surgiram ao se buscar opções a esse modelo. Entre outras propostas, Steiner propôs atribuir um valor econômico ao ecossistema, para promover “leis que protejam a natureza ou negócios que não sejam destrutivos”.

Também se referiu a novas tecnologias “boas e possíveis”, como as energias limpas e renováveis, que não gerariam desemprego, porque, pelo contrário, “dão mais empregos do que a indústria automobilística”.

Seus argumentos não convenceram o especialista em biodiversidade Pat Mooney. Este canadense citou tecnologias danosas propostas pela economia verde, como a biologia sintética, que modifica micro-organismos, ou o desenvolvimento de variedades transgênicas, que concentrou o controle das sementes em um punhado de multinacionais.

Mooney se disse espantado por uma economia verde que agora busca controlar a biomassa do planeta.

Tampouco o embaixador da Bolívia perante a Organização das Nações Unidas (ONU), Pablo Solón, ficou convencido, acusando Steiner de “não ter sido honesto”.

“Por trás desse conceito está o assumir que a natureza é um quintal”, enfatizou Solón elevando a voz, e afirmou que “não estamos inventando isso”, que está no rascunho em discussão pelos governos na Rio+20.

Steiner “disse que buscam desacoplar o crescimento com a deterioração ambiental. Não se pode crescer eternamente, o limite é a biodiversidade! O que necessitamos é redistribuir a riqueza!”, polemizou.

“Não por ter elevado o tom de voz e o da plateia, tudo o que você disse é correto”, respondeu Steiner. Nessa polarização entre capitalismo e anticapitalismo “o mundo não avançará”, ressaltou ao argumentar o difícil que é conseguir consenso entre todos os Estados-membros da ONU.

Propor uma economia verde sem regulamentar o mercado financeiro causará o contrário da conservação: “uma bolha financeira imprevisível”, apontou Packer ao TerraViva. “Quando há escassez de uma mercadoria, seu valor sobe. Portanto, quanto mais se destruir a natureza, maior será o valor dos ativos naturais”, alertou. (IPS/TerraViva)

* Publicado originalmente no site TerraViva.

Desenvolvimento sustentável requer transformação também na ciência (Fapesp)

Em novo paradigma da ciência para a sustentabilidade global, cientista tende a ser mais multidisciplinar e mais participativo na sociedade, segundo Lidia Brito, diretora da Divisão de Políticas Científicas da Unesco (foto:Unesco)

13/06/2012

Por Fábio de Castro, do Rio de Janeiro

Agência FAPESP – Depois de concluir que é preciso reinaugurar a relação entre a ciência e a sociedade para viabilizar as ações necessárias para a sustentabilidade global, a comunidade científica internacional se deu conta de que já foi dado o primeiro passo nessa direção.

A ciência para a sustentabilidade, um novo paradigma do conhecimento, já está sendo construída, segundo Lidia Brito, diretora da divisão de Políticas Científicas da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco).

Ex-ministra da Ciência de Moçambique, Brito participa no Rio de Janeiro do “Forum on Science, Technology and Innovation for Sustainable Development”, que ocorre até sexta-feira (15/06).

O evento de cinco dias tem o objetivo de debater uma nova agenda científica internacional para o período que se seguirá à Conferência das Nações Unidas sobre Desenvolvimento Sustentável (RIO+20) – que será realizada também na capital fluminense entre 13 e 22 de junho.

O fórum é organizado pelo Conselho Internacional para a Ciência (ICSU, na sigla em inglês), em parceria com Unesco, a Federação Mundial das Organizações de Engenharia (WFEO), o Conselho Internacional de Ciências Sociais (ISSC), o Ministério da Ciência, Tecnologia e Inovação (MCTI) e a Academia Brasileira de Ciências (ABC).

As discussões no fórum estão alinhadas com a Declaração sobre o Estado do Planeta, documento que sintetizou o resultado dos debates da reunião Planet Under Pressure, copresidida por Brito, em Londres (Inglaterra), onde mais de 3 mil cientistas envolvidos com diversos temas socioambientais discutiram qual seria a posição da comunidade científica internacional na RIO+20.

Uma das principais conclusões da declaração é que o sistema terrestre tem limites para sua exploração e os atuais níveis de pressão nesse sistema poderão levar a uma emergência humanitária de escala global, com a intensificação das crises sociais, econômicas e ambientais.

A superação desses problemas exigirá um novo pacto entre a ciência e a sociedade, com maior conectividade entre as lideranças de todos os setores, e, de acordo com Brito, essa mudança já está em andamento.

Em entrevista à Agência FAPESP, Brito falou sobre o novo paradigma para a sustentabilidade global, que requer um cientista cada vez mais multidisciplinar e mais participativo na sociedade. Explicou ainda por que rejeita a expressão “economia verde” e defendeu que o PIB é insuficiente para medir o sucesso do desenvolvimento de um país.

Agência FAPESP – A comunidade científica chega à RIO+20 com uma mensagem clara para a sociedade?
Lidia Brito – Há uma posição clara e algumas mensagens. Uma das grandes conclusões da comunidade científica do planeta é que entramos em uma nova era, o Antropoceno. Uma era em que o homem é a maior força a conduzir os destinos do planeta. Portanto, há uma nova responsabilidade do ponto de vista da humanidade em relação ao planeta. Outra conclusão é que o Antropoceno é uma era de interconexões, na qual tudo está interligado. Essa interconexão também ocorre em um ponto crítico, que são as fronteiras planetárias. Nas mudanças que introduzimos no sistema planetário, estamos a atingir essas fronteiras interligadas. Não é só o aumento da temperatura isoladamente, nem a acidificação dos oceanos, nem a perda da biodiversidade de forma individual, mas é como tudo isso está ligado.

Agência FAPESP – É correto dizer que essa mesma profusão de interconexões que gera os problemas globais também proporciona oportunidades para lidar com eles?
Lidia Brito – Sim. Essa interconexão profunda é um risco, porque o que quer que seja que façamos para empurrar uma dessas fronteiras, a fim de manter seu nível de estabilidade, irá criar instabilidade e incertezas em todas as outras fronteiras. Mas temos também que ver essa sociedade e esse sistema planetário interconectados como uma oportunidade inédita que nos é oferecida. Porque a mudança é mais rápida. Ideias e soluções que podem nos levar para uma zona de maior estabilidade são mais viáveis, porque tudo está ligado. Isso, por outro lado, faz com que a ciência tenha que mudar. Esse é um grande desafio que temos pela frente.

Agência FAPESP – O que o cientista precisa mudar em sua atitude e seu modo de trabalhar, tanto individualmente como coletivamente?
Lidia Brito – Individualmente, o cientista tem que entender que já não é suficiente trabalhar apenas na zona de conforto de sua disciplina, mas que é necessário se ligar com outras áreas de ciência, a outros sistemas de conhecimento, para que juntos novas soluções possam aparecer. São soluções às vezes até enraizadas em conhecimento já existente, mas só o fato de trazer outras disciplinas, outras formas de estar nas ciências, outras metodologias, outras perspectivas, dá um campo diferente para encontrar soluções.

Agência FAPESP – É preciso refletir a interconectividade no interior da própria atividade científica?
Lidia Brito – Sim, exatamente, com multidisciplinaridade e até mesmo transdisciplinaridade. Usar inclusivamente metodologias de outras áreas de ciência para nosso próprio campo científico. Isso é um desafio importante para o cientista da atualidade: abrir-se a outras comunidades, a outros colegas e outras áreas de ciência. Em nível global coletivo, da ciência como uma comunidade planetária, não só devemos trabalhar juntos nas diferentes perspectivas do conhecimento, mas principalmente engajarmo-nos em uma interação muito mais aberta com a sociedade e os tomadores de decisão – em nível do governo, do setor privado e da sociedade civil – para codesenhar e coproduzir essas soluções que são necessárias para uma sustentabilidade global.

Agência FAPESP – O cientista precisa aumentar seu poder de influência para ser capaz de trazer subsídios científicos para os processos decisórios?
Lidia Brito – Claro. Para isso é preciso interagir de uma forma que essas outras comunidades não se sintam fora da decisão ou do desenho daquilo que é a questão científica. O cientista não deve ditar soluções unilateralmente com base em seu conhecimento, ou não atingirá a sociedade. Seu verdadeiro papel na atualidade é dizer quais são as questões que enfrentamos como humanidade e como nós todos – comunidade científica, gestores políticos, setor privado, sociedade civil – vamos encontrar juntos soluções com base científica para essas questões que afligem a todos nós.

Agência FAPESP – Isso será um processo longo?
Lidia Brito – Acho que é uma questão que demanda urgência. Não podemos esperar muito tempo para fazer essa mudança. O que foi bom em todo esse processo é que já temos uma iniciativa, oFuture of Earth, que procura, da parte da comunidade científica em nível global, trazer todas as ciências e os stakeholders – os intervenientes do processo de desenvolvimento sustentável – para a mesa, a fim de definir quais são as questões que temos que investigar e juntos vamos conseguir fazer isso. É um momento interessante, porque está a haver como que um rearranjo da governança científica e da forma como nós olhamos fazer ciência, que está claramente na mesa e está claramente a influir. E penso que é emblemático que isto esteja a acontecer de novo no Rio de Janeiro. Porque em 1992 houve uma mudança drástica, que, acredito, ocorre mais uma vez em 2012. A comunidade científica está a trazer para a RIO+20 sua convicção em dizer: já percebemos o que é preciso mudar, vamos todos mudar juntos. É isso que trazemos para a mesa na Conferência.

Agência FAPESP – Fala-se também de tecnologia nesse fórum. Muitas vezes há uma impressão distorcida do papel da tecnologia, como se ela tivesse a função de fornecer soluções para que se possa manter o chamado cenário business as usual, isto é, seguir no mesmo padrão de consumo, produção e pressão ambiental atual. Como contornar essa distorção?
Lidia Brito – Simplesmente não podemos manter esses padrões. Está fora de questão. A tecnologia tem um papel enorme nesse processo e desenvolvimento sustentável. Mas, por si própria, a tecnologia não dá conta. Ela tem que ser acompanhada por uma transformação social e uma consciência e um compromisso social de que temos que trazer a sustentabilidade global como algo que tem que fazer parte do nosso próprio tecido. Em cada dia, em cada ação que tomamos, a sustentabilidade global precisa estar presente. O que faz diferença, talvez, é esse termo “global”. Nem norte nem sul, nem rico nem pobre. Todos nós. Tem que estar no tecido de nossas nações e do nosso comportamento individual e coletivo. Só assim poderemos aspirar a um mundo mais estável.

Agência FAPESP – A consciência dessa centralidade do desenvolvimento sustentável está arraigada até que ponto na comunidade científica?
Lidia Brito – A Unesco, quando publicou o Relatório da Ciência em 2010, já tinha mostrado que havia uma mudança efetiva no cenário da comunidade cientifica. O que vemos, objetivamente, é muito mais colaboração internacional, muito mais ciência interdisciplinar. Acreditamos que já inclusivamente estamos em uma mudança de paradigmas. A ciência para a sustentabilidade global é o novo paradigma da ciência.

Agência FAPESP – Então a ciência para a sustentabilidade global não é apenas uma aspiração dos pesquisadores, mas uma nova realidade que começa a tomar forma?
Lidia Brito – É algo que está a permear as várias escolas e vários níveis da produção de conhecimento e de ciência. Um exemplo disso é a iniciativa Future of Earth, que é um comprometimento da comunidade científica de que vamos trabalhar juntos nas varias áreas de saber. É também um compromisso daqueles que apoiam a pesquisa global: os financiadores da pesquisa estão conosco nesse comprometimento. Estamos prontos para fazer outro tipo de ciência que responde melhor aos desafios globais. Agora, há muita coisa a fazer. E um dos grandes desafios é garantir que não haja exclusões nesses processos. Parte desse movimento consiste em criar capacidade científica em países que não a têm. E o Brasil é um país que claramente tem um papel enorme nisso.

Agência FAPESP – Por quê?
Lidia Brito – Porque vocês conseguiram criar a vossa capacidade científica nas várias áreas do saber. O Brasil tem experiências nessa coprodução, nessa multidisciplinaridade na abordagem da ciência para o desenvolvimento sustentável. O Brasil pode ser um modelo para o estabelecimento de metas nesse contexto. É um país que mostrou muita capacidade de trazer juntas as redes do conhecimento. Em muitos aspectos vocês estão na dianteira, é simbólico que estejamos discutindo isso no Rio de Janeiro.

Agência FAPESP – Vários pesquisadores brasileiros que temos entrevistado têm demonstrado certo ceticismo em relação à chamada “economia verde”. Qual resposta se pode dar a eles?
Lidia Brito – Para ser honesta, nós na Unesco não falamos em economia verde. Falamos de sociedade verde. Penso que o ceticismo dos investigadores vem daí: a discussão não é sobre economia. O que temos certeza é que, no Antropoceno, não é possível falar apenas de um dos blocos do desenvolvimento sustentável. A economia não pode ser discutida sem as questões sociais, culturais e ambientais. Elas estão interligadas e não podem ser tratadas de forma independente. Fico satisfeita com os cientistas brasileiros, que não querem falar apenas em economia. Temos que falar em sociedade verde, para destacar essa força de mudança.

Agência FAPESP – A senhora é a favor de abandonar o conceito de PIB e criar outras medidas de prosperidade?
Lidia Brito – Claramente não podemos ter só o PIB como medida de sucesso de uma sociedade. O PIB é muito restrito, não mede inclusão social, nem a harmonia entre homem e natureza, não mede o bem-estar das pessoas, nem a equidade. Temos que ter outras medidas. Por isso, nas conclusões do Planet under Pressure, dissemos: usem a comunidade cientifica para definir outras metas. Para desenvolver modelos de medida integrada da economia, sociedade e ambiente. Sim, sou uma das defensoras de que precisa haver outras medidas de sucesso de um país que considerem o desenvolvimento sustentável em todos seus pilares.

Liderança “verde” do Brasil cética com a Rio+20 (Envolverde/IPS)

Envolverde Rio + 20
11/6/2012 – 07h41

por Fabíola Ortiz, da IPS

e11 300x225 Liderança “verde” do Brasil cética com a Rio+20

Marina Silva. Foto: Divulgação.

Rio de Janeiro, Brasil, 11/6/2012 – A agenda para a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, a Rio+20, que acontece este mês no Brasil, ainda carece de prioridades e seus resultados podem ficar sepultados diante das urgências da crise econômica global, afirmou a ex-ministra brasileira de Meio Ambiente (2003-2009), Marina Silva. O documento final da Rio+20 continua sendo “fraco e geral” e não contém contribuições que superem o que foi feito nos últimos 20 anos, desde a Cúpula da Terra de 1992, opinou Marina em entrevista a jornalistas de meios internacionais.

“A discussão sobre economia verde, desenvolvimento social e governança perdeu força, por isso qualquer acordo geral, que não tenha uma atitude crítica e não incorpore instrumentos para enfrentar a deterioração do planeta, atentará contra a memória da cúpula de 1992”, criticou a ex-ministra, que também foi candidata a presidente pelo Partido Verde. Após obter 20 milhões de votos nas eleições presidenciais de 2010, Marina criou o não governamental Instituto Democracia e Sustentabilidade, o qual representará na Cúpula dos Povos na Rio+20 por Justiça Social e Ambiental, que acontecerá entre 15 e 23 deste mês, paralela à reunião oficial organizada pela Organização das Nações Unidas (ONU).

Para Marina, a linha de trabalho para a Rio+20, que em nível de chefes de Estado e de governo acontecerá entre os dias 20 e 22, continua com um grave problema de origem, que é aparecerem separadas ecologia e economia, quando deveriam estar integradas. “A União Europeia atende prioritariamente a crise econômica que a afeta, o presidente dos Estados Unidos, Barack Obama, fracassou em sua tentativa de avançar em uma agenda de clima e biodiversidade, e a China não se mobiliza e não assume compromissos”, declarou.

Apesar de cientistas de todo o mundo alertarem para os graves problemas que a humanidade enfrentará se não for detida a deterioração ambiental, os governos não incorporam em suas agendas propostas de solução ou mudança de rumo, alertou Marina. “O mundo enfrenta uma crise dramática, que se constitui de múltiplas crises: econômica, política, ambiental e de valores”, ressaltou.

A última fase de negociação prévia à Rio+20 será completada no dia 13 no Rio de Janeiro. Perante esta instância, a atual ministra de Meio Ambiente, Izabella Teixeira, contrapôs o pessimismo de Marina Silva ao afirmar que as notícias “são bastante promissoras” para o documento base do encontro. Admitiu que se está diante de um desafio importante, que é obter um consenso que exige compromissos e convergências dos governos. “Temos que facilitar e permitir que todos façam sua parte e que se sintam comprometidos com as diretrizes e os resultados da Rio+20”, afirmou à IPS.

A ministra entende que as negociações iniciadas em Nova York tiveram “avanços importantes”, por isso acredita que o legado da Rio+20 será mais amplo do que o da cúpula de duas décadas atrás, a Eco 92, e refletirá plenamente o conceito de sustentabilidade. Contudo, também reconheceu que devem ser discutidos “novos modelos econômicos ou não conseguiremos fazer a mudança para um desenvolvimento sustentável”.

Por sua vez, Marina Silva afirmou que o Brasil, como anfitrião da Rio+20, reúne as condições para fazer esse rompimento do modelo do Século 20 e atuar como ponte negociadora na busca de compromissos. “É muito importante que o Brasil assuma um papel de liderança para mediar saídas com propostas efetivas para este encontro, sob pena de acabar com a memória da Eco 92”, alertou. Em tom de crítica sobre a gestão da presidente Dilma Rousseff, Marina destacou que espera que sejam corrigidos os rumos de seu governo, para encabeçar uma “nova agenda de economia e desenvolvimento sustentável”.

O Brasil ainda não pode se considerar uma potência socioambiental, apesar de possuir 11% das reservas de água doce do mundo, 20% das espécies vivas, 60% de seu território coberto por florestas, 280 povos autóctones que falam cerca de 120 línguas diferentes além do português, enfatizou Marina. “Isto não nos transforma em uma potência ambiental por natureza, é preciso consegui-lo com atitudes políticas eficazes. Nossa agricultura tem condições para ter uma base sustentável, e não podemos repetir os mesmos equívocos cometidos pelos países industrializados”, indicou.

A aprovação do polêmico Código Florestal mostrou um retrocesso na política ambiental brasileira e coloca em discussão a liderança do governo quanto a levar adiante uma economia sustentável, advertiu Marina. “Vivemos um momento de dúvidas. Parece que podemos retroceder para uma economia semelhante à do século passado. No entanto, é possível ainda reduzir a pobreza, ter crescimento econômico e diminuir as emissões com menos devastação”, apontou.

Às vésperas da Rio+20, o Brasil passa por um desmonte de sua legislação ambiental, especialmente do Código Florestal, que segue adiante apesar de 80% dos entrevistados em diferentes pesquisas afirmarem não concordar com as mudanças realizadas. “O Brasil não precisa desmatar para se manter como um grande produtor de grãos, pois podemos duplicar a produção agrícola sem derrubar uma só árvore”, esclareceu Marina. “Temos tecnologia e conhecimento sem que seja necessário expandir a fronteira agrícola. Podemos produzir alimentos preservando a base natural de nosso desenvolvimento”, concluiu.

Free application for smartphones with real time information on the Rio+20 conference (IISD)

Free application for smartphones with real time information on the Rio+20 conference, by IISD:

http://itunes.apple.com/us/app/enb-mobile/id529597393?ls=1&mt=8

On the web:

http://enb.iisd.mobi/uncsd-rioplus20/

 

Tomgram: Bill McKibben, Climate-Change Deniers Have Done Their Job Well (TomDispatch.com)

Posted by Bill McKibben at 4:40pm, June 3, 2012.

Here’s the thing about climate-change deniers: these days before they sit down to write their blog posts, they have to turn on the AC.  After all, it might as well be July in New York (where I’m writing this), August in Chicago (where a century-old heat record was broken in late May), and hellat the Indy 500.  Infernos have been raging from New Mexico and Colorado, where the fire season started early, to the shores of Lake Superior, where dry conditions and high temperatures led to Michigan’s third largest wildfire in its history.  After a March heat wave for the record books, we now have summer in late spring, the second-named tropical storm of the season earlier than ever recorded, and significant drought conditions, especially in the South and Southwest.  In the meantime, carbon dioxide (and other greenhouse gases) continue to head for the atmosphere inrecord quantities.  And in case anyone living in a big city doesn’t know it, heat can kill.

It’s true that no single event can be pinned on climate change with absolute certainty.  But anyone who doesn’t think we’re in a fierce new world of weather extremes — and as TomDispatch regularBill McKibben has suggested, on an increasingly less hospitable planet that he calls Eaarth — is likely to learn the realities firsthand soon enough.  Not so long ago, if you really wanted to notice the effects of climate change around you, you had to be an Inuit, an Aleut, or some other native of the far north where rising temperatures and melting ice were visibly changing the landscape and wrecking ways of life — or maybe an inhabitant of Kiribati.  Now, it seems, we are all Inuit or Pacific islanders.  And the latest polling numbers indicate that Americans are finally beginning to notice in their own lives, and in numbers that may matter.

With that in mind, we really do need a new term for the people who insist that climate change is a figment of some left-wing conspiracy or a cabal of miscreant scientists.  “Denial” (or the more active “deniers”) seems an increasingly pallid designation in our new world.  Consider, for instance, that in low-lying North Carolina, a leading candidate for disaster from globally rising sea levels, coastal governments and Republicans in the state legislature are taking action: they are passing resolutions against policies meant to mitigate the damage from rising waters and insisting that official state sea-level calculations be made only on the basis of “historic trends,” with no global warming input.  That should really stop the waters!

In the meantime, this spring greenhouse-gas monitoring sites in the Arctic have recorded a startling first: 400 parts per million of carbon dioxide in the atmosphere.  It’s an ominous line to cross (and so quickly).  As in the name of McKibben’s remarkable organization, 350.org, it’s well above the safety line for what this planet and many of the species on it, including us, can take in the long term, and heat-trapping gases in the atmosphere are still on the rise.  All of this is going to get ever harder to “deny,” no matter what resolutions are passed or how measurements are restricted.  In the meantime, the climate-change deniers, McKibben reports, are finally starting to have troubles of their own. Tom

The Planet Wreckers
Climate-Change Deniers Are On the Ropes — But So Is the Planet

By Bill McKibben

It’s been a tough few weeks for the forces of climate-change denial.

First came the giant billboard with Unabomber Ted Kacynzki’s face plastered across it: “I Still Believe in Global Warming. Do You?” Sponsored by the Heartland Institute, the nerve-center of climate-change denial, it was supposed to draw attention to the fact that “the most prominent advocates of global warming aren’t scientists. They are murderers, tyrants, and madmen.” Instead it drew attention to the fact that these guys had over-reached, and with predictable consequences.

A hard-hitting campaign from a new group called Forecast the Facts persuaded many of the corporations backing Heartland to withdraw $825,000 in funding; an entire wing of the Institute, devoted to helping the insurance industry, calved off to form its own nonprofit. Normally friendly politicians like Wisconsin Republican Congressman Jim Sensenbrenner announced that they would boycott the group’s annual conference unless the billboard campaign was ended.

Which it was, before the billboards with Charles Manson and Osama bin Laden could be unveiled, but not before the damage was done: Sensenbrenner spoke at last month’s conclave, but attendance was way down at the annual gathering, and Heartland leaders announced that there were no plans for another of the yearly fests. Heartland’s head, Joe Bast, complained that his side had been subjected to the most “uncivil name-calling and disparagement you can possibly imagine from climate alarmists,” which was both a little rich — after all, he was the guy with the mass-murderer billboards — but also a little pathetic.  A whimper had replaced the characteristically confident snarl of the American right.

That pugnaciousness may return: Mr. Bast said last week that he was finding new corporate sponsors, that he was building a new small-donor base that was “Greenpeace-proof,” and that in any event the billboard had been a fine idea anyway because it had “generated more than $5 million in earned media so far.” (That’s a bit like saying that for a successful White House bid John Edwards should have had more mistresses and babies because look at all the publicity!) Whatever the final outcome, it’s worth noting that, in a larger sense, Bast is correct: this tiny collection of deniers has actually been incredibly effective over the past years.

The best of them — and that would be Marc Morano, proprietor of the website Climate Depot, and Anthony Watts, of the website Watts Up With That — have fought with remarkable tenacity to stall and delay the inevitable recognition that we’re in serious trouble. They’ve never had much to work with.  Only one even remotely serious scientist remains in the denialist camp.  That’s MIT’s Richard Lindzen, who has been arguing for years that while global warming is real it won’t be as severe as almost all his colleagues believe. But as a long article in the New York Times detailed last month, the credibility of that sole dissenter is basically shot.  Even the peer reviewers he approved for his last paper told the National Academy of Sciences that it didn’t merit publication. (It ended up in a “little-known Korean journal.”)

Deprived of actual publishing scientists to work with, they’ve relied on a small troupe of vaudeville performers, featuring them endlessly on their websites. Lord Christopher Monckton, for instance, an English peer (who has been officially warned by the House of Lords to stop saying he’s a member) began his speech at Heartland’s annual conference by boasting that he had “no scientific qualification” to challenge the science of climate change.

He’s proved the truth of that claim many times, beginning in his pre-climate-change career when he explained to readers of the American Spectator that “there is only one way to stop AIDS. That is to screen the entire population regularly and to quarantine all carriers of the disease for life.” His personal contribution to the genre of climate-change mass-murderer analogies has been to explain that a group of young climate-change activists who tried to take over a stage where he was speaking were “Hitler Youth.”

Or consider Lubos Motl, a Czech theoretical physicist who has never published on climate change but nonetheless keeps up a steady stream of web assaults on scientists he calls “fringe kibitzers who want to become universal dictators” who should “be thinking how to undo your inexcusable behavior so that you will spend as little time in prison as possible.” On the crazed killer front, Motl said that, while he supported many of Norwegian gunman Anders Breivik’s ideas, it was hard to justify gunning down all those children — still, it did demonstrate that “right-wing people… may even be more efficient while killing — and the probable reason is that Breivik may have a higher IQ than your garden variety left-wing or Islamic terrorist.”

If your urge is to laugh at this kind of clown show, the joke’s on you — because it’s worked. I mean, James Inhofe, the Oklahoma Republican who has emerged victorious in every Senate fight on climate change, cites Motl regularly; Monckton has testified four times before the U.S. Congress.

Morano, one of the most skilled political operatives of the age — he “broke the story” that became the Swiftboat attack on John Kerry — plays rough: he regularly publishes the email addresses of those he pillories, for instance, so his readers can pile on the abuse. But he plays smart, too. He’s a favorite of Fox News and of Rush Limbaugh, and he and his colleagues have used those platforms to make it anathema for any Republican politician to publicly express a belief in the reality of climate change.

Take Newt Gingrich, for instance.  Only four years ago he was willing to sit on a love seat with Nancy Pelosi and film a commercial for a campaign headed by Al Gore.  In it he explained that he agreed with the California Congresswoman and then-Speaker of the House that the time had come for action on climate. This fall, hounded by Morano, he was forced to recant again and again.  His dalliance with the truth about carbon dioxide hurt him more among the Republican faithful than any other single “failing.”  Even Mitt Romney, who as governor of Massachusetts actually took some action on global warming, has now been reduced to claiming that scientists may tell us “in fifty years” if we have anything to fear.

In other words, a small cadre of fervent climate-change deniers took control of the Republican party on the issue.  This, in turn, has meant control of Congress, and since the president can’t sign a treaty by himself, it’s effectively meant stifling any significant international progress on global warming.  Put another way, the variousright wing billionaires and energy companies who have bankrolled this stuff have gotten their money’s worth many times over.

One reason the denialists’ campaign has been so successful, of course, is that they’ve also managed to intimidate the other side. There aren’t many senators who rise with the passion or frequency of James Inhofe but to warn of the dangers of ignoring what’s really happening on our embattled planet.

It’s a striking barometer of intimidation that Barack Obama, who has a clear enough understanding of climate change and its dangers, has barely mentioned the subject for four years.  He did show a little leg to his liberal base in Rolling Stoneearlier this spring by hinting that climate change could become a campaign issue.  Last week, however, he passed on his best chance to make good on that promise when he gave a long speech on energy at an Iowa wind turbine factory without even mentioning global warming. Because the GOP has been so unreasonable, the President clearly feels he can take the environmental vote by staying silent, which means the odds that he’ll do anything dramatic in the next four years grow steadily smaller.

On the brighter side, not everyone has been intimidated.  In fact, a spirited counter-movement has arisen in recent years.  The very same weekend that Heartland tried to put the Unabomber’s face on global warming, 350.org conducted thousands of rallies around the globe to show who climate change really affects. In a year of mobilization, we also managed to block — at least temporarily — the Keystone pipeline that would have brought the dirtiest of dirty energy, tar-sands oil, from the Canadian province of Alberta to the Gulf Coast.  In the meantime, our Canadian allies are fighting hard to block a similar pipeline that would bring those tar sands to the Pacific for export.

Similarly, in just the last few weeks, hundreds of thousands have signed on to demand an end to fossil-fuel subsidies. And new polling data already show more Americans worried about our changing climate, because they’ve noticed the freakish weather of the last few years and drawn the obvious conclusion.

But damn, it’s a hard fight, up against a ton of money and a ton of inertia. Eventually, climate denial will “lose,” because physics and chemistry are not intimidated even by Lord Monckton. But timing is everything — if he and his ilk, a crew of certified planet wreckers, delay action past the point where it can do much good, they’ll be able to claim one of the epic victories in political history — one that will last for geological epochs.

Bill McKibben is Schumann Distinguished Scholar at Middlebury College, founder of the global climate campaign 350.org, a TomDispatch regular, and the author, most recently, of Eaarth: Making a Life on a Tough New Planet.

Copyright 2012 Bill McKibben

A Negação das Mudanças Climáticas e seu Despropósito versus a Objetividade e Atitude Ponderada da Comunidade Científica

by Alexandre Araújo Costa on Wednesday, June 6, 2012 at 12:56pm (postado no Facebook)

Tenho recebido respostas interessantes a meus posts anteriores em que discuto a negação das mudanças climáticas. Alguns, que concordam ou simpatizam com a visão dos negadores, compartilharam links que, democraticamente, permanecem na minha página, expondo ainda mais os erros crassos e primários da negação. Como mostro, nenhum dos pseudo-argumentos apresentados se sustenta de pé, tendo eu mesmo os refutado ou indicado links que desmistificam tudo. Em alguns casos, indicar outros materiais de sites confiáveis como http://www.realclimate.org ou http://www.skepticalscience.com torna-se mais fácil e prático, pois uma característica da incansável hidra negadora é a da reciclagem de material (pelo menos nisso, ela é ecologicamente correta…). Algo desmentido uma vez pode aparecer noutro momento e/ou noutro país como uma “nova descoberta” para mostrar que “o aquecimento global é uma farsa” e toda a ladainha negadora repetida à exaustão, no esforço de repetir tanto uma mentira até que ela pareça verdade. Infelizmente, como mostrei em http://www.facebook.com/notes/alexandre-ara%C3%BAjo-costa/a-nega%C3%A7%C3%A3o-das-mudan%C3%A7as-clim%C3%A1ticas-o-bode-e-os-gamb%C3%A1s-o-que-%C3%A9-uma-opini%C3%A3o-pondera/393911987317366, algumas dessas mentiras parecem mesmo ter forte tendência a serem perpetuadas, como as acusações grotescas contra Michael Mann e outros cientistas.

Obviamente há também os comentários de amigos que compartilham dos meus pontos de vista (ou pelo menos de boa parte deles) sobre o que está em jogo no que diz respeito à negação das mudanças climáticas. E muitos desses comentários têm servido de mote para dar prosseguimento à discussão. Assim como foi com o bode, inspirado por um desses amigos, assim é com a discussão sobre as noções de “posição ponderada” ou “posição radical” trazida por outro, que levanta a questão de que se “a posição ponderada sobre o aquecimento global é a do IPCC”, (…) “ela estaria entre as hipóteses radicais minimizadoras/negacionistas e supostas hipóteses radicais alarmistas/apocalípticas”.

O “texto do bode” dá dicas no sentido de que uma coisa não leva necessariamente à outra, dando exemplos em que, na realidade, pontos de vista intermediários seriam impossíveis ou, no mínimo, bizarrices frankensteinianas de pensamento. Há nessa suposição uma simplificação, como se pudéssemos marcar os pontos de vista como pontos geométricos em um segmento de reta e que a posição que representa uma melhor aproximação da realidade seria uma espécie de média (aritmética ou “ponderada”) dos extremos. Evidentemente, num debate que prime pela honestidade intelectual e em que os atores sejam movidos por um interesse comum, talvez o esqueminha da figura abaixo tenha alguma validade. Caso contrário, é preciso abandoná-lo como representação pictórica adequada.

É fato que não vi nenhum cientista falando de “efeito estufa desenfreado” (que aconteceu provavelmente em Vênus) como algo que possa ocorrer na Terra em um futuro tangível, ou outra teoria “radical” nesse sentido, mas quando digo que o IPCC tenta exprimir o consenso da comunidade científica, isso quer dizer que ele tenta encontrar estimativas quantitativas de um determinado fenômeno, efeito ou processo (bem como da incerteza em torno dessa estimativa), com base no que há disponível na literatura científica e/ou em bases de dados reconhecidamente validadas.

Para processos, fenômenos e componentes do sistema climático com efeito bem conhecido, geralmente a “barra de erro” (incerteza) é pequena, indicando que os valores estimados por diferentes metodologias e por diferentes grupos de pesquisa relatados em diferentes artigos na literatura são todos muito próximos. Processos sobre os quais não se tem um conhecimento quantitativo tão preciso geralmente exibem uma barra de erro maior, exprimindo exatamente esse menor grau de entendimento na forma de um maior espalhamento entre as estimativas individuais disponíveis na literatura.

Uma das estimativas mais importantes nesse sentido é a da grandeza que conhecemos como “Forçante Radiativa”, isto é, a contribuição de um determinado componente do sistema climático (seja um gás de efeito estufa ou um tipo de aerossol, ou a variabilidade solar, etc.) para alterar o balanço de energia desse sistema ao longo de um dado período. A Forçante Radiativa é a energia ganha ou perdida (respectivamente positiva ou negativa) pelo sistema climático em função das mudanças nesse componente por unidade de área por unidade de tempo (sendo medida em Watts por metro quadrado ou W/m2). Por exemplo, como vários gases de efeito estufa têm tido sua concentração aumentada desde o período pré-industrial, eles exercem uma forçante radiativa positiva desde lá até o presente pois mais energia é retida no sistema climático agora do que antes, ao invés de deixar o planeta na forma de radiação infravermelho. Por outro lado, uma atmosfera com mais aerossóis (partículas líquidas ou sólidas em suspensão) reflete mais luz, portanto, como a concentração destes também aumentou com a industrialização, os aerossóis contribuem com uma forçante radiativa negativa, pois menos energia entra no sistema na forma de luz solar. Um componente cujo comportamento não tenha mudado de maneira significativa nos últimos séculos exerce, portanto, uma forçante radiativa próxima de zero.

Dentre as componentes bem estudadas e com estimativas bem consolidadas, estão o CO2 e demais gases de efeito estufa de vida longa (metano, óxido nitroso e halocarbonetos). Em 2005, a estimativa era de que o aumento antrópico do CO2 na atmosfera (cuja concentração então era de 379 partes por milhão e hoje em dia ultrapassou 390) contribuía com uma forçante de +1,66 W/m2 (com pequena incerteza para mais ou para menos) um valor bastante significativo para o aquecimento do sistema climático terrestre. Os demais gases de efeito estufa entram com algo muito próximo de 1 W/m2 a mais.

Mesmo com incertezas relativamente maiores, o caso do Sol é um excelente exemplo de como o IPCC chega a uma estimativa “de consenso”. Em http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch2s2-7-1-2.html, é mostrado um levantamento das estimativas disponíveis na literatura científica de quanto a atividade solar teria variado desde o período conhecido como “mínimo de Maunder”, no século XVII, até os dias de hoje, algo que tanto os negadores gostam de falar. Devo dizer que as estimativas não são de artigos de pesquisadores em clima, mas de estudos por especialistas… em Sol. As estimativas são de que as mudanças na atividade solar desde então têm contribuído com quase zero (isso mesmo!) a, na estimativa maior, +0,68 W/m2, como mostrado neste link. Percebam que, baseando-se nos especialistas que estudam o Sol, o IPCC não poderia fazer outra coisa a não ser atribuir às variações de atividade solar uma forçante radiativa de aquecimento bastante modesta, de poucos décimos de W/m2. Não haveria motivo para concluir que o Sol não variou em nada se apenas dois estudos em dez vão nesse sentido, mas também não teria sentido adotar uma estimativa próxima do outro extremo. Mas é preciso deixar claro! Mesmo se escolhêssemos a dedo esse maior valor, ainda assim chegaríamos à conclusão inevitável de que a contribuição da variabilidade solar para o clima desde o século XVII é várias vezes menor do que a dos gases de efeito estufa! Considerando estimativas a partir do século XVIII (e não XVII), fica mais claro que o papel do Sol é ainda menos significativo (forçante radiativa estimada de apenas +0,12 W/m2).

Algo parecido é feito com os aerossóis de sulfato como em http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch2s2-4-4-1.html, mostrando que, como sua concentração na atmosfera também aumentou em função da industrialização, esses aerossóis exercem um efeito de resfriamento, contrabalançando parte do efeito de aquecimento dos gases de efeito estufa, com estimativas de forçante radiativa variando entre -0,12 e -0,96 W/m2.

Há valores discrepantes entre estimativas? Há! Mas, ei… não é um leilão onde um negador pode chegar e chutar qualquer valor numérico, nem muito menos, sem nenhum embasamento, chegar e dizer “o aquecimento é natural”, “o sol é que está causando o aquecimento da Terra”, etc. Mede-se, calcula-se, submete-se à apreciação da revisão por pares. Aí sim, ganha-se voz no debate científico. Os que abandonam a seriedade do método realmente não têm compromisso em se aproximar da verdade científica.

Portanto, a opinião ponderada não está “no meio” entre opiniões cientificamente fundamentadas e desvarios motivados por agenda econômica, político-ideológica ou vaidade! Não pode estar! Está “no meio” daquilo que tem valor científico! As indicações do IPCC são médias entre medidas e estimativas de verdade, documentadas e publicadas às quais se agrega uma barra de incerteza. Representa o bom senso de não considerar como verdade absoluta nenhum valor individualmente medido ou estimado por diferentes pesquisadores usando diferentes métodos (satélite, observação de superfície, modelagem, etc.). Tampouco se agarra em um valor extremo, nem de um lado, nem de outro. Essas estimativas são o ponto de partida para obter tanto a melhor avaliação (a grosso modo, a média) quanto a incerteza, que depende do espalhamento das várias estimativas, chegando a algo como http://www.ipcc.ch/publications_and_data/ar4/wg1/en/fig/figure2-20-l.png, reproduzida a seguir.

Essa figura não deixa margens para dúvidas e é por isso que o IPCC se pronunciou. Ao se somar os efeitos, o resultado é de uma forçante radiativa positiva, que não pode resultar em outra coisa senão aquecimento. De onde vem a maior parte desse sinal? Do CO2 e dos gases de efeito estufa. O silêncio seria uma postura de irresponsabilidade e covardia extremas, numa situação em que, mesmo tomando a menor estimativa de aquecimento por esses gases e a maior estimativa de resfriamento pelos aerossóis (o principal fator que atua no sentido contrário), ainda assim se obtém um número que indica que o planeta está, sim, aquecendo, e de maneira intrinsecamente ligada às atividades humanas. Esse posicionamento (que para muito além do IPCC enquanto instituição é a de mais de 97% daqueles que são pesquisadores atuantes na área, vide http://www.skepticalscience.com/global-warming-scientific-consensus-intermediate.htm), portanto, é ponderada, séria, realista. Nada tem de radical. Se a ciência alerta para riscos e implica em mudanças em nossa sociedade que podem parecer incômodas, e as pessoas preferem ignorar esse alerta, aí é outra história! Espero que fique claro, assim, porque não se pode conceder um milímetro sequer aos negadores, em seu desserviço à opinião pública, em sua ação deliberada de desinformação, em sua campanha abertamente anti-ciência.

Mas se vocês querem saber, parece haver alguém que tem radicalizado no sentido oposto ao dos negadores, sim! Esse alguém tem mostrado que algumas projeções do IPCC são, ao invés de ponderadas, subestimadas, conservadoras… Já ouviram falar de uma tal de “Natureza”? Pois bem… Mas esse será o assunto de outro artigo…

II Fórum Mundial de Mídia Livre fará parte da Cúpula dos Povos, durante a Rio +20 (Revista Fórum)

Envolverde Rio + 20
31/5/2012 – 11h08

por Por Mikaele Teodoro, da Revista Fórum.

Capa62 II Fórum Mundial de Mídia Livre fará parte da Cúpula dos Povos, durante a Rio +20Evento acontece no Rio de Janeiro, nos dias 16 e 17 de junho.

Nos dias 16 e 17 de junho acontece, no Rio de Janeiro, o II Fórum Mundial de Mídia Livre. O evento vai reunir “midialivristas” tais como: representantes de sites, ativistas, rádios e TVs comunitárias, pontos de cultura, coletivos atuantes nas redes sociais e também agências, revistas e emissoras alternativas comprometidas com a luta pelo conhecimento livre. O encontro fará parte da Cúpula dos Povos da Rio+20, evento paralelo à Conferência da ONU sobre desenvolvimento sustentável.

Bia Barbosa, do Coletivo Intervozes, explica que o momento é ideal para discutir a mídia livre. “O II Fórum Mundial de Mídia Livre acontecerá num momento em que a mídia livre e todas as suas formas de organização e expressão ganham espaço no contexto das mobilizações globais por um mundo mais justo, como ocorreu na Primavera Árabe e também nas ocupações realizadas, no último ano, em diversas partes do globo”, destaca.

No II FML, midialivristas de diversos países discutirão temas como alternativas de produção de informação, maneiras de estruturar politicamente a mídia livre internacional, discutir alternativas de financiamento e de compartilhamento de conteúdo, propagar novas possibilidades de atuação disponibilizadas pelas novas tecnologias, entre outros. “Vai ter gente de varias partes do mundo, um grupo grande de pessoas do norte da África, representantes do Uruguai, França, Alemanha e muitos outros”, afirma Bia. “A intenção dos organizadores é atrair diferentes públicos para as discussões. Não queremos tornar o debate muito técnico, comum apenas para os profissionais da comunicação.”

O encontro contará com atividades autogestionadas, além de painéis, debates livres, oficinas e plenárias, e será na Universidade Federal do Rio de Janeiro (UFRJ), ao lado do Aterro do Flamengo.

Confira abaixo a programação:

Dia 16

9h: Abertura – Auditório Pedro Calmon (campus da UFRJ – Urca)
O II Fórum Mundial de Mídia Livre e a Rio+20: A luta da comunicação e da cultura como bens comuns

11h: Painéis simultâneos

Eixo 1 – Direito à Comunicação – Auditório Pedro Calmon (UFRJ – Urca)
Temas em debate: acesso à informação; liberdade de expressão; agressões a jornalistas; criminalização da mídia livre; conglomerados mundiais de comunicação e o discurso hegemônico sobre desenvolvimento

Eixo 2 – Apropriação Tecnológica – Auditório Eletrobras (Casa do Estudante – Flamengo)
Temas em debate: novos modelos organizacionais e econômicos; protocolos livres; liberdade de internet; espectro livre e tecnologia digital (rádio e TV digital); formação para apropriação tecnológica

13h – Almoço

14h – Painel eixo 3: Políticas Públicas – Auditório Pedro Calmon (UFRJ – Urca)
Temas em debate: comunicação e democracia; marcos regulatórios; padrões internacionais e boas práticas de regulação; sistema público de comunicação; rádios comunitárias; rádios livres; sustentabilidade das mídias livres

16h – Atividades autogestionadas – salas de aula ECO (UFRJ – Urca)
Rodas de conversa, desconferências, oficinas, Fórum Extendido

Dia 17

9h – Painéis simultâneos

Eixo 4 – Movimentos Sociais – Auditório Pedro Calmon (UFRJ – Urca)
Temas em debate: Produção de conteúdo e informação pela sociedade civil (incluindo o debate sobre a disputa de valores em torno do desenvolvimento sustentável); as lutas nas redes e nas ruas e o ativismo global; como aumentar o impacto da mídia livre nas lutas sociais; sinergia entre plataformas regionais de informação; troca de experiências e iniciativas; os midialivristas e o processo do Fórum Social Mundial

Mulher, mídia e bens comuns – Auditório Eletrobras (Casa do Estudante – Flamengo)
Temas em debate: invisibilidade e exclusão da história das mulheres; liberdade de expressão e negação da memória; lutas das mulheres nas redes sociais; das Marchas das Vadias às denúncias de discriminação das mulheres na Primavera Árabe; produção de conteúdo pelo direito à igualdade e diversidade de gênero e raça na rede; regulação de mídia e a questão da representação da imagem da mulher; o potencial de impacto desse debate nas redes sociais.

10h30 – Plenária Geral – Auditório Pedro Calmon (UFRJ – Urca)
Organização de estratégias e encaminhamento de propostas para a Plenária de Convergência da Cúpula dos Povos sobre Bens Comuns

13h – Almoço

14h – Atividades autogestionadas – salas de aula ECO (UFRJ – Urca)
Rodas de conversa, desconferências, oficinas, Fórum Extendido

Inscrição de atividades para o II Fórum Mundial de Mídia Livre: http://cupuladospovos.org.br/fmml/

Outras informações:
http://medias-libres.rio20.net
http://forumdemidialivre.org
http://freemediaforum.org

* Publicado originalmente no site da Revista Fórum.

Festival interativo leva visitantes a experimentar situações de desastre ambiental (Agência Brasil)

01/6/2012 – 10h42

por Thais Leitão, da Agência Brasil

Chamada53 Festival interativo leva visitantes a experimentar situações de desastre ambientalRio de Janeiro – Uma floresta que entra em chamas colocando em risco a vida de animais e da vegetação existente; uma geleira intacta que de repente começa a derreter ou uma casa que sofre inundação. Todas essas situações, provocadas pelo desequilíbrio ambiental, podem ser experimentadas pelo público durante o Green Nation Fest, festival interativo e sensorial que começou hoje (31) na Quinta da Boa Vista, zona norte do Rio de Janeiro, e vai até 7 de junho.

De acordo com o diretor da organização não governamental (ONG) Centro de Cultura, Informação e Meio Ambiente (Cima), que organiza do evento, Marcos Didonet, o objetivo é levar experiências práticas aos visitantes e estimular o público a agir de forma mais sustentável. A Cima desenvolve há mais de 20 anos ações em parceria com instituições privadas, governamentais e multilaterais.

“O objetivo é alcançar o grande público que não está acostumado a vivenciar a questão ambiental, trazendo o assunto de forma mais interessante, agradável e prática. Para isso, nossos artistas e cientistas bolaram essas instalações capazes de promover sensações que serão ainda mais frequentes se não mudarmos nossos padrões de consumo e comportamentos cotidianos”, afirmou.

No local, também há tendas onde ocorrem oficinas lúdicas e educativas. Em uma delas, montada pelo Instituto Estadual do Ambiente (Inea), um grupo de 30 alunos da rede municipal do Rio aprendeu, hoje, a produzir carteiras usando caixas de leite e recortes de tecido.

Para a estudante Ana Beatriz Leão, 14 anos, a ideia é criativa e pode servir para presentear amigos. “É legal porque a gente geralmente joga no lixo e agora sabe que dá para fazer outras coisas com a caixa. A que eu fiz, vou dar para uma amiga que tenho certeza que vai gostar”, contou a adolescente.

Na mesma tenda, os visitantes podem conferir outros produtos feitos com material reutilizado, como uma pequena bateria produzida com latinhas de refrigerante, livros infantis com retalhos de tecidos e bonecos com caixa de sapato.

Entre os meninos, uma das atividades preferidas é o Gol de Bicicleta na qual os participantes pedalam e geram energia para seu time. A cada watt gerado, um gol é marcado para o time de preferência. Além disso, uma bateria é abastecida e leva energia para ser utilizada em outra instalação do festival.

Os amigos Gustavo Fonseca e Roberto Damião, ambos de 11 anos, também alunos da rede municipal do Rio, disseram que a experiência é “muito intensa”.

“Foi muito legal porque a gente aprendeu outra maneira de gerar energia e ainda fez gol pro Mengão”, disse Roberto, que torce pelo Flamengo.

O evento, com entrada gratuita, também oferece uma a Mostra Internacional de Cinema, com 12 longas-metragens, e seminários com convidados brasileiros e internacionais sobre economia verde e criativa, que serão abertos para debates. A programação completa pode ser conferida no site www.greennationfest.com.br.

* Publicado originalmente no site da Agência Brasil.

 

University of Tennessee anthropologists find American heads are getting larger (University of Tennessee)

University of Tennessee at Knoxville

White Americans’ heads are getting bigger — that’s according to research by forensic anthropologists at the University of Tennessee, Knoxville

White Americans’ heads are getting bigger. That’s according to research by forensic anthropologists at the University of Tennessee, Knoxville.

Lee Jantz, coordinator of UT’s Forensic Anthropology Center (FAC); Richard Jantz, professor emeritus and former director of the FAC; and Joanne Devlin, adjunct assistant professor, examined 1,500 skulls dating back to the mid-1800s through the mid-1980s. They noticed U.S. skulls have become larger, taller and narrower as seen from the front and faces have become significantly narrower and higher.

The researchers cannot pinpoint a reason as to why American head shapes are changing and whether it is primarily due to evolution or lifestyle changes.

“The varieties of changes that have swept American life make determining an exact cause an endlessly complicated proposition,” said Lee Jantz. “It likely results from modified growth patterns because of better nutrition, lower infant and maternal mortality, less physical work, and a breakdown of former ethnic barriers to marriage. Which of these is paramount we do not know.”

The researchers found that the average height from the base to the top of the skull in men has increased by eight millimeters (0.3 inches). The skull size has grown by 200 cubic centimeters, a space equivalent to a tennis ball. In women, the corresponding increases are seven millimeters and 180 cubic centimeters.

Skull height has increased 6.8 percent since the late 1800s, while body height has increased 5.6 percent and femur length has only increased about 2 percent. Also, skull-height has continued to change whereas the overall heightening has recently slowed or stopped.

The scientists also noted changes that illustrate our population is maturing sooner. This is reflected in the earlier closing of a separation in the bone structure of the skull called the spheno-occipital synchondrosis, which in the past was thought to fuse at about age twenty. Richard Jantz and Natalie Shirley, an adjunct assistant professor in the FAC, have found the bone is fusing much earlier — 14 for girls and 16 for boys.

America’s obesity epidemic is the latest development that could affect skeletal shape but its precise effects are unclear.

“This might affect skull shape by changing the hormonal environment, which in turn could affect timing of growth and maturation,” said Richard Jantz. “We know it has an effect on the long bones by increasing muscle attachment areas, increasing arthritis at certain joints, especially the knee, and increasing the weight bearing capacity.”

The research only assessed Americans of European ancestry because they provided the largest sample sizes to work with. Richard Jantz said changes in skeletal structure are taking place in many parts of the world, but tend to be less studied. He said research has uncovered shifts in skull shape in Europe though it is not as dramatic as seen in the U.S.

The findings were presented on April 14 in Portland, Ore. at the annual meeting of the American Association of Physical Anthropologists

Resultado mais forte da Rio+20 virá da sociedade civil, dizem cientistas (OESP)

Especialistas estimam que principal mensagem do evento será passado pela Cúpula dos Povos

21 de maio de 2012 | 3h 05
Giovana Girardi – O Estado de S.Paulo

A exatamente um mês da Rio+20, membros da sociedade civil reunidos ontem em São Paulo em debate sobre a conferência para o desenvolvimento sustentável manifestaram que, nessa altura dos acontecimentos, o melhor que se pode esperar do evento é que ele sirva para fortalecer a mobilização da sociedade.

Arquiteto Nabil Bonduki diz que cúpula vai apontar que outro mundo podemos ter - Divulgação
Divulgação
Arquiteto Nabil Bonduki diz que cúpula vai apontar que outro mundo podemos ter

“Os temas que estão colocados na Rio+20 – economia verde, governança e erradicação da pobreza – são como recomeçar o mundo. Sem dúvida são coisas que dependem de acordos entre governos, mas temos a sensação de que esses acordos vão demorar cada vez mais. Então é fundamental a sociedade se mobilizar por esses temas, pressionar”, afirmou o pesquisador da USP Pedro Roberto Jacobi, do Programa de Pós Graduação em Ciência Ambiental. Ele falou durante debate no evento Viva a Mata, que celebra o Dia Nacional da Mata Atlântica, no domingo.

Jacobi resumiu um sentimento que prevalece na academia, entre organizações não governamentais e até entre os negociadores de alto nível de certo pessimismo que a conferência não resulte em compromissos mais concretos para que o mundo se encaminhe para o tão falado desenvolvimento sustentável.

A comparação inevitável é com a Rio-92, vista como um momento que representou uma mudança de paradigma.

“A Rio+20 significa um nada, um vazio. De 92 para cá o que aconteceu foi a não implementação de tudo o que foi acordado. Só que passados 20 anos, temos hoje muito mais dados e certezas de que caminhamos para um desastre ambiental e o que acontece? Nada”, disse João Paulo Capobianco, do Instituto Democracia e Sustentabilidade.

“É uma reunião sem entendimento mínimo sobre o que se espera dela, marcada pela falta de líderes, e que não vai enfrentar nosso pior problema, que é a falta de governança, a incapacidade de implementar acordos que nós mesmos fizemos”,

Para o economista Ricardo Abramovay, também da USP, só uma forte pressão social poderia levar a conferência a alcançar pelo menos uma nova forma de medir e avaliar o crescimento econômico que seja alternativa ao Produto Interno Bruto (PIB). “Precisamos entrar no mérito do que o sistema econômico de fato está oferecendo para a sociedade para podermos julgar se essa oferta aumenta o bem-estar das pessoas ou não e se está comprometendo os serviços ofertados pela natureza ou não.”

How Bad Is It? (The New Inquiry)

By GEORGE SCIALABBA

Jasper Johns, Green Flag, 1956 (Graphite pencil, crayon and collage on paper)

Pretty bad. Here is a sample of factlets from surveys and studies conducted in the past twenty years. Seventy percent of Americans believe in the existence of angels. Fifty percent believe that the earth has been visited by UFOs; in another poll, 70 percent believed that the U.S. government is covering up the presence of space aliens on earth. Forty percent did not know whom the U.S. fought in World War II. Forty percent could not locate Japan on a world map. Fifteen percent could not locate the United States on a world map. Sixty percent of Americans have not read a book since leaving school. Only 6 percent now read even one book a year. According to a very familiar statistic that nonetheless cannot be repeated too often, the average American’s day includes six minutes playing sports, five minutes reading books, one minute making music, 30 seconds attending a play or concert, 25 seconds making or viewing art, and four hours watching television.

Among high-school seniors surveyed in the late 1990s, 50 percent had not heard of the Cold War. Sixty percent could not say how the United States came into existence. Fifty percent did not know in which century the Civil War occurred. Sixty percent could name each of the Three Stooges but not the three branches of the U.S. government. Sixty percent could not comprehend an editorial in a national or local newspaper.

Intellectual distinction isn’t everything, it’s true. But things are amiss in other areas as well: sociability and trust, for example. “During the last third of the twentieth century,” according to Robert Putnam in Bowling Alone, “all forms of social capital fell off precipitously.” Tens of thousands of community groups – church social and charitable groups, union halls, civic clubs, bridge clubs, and yes, bowling leagues — disappeared; by Putnam’s estimate, one-third of our social infrastructure vanished in these years. Frequency of having friends to dinner dropped by 45 percent; card parties declined 50 percent; Americans’ declared readiness to make new friends declined by 30 percent. Belief that most other people could be trusted dropped from 77 percent to 37 percent. Over a five-year period in the 1990s, reported incidents of aggressive driving rose by 50 percent — admittedly an odd, but probably not an insignificant, indicator of declining social capital.

Still, even if American education is spotty and the social fabric is fraying, the fact that the U.S. is the world’s richest nation must surely make a great difference to our quality of life? Alas, no. As every literate person knows, economic inequality in the United States is off the charts – at third-world levels. The results were recently summarized by James Speth in Orion magazine. Of the 20 advanced democracies in the Organization for Economic Cooperation and Development (OECD), the U.S. has the highest poverty rate, for both adults and children; the lowest rate of social mobility; the lowest score on UN indexes of child welfare and gender inequality; the highest ratio of health care expenditure to GDP, combined with the lowest life expectancy and the highest rates of infant mortality, mental illness, obesity, inability to afford health care, and personal bankruptcy resulting from medical expenses; the highest homicide rate; and the highest incarceration rate. Nor are the baneful effects of America’s social and economic order confined within our borders; among OECD nations the U.S. also has the highest carbon dioxide emissions, the highest per capita water consumption, the next-to-largest ecological footprint, the next-to-lowest score on the Yale Environmental Performance Index, the highest (by a colossal margin) per capita rate of military spending and arms sales, and the next-to-lowest rate of per capita spending on international development and humanitarian assistance.

Contemplating these dreary statistics, one might well conclude that the United States is — to a distressing extent — a nation of violent, intolerant, ignorant, superstitious, passive, shallow, boorish, selfish, unhealthy, unhappy people, addicted to flickering screens, incurious about other societies and cultures, unwilling or unable to assert or even comprehend their nominal political sovereignty. Or, more simply, that America is a failure.

That is indeed what Morris Berman concludes in his three-volume survey of America’s decline: The Twilight of American Culture (2000), Dark Ages America (2006), andWhy America Failed (2011), from which much of the preceding information is taken. Berman is a cultural and intellectual historian, not a social scientist, so his portrait of American civilization, or barbarism, is anecdotal and atmospheric as well as statistical. He is eloquent about harder-to-quantify trends: the transformation of higher (even primary/secondary) education into marketing arenas for predatory corporations; the new form of educational merchandising known as “distance learning”; the colonization of civic and cultural spaces by corporate logos; the centrality of malls and shopping to our social life; the “systematic suppression of silence” and the fact that “there is barely an empty space in our culture not already carrying commercial messages.” Idiot deans, rancid rappers, endlessly chattering sports commentators, an avalanche of half-inch-deep self-help manuals; a plague of gadgets, a deluge of stimuli, an epidemic of rudeness, a desert of mutual indifference: the upshot is our daily immersion in a suffocating stream of kitsch, blather, stress, and sentimental banality. Berman colorfully and convincingly renders the relentless coarsening and dumbing down of everyday life in late (dare we hope?) American capitalism.

In Spenglerian fashion, Berman seeks the source of our civilization’s decline in its innermost principle, its animatingGeist. What he finds at the bottom of our culture’s soul is … hustling; or, to use its respectable academic sobriquet, possessive individualism. Expansion, accumulation, economic growth: this is the ground bass of American history, like the hum of a dynamo in the basement beneath the polite twitterings on the upper stories about “liberty” and “a light unto the nations.” Berman scarcely mentions Marx or historical materialism; instead he offers a nonspecialist and accessible but deeply informed and amply documented review of American history, period by period, war by war, arguing persuasively that whatever the ideological superstructure, the driving energy behind policy and popular aspiration has been a ceaseless, soulless acquisitiveness.

The colonial period, the seedbed of American democracy, certainly featured a good deal of God-talk and virtue-talk, but Mammon more than held its own. Berman sides emphatically with Louis Hartz, who famously argued in The Liberal Tradition in America that American society was essentially Lockean from the beginning: individualistic, ambitious, protocapitalist, with a weak and subordinate communitarian ethic. He finds plenty of support elsewhere as well; for example in Perry Miller, the foremost historian of Puritanism, according to whom the American mind has always “positively lusted for the chance to yield itself to the gratification of technology.” Even Tocqueville, who made many similar observations, “could not comprehend,” wrote Miller, “the passion with which [early Americans] flung themselves into the technological torrent, how they … cried to each other as they went headlong down the chute that here was their destiny, here was the tide that would sweep them toward the unending vistas of prosperity.” Even Emerson and Whitman went through a phase of infatuation with industrial progress, though Hawthorne and Thoreau apparently always looked on the juggernaut with clearer (or more jaundiced) eyes.

Berman also sides, for the most part, with Charles Beard, who drew attention to the economic conflicts underlying the American Revolution and the Civil War. Beard may have undervalued the genuine intellectual ferment that accompanied the Revolution, but he was not wrong in perceiving the motivating force of the pervasive commercial ethic of the age. Joyce Appleby, another eminent historian, poses this question to those who idealize America’s founding: “If the Revolution was fought in a frenzy over corruption, out of fear of tyranny, and with hopes for redemption through civic virtue, where and when are scholars to find the sources for the aggressive individualism, the optimistic materialism, and the pragmatic interest-group politics that became so salient so early in the life of the nation?”

By the mid-nineteenth century, the predominance of commercial interests in American politics was unmistakable. Berman’s lengthy discussion of the Civil War as the pivot of American history takes for granted the inadequacy of triumphalist views of the Civil War. It was not a “battle cry of freedom.” Slavery was central, but for economic rather than moral reasons. The North represented economic modernity and the ethos of material progress; the economy and ethos of the South, based on slavery, was premodern and static. The West — and with it the shape of America’s economic future — was up for grabs, and the North grabbed it away from an equally determined South. Except for the abolitionists, no whites, North or South, gave a damn about blacks. How the West (like the North and South before it) was grabbed, in an orgy of greed, violence, and deceit against the original inhabitants, is a familiar story.

Even more than in Beard, Berman finds his inspiration in William Appleman Williams. When McKinley’s secretary of state John Hay advocated “an open door through which America’s preponderant economic strength would enter and dominate all underdeveloped areas of the world” and his successor William Jennings Bryan (the celebrated populist and anti-imperialist!) told a gathering of businessmen in 1915 that “my Department is your department; the ambassadors, the ministers, the consuls are all yours; it is their business to look after your interests and to guard your rights,” they were enunciating the soul of American foreign policy, as was the much-lauded Wise Man George Kennan when he wrote in a post-World War II State Department policy planning document: “We have about 50 percent of the world’s wealth, but only 6.3 percent of its population … In this situation, we cannot fail to be the object of envy and resentment. Our real task in the coming period is to devise a pattern of relationships which will permit us to maintain this position of disparity … To do so, we will have to dispense with all sentimentality and day-dreaming; and our attention will have to be concentrated everywhere on our immediate national objectives … We should cease to talk about vague and … unreal objectives such as human rights, the raising of the living standards, and democratization. The day is not far off when we are going to have to deal in straight power concepts. The less we are then hampered by idealistic slogans, the better.”

As a former medievalist, Berman finds contemporary parallels to the fall of Rome compelling. By the end of the empire, he points out, economic inequality was drastic and increasing, the legitimacy and efficacy of the state was waning, popular culture was debased, civic virtue among elites was practically nonexistent, and imperial military commitments were hopelessly unsustainable. As these volumes abundantly illustrate, this is 21st century America in a nutshell. The capstone of Berman’s demonstration is a sequence of three long, brilliant chapters in Dark Ages America on the Cold War, the Pax Americana, CIA and military interventions in the Third World, and in particular U.S. policy in the Middle East, where racism and rapacity have combined to produce a stunning debacle. Our hysterical national response to 9/11 — our inability even to make an effort to comprehend the long-festering consequences of our imperial predations — portended, as clearly as anything could, the demise of American global supremacy.

What will become of us? After Rome’s fall, wolves wandered through the cities and Europe largely went to sleep for six centuries. That will not happen again; too many transitions — demographic, ecological, technological, cybernetic — have intervened. The planet’s metabolism has altered. The new Dark Ages will be socially, politically, and spiritually dark, but the economic Moloch — mass production and consumption, destructive growth, instrumental rationality — will not disappear. Few Americans want it to. We are hollow, Berman concludes. It is a devastatingly plausible conclusion.

An interval — long or short, only the gods can say — of oligarchic, intensely surveilled, bread-and-circuses authoritarianism, Blade Runner- or Fahrenheit 451-style, seems the most likely outlook for the 21st and 22nd centuries. Still, if most humans are shallow and conformist, some are not. There is reason to hope that the ever fragile but somehow perennial traditions and virtues of solidarity, curiosity, self-reliance, courtesy, voluntary simplicity, and an instinct for beauty will survive, even if underground for long periods. And cultural rebirths do occur, or at any rate have occurred.

Berman offers little comfort, but he does note a possible role for those who perceive the inevitability of our civilization’s decline. He calls it the “monastic option.” Our eclipse may, after all, not be permanent; and meanwhile individuals and small groups may preserve the best of our culture by living against the grain, within the interstices, by “creating ‘zones of intelligence’ in a private, local way, and then deliberately keeping them out of the public eye.” Even if one’s ideals ultimately perish, this may be the best way to live while they are dying.

There is something immensely refreshing, even cathartic, about Berman’s refusal to hold out any hope of avoiding our civilization’s demise. And our reaction goes some way toward proving his point: We are so sick of hucksters, of authors trying — like everyone else on all sides at all times in this pervasively hustling culture — to sell us something, that it is a relief to encounter someone who isn’t, who has no designs on our money or votes or hopes, who simply has looked into the depths, into our catastrophic future, and is compelled to describe it, as Cassandra was. No doubt his efforts will meet with equal success.

Sobrevivência com créditos de carbono (Terramérica)

Carbono
28/5/2012 – 09h57

por Fabíola Ortiz*

c17 300x240 TERRAMÉRICA   Sobrevivência com créditos de carbono

O cacique Almir Suruí (E) em sua aldeia. Foto: Divulgação Povo Paiter-Suruí.

Os paiter-suruí,  do Estado brasileiro de Rondônia, na Amazônia, preveem arrecadar pelo menos US$ 40 milhões nos próximos 30 anos com o serviço ambiental de restaurar e fazer uso sustentável da selva.

Rio de Janeiro, Brasil, 28 de maio de 2012 (Terramérica).- O povo nativo paiter-suruí, no coração da Amazônia brasileira, não tinha contato com o mundo ocidental até 45 anos atrás. Hoje, aposta nos complexos mercados de carbono para garantir sua sobrevivência. Habitantes do território Sete de Setembro, quase 250 mil hectares localizados entre os Estados de Rondônia e Mato Grosso, perto da fronteira com a Bolívia, os paiter-suruí viveram uma história vertiginosa nas últimas décadas.

Apenas três anos depois de seu primeiro contato com o “homem branco”, em 1969, quase chegaram à extinção: a população de cinco mil pessoas caiu para apenas 300 devido à mortandade causada pelas doenças trazidas pelos invasores. Hoje são cerca de 1.350 e estão determinados a perdurar. Suruí é o nome que os antropólogos lhes deram. Porém, entre si, eles se chamam paiter, “o povo verdadeiro, nós mesmos” na língua tupi-mondé que falam.

O negócio que pretendem é parte do Projeto de Carbono da Floresta Suruí, aprovado em abril, que prevê mecanismos para neutralizar as emissões de dióxido de carbono, como evitar o desmatamento, mantendo esse elemento na massa florestal, e absorvendo-o da atmosfera, mediante o reflorestamento. Estas ações estão previstas no regime de Redução de Emissões provocadas pelo Desmatamento e pela Degradação das Florestas (REDD+), impulsionado pela Organização das Nações Unidas (ONU) como instrumento para mitigar a mudança climática.

A compra e venda de direitos de emissão de carbono, ou certificados de carbono, está prevista nos sistemas de controle da mudança climática para que empresas ou países grandes emissores de gases-estufa paguem a outros que possuem mecanismos para reduzi-las. Após décadas resistindo ao embate dos madeireiros, caçadores e colonos, desde 2005 os paiter-suruí plantaram 14 mil exemplares de 17 espécies, entre elas cacau e café, árvores de madeira nobre como mogno, cerejeira e ipê, e frutíferas como açaí, pupunha e babaçu.

“Queremos beneficiar nosso povo e nos desenvolvermos de acordo com nossa necessidade da região, valorizando produtos florestais. Uma política econômica verde é justamente um planejamento de uso sustentável”, disse ao Terramérica o líder deste povo, Almir Suruí, que também integra a Coordenação das Organizações Indígenas da Amazônia Brasileira. O cacique Almir, de 38 anos, sempre está com seu corpo pintado e usa colares de sementes nativas feitos pelas mulheres de seu povo. E também veste roupa ocidental quando tem compromissos fora de sua aldeia, mas que não escondem totalmente a pintura corporal.

Antes de ficar conhecido no Brasil, obteve reconhecimento internacional por denunciar na Organização dos Estados Americanos (OEA) a exploração ilegal de madeira nas terras de seu povo e por defender os direitos e a integridade dos grupos em isolamento voluntário, além de lutar contra a construção de represas hidrelétricas nos rios de Rondônia. Para conseguir seus objetivos de sustentabilidade, os paiter-suruí trabalham associados com várias organizações não governamentais e instituições estatais, como o governamental Fundo Brasileiro para a Biodiversidade (Funbio), que facilita a criação de mecanismos financeiros e ferramentas que garantam renda para os paiter-suruí.

O projeto Carbono Suruí tem duração de três décadas para a conservação de uma área com mais de 12 mil hectares, segundo Angelo dos Santos, um dos coordenadores da Funbio. “Todos os anos os paiter-suruí asseguram um volume de carbono não emitido que será oferecido ao mercado”, explicou Angelo ao Terramérica. “Nos próximos 30 anos, a quantidade que o povo paiter-suruí acumulará pelo desmatamento evitado será de oito milhões de toneladas de dióxido de carbono. E assim se pagará aos indígenas por não desmatarem”, acrescentou. As estimativas indicam que podem arrecadar US$ 40 milhões pela cotação atual do mercado, que está em US$ 5 para cada tonelada de carbono.

Segundo Angelo, há várias formas de comercializar os certificados de carbono. Uma delas é que sejam comprados por empresas interessadas em neutralizar ou compensar suas próprias emissões desse gás-estufa. “Isto é uma grande inovação”, ressaltou. Os recursos obtidos pela venda de certificados serão destinados ao Fundo de Gestão Paiter-Suruí, oficializado no começo de maio para incentivar um plano de desenvolvimento e tornar viáveis formas de gerar renda sem destruir a selva.

Já são produzidas mais de quatro mil toneladas por ano de café orgânico e cerca de dez mil toneladas de castanha amazônica, contou o cacique. As duas produções já contam com planos de negócios. Enquanto isso, “o Fundo Paiter-Suruí vai arrecadar recursos próprios com doações de bancos multilaterais e empresas, e pela venda de certificados de carbono”, detalhou Angelo. A meta é captar US$ 6 milhões nos próximos três anos. E em seis anos o Fundo será completamente administrado pelos paiter-suruí, que já estão se capacitando para isso.

É, sob todos os aspectos, um caso excepcional. Trata-se do primeiro mecanismo financeiro criado para um povo indígena que quer garantir sua sobrevivência e a de sua cultura. Estas iniciativas valeram ao cacique Almir o 53º lugar entre as cem pessoas mais criativas para negócios em 2011, um ranking preparado pela revista norte-americana Fast Company. Não por acaso, Almir foi convidado este mês para falar sobre inovação para dirigentes empresariais e pesquisadores, em um encontro organizado pela revista britânica The Economist.

* A autora é correspondente da IPS.

Mudando para que nada mude (Cineclube Ciência em Foco)

SEXTA-FEIRA, 25 DE MAIO DE 2012

 “A exaustão dos recursos naturais não será resolvida enquanto os padrões de subjetividade ocidentais não forem incluídos como parte fundamental do problema. […] A insatisfação crônica do cidadão ocidental, e a forma irresponsável com que se relaciona com as coisas […] são coisas tão importantes quanto a discussão sobre matrizes energéticas”.

 

Renzo Taddei – Doutor em Antropologia pela Univ. de Columbia, pesquisador da Coordenação do Núcleo Interdisciplinar de Estudos Contemporâneos da ECO-UFRJ e palestrante do Ciência em Foco de 2 de junho.

1) O personagem central do filme Árido Movie é um profissional que apresenta diariamente a previsão do tempo para o Brasil em uma rede de TV em São Paulo. Ao voltar para sua terra natal no sertão nordestino, ele se vê deslocado na fissura entre estes dois “nordestes”: o da previsão do tempo, distante e virtual, e o concreto. Diante dos vários contrastes com os quais se defronta, como podemos pensar seu deslocamento?

Essa fissura não se limita à questão do “nordeste”, mas é ainda mais importante, ainda que menos saliente, na própria questão do clima. Somos levados a crer todo o tempo que o clima que importa está em algum outro lugar, e que só é acessível através da mediação de especialistas e equipamentos. Obviamente isso ocorre de fato, mas há efeitos deletérios nessa alienação entre os indivíduos e o meio ambiente: a questão passa a ser entendida como problema distante, vivido apenas de forma abstrata. Isso gera a atitude caracterizada pela ideia de que “eu não tenho nada com isso” – o que é exatamente o que o personagem do filme diz à avó quando percebe que esta espera que ele vingue a morte do pai. De certa forma, ele vivia a sua própria relação familiar de forma alienada, como algo abstrato, virtual, e as contingências da vida o obrigam a enfrentar a incontornável materialidade dos contextos locais. A crise ambiental atual nos confronta com esta materialidade incontornável. Se o personagem vivesse as suas relações familiares de forma mais integral, talvez o destino de todos ali fosse outro. Há responsabilidades que nos implicam, mas que não escolhemos – algo difícil de aceitar no contexto liberal em que vivemos. Mas a analogia acaba por aqui: felizmente não há morte alguma a ser vingada na questão climática (ou haverá?).

2) O fenômeno climático da seca é recorrente na filmografia brasileira. Pode-se dizer que o cinema traz representações do meio ambiente que muitas vezes nos forçam a pensar seus elementos a partir de sua relação com a sociedade e a cultura. Sem entregar muito de sua fala, poderia comentar algo em torno desta relação? Qual a importância destas perspectivas e seu papel no cenário das discussões oficiais?

Mais do que a seca propriamente dita, o elemento que povoou a imaginação de escritores e artistas foi o “sertão”. Hoje, especialmente para as audiências do sudeste urbano, sertão é quase sinônimo de nordeste rural, mas no passado a situação era diferente. Há debates acadêmicos sobre de onde vem a palavra sertão: uma das hipóteses é que tem origem na palavra desertão, sugerindo a ideia de área remota e desolada; outra, sugere que a palavra vem de sertus, termo do latim que significa entrelaçado, enredado. Na história do Brasil, o sertão sempre foi o espaço refratário à penetração do poder oficial, das instituições de controle do Estado. Um dos lugares onde isso é mais claro é na obraGrande Sertão: Veredas, de Guimarães Rosa. A obra se ambienta toda em Minas Gerais, em uma região que não é semiárida como o sertão nordestino, e numa época onde sequer existia o “Nordeste”, mas tudo o que ficava acima da Bahia era considerado “Norte”. No início, o Brasil todo era sertão; com a expansão do Estado ao longo do século XX, houve uma redução considerável do território que pode ser considerado sertão, nos sentidos mencionados acima: praticamente toda a região sudeste, por exemplo, se “dessertaniza” à medida que o espaço passa a ser ocupado por cidades e atividade agrícola em larga escala.

Desta forma, na imaginação artística o sertão funcionou, ao longo dos últimos dois séculos, como o “outro mundo” onde há liberdade em contraposição aos controles que marcam as sociedades urbanas, e onde há mais autenticidade, o que pode ser encarado por um viés romântico (como vemos em José de Alencar, por exemplo) ou onde coisas impensáveis podem ocorrer, numa espécie de mirada conradiana [referente a elementos da obra do escritor britânico Joseph Conrad (1857-1924), autor de Coração das trevas]. Mesmo com o Cinema Novo, onde há uma sociologização mais intensa do sertão, esse não deixa de ser espaço de liberdade e experimentação, como vemos em Deus e o Diabo na Terra do Sol, de Glauber Rocha. Mas é preciso que se diga que isso tudo marca uma perspectiva de quem olha de fora. O sertão não é uma coisa, são muitas.

O que a seca faz, em certo sentido, é ressertanizarmomentaneamente um território dessertanizado, porque ela tem o potencial de desorganizar processos políticos e sociais locais, inclusive no que diz respeito às instituições oficiais de poder. Em lugares onde as variações climáticas (como as secas) são recorrentes, como no nordeste brasileiro, em geral as relações de poder locais existem de forma associada às epidemias de sofrimento trazidas pela seca. A infame indústria da seca é um exemplo disso. Mas há limites em quanto as sociedades e instituições locais conseguem se ajustar à variação do clima: secas muito intensas podem efetivamente colocar toda uma sociedade em situação de crise, como se vê atualmente nos sertões de Pernambuco e da Bahia.

Um segundo ponto da questão menciona a forma como o cinema nos faz pensar o meio ambiente em sua relação com sociedade e cultura. Há duas formas de relacionar natureza e sociedade que parecem ser recorrentes na experiência humana. Por um lado, usamos elementos da natureza para pensar relações sociais, coisa que na antropologia chamamos de totemismo. A forma como usamos figuras de animais para pensar torcidas de futebol (urubu, gaviões, porco etc), ou como destacamentos militares usam símbolos animais (a onça em quartéis na Amazônia), ou ainda quando nos referimos a qualidades pessoais através de imagens animais (ao dizer que alguém “é” uma cobra, um rato, ou uma anta), são exemplos disso. Por outro, projetamos na natureza elementos humanos, culturais e sociais, o que, por sua vez, é conhecido na antropologia como animismo. Desta forma, uma tempestade é “traiçoeira”, ou uma estação chuvosa, como ouvi várias vezes em pesquisa de campo no sertão do Ceará, pode ser “velhaca” (isto é, promete e não cumpre). O cinema naturalmente se utiliza disso tudo como recurso narrativo.

Além disso, nossa percepção do ambiente é visceralmente marcada por nossas perspectivas contextuais. Uma pesquisa que coordenei a respeito das respostas sociais e culturais às secas do ano de 2005 – um ano em que houve secas na Amazônia, no Nordeste e no sul do Brasil – mostrou que as populações locais não pensam o meio ambiente como algo desconectado das demais dimensões da vida; como tais dimensões são variáveis, a percepção do ambiente o é também. Os resultados da pesquisa foram publicados no livroDepois que a chuva não veio, disponível em texto integral na Internet. O problema é que os governos centrais, como o federal, no Brasil, têm a tendência a homogeneizar tudo com o qual se relacionam, ignorando os contextos locais; e a ciência climática tende a pregar que o contexto local e o clima não têm relação causal direta (especialmente quando estão contestando a capacidade do conhecimento tradicional de produzir previsões climáticas válidas). No que diz respeito às relações entre sociedade e clima, vivemos uma situação verdadeiramente neurótica. O meio ambiente pode inclusive ser uma forma de eufemizar uma discussão demasiadamente sensível em termos políticos e sociais. Um manual de infoativismo editado na Inglaterra, por exemplo, sugere que personagens em forma de animais sejam usados em campanhas públicas em que questões politicas sensíveis dificultem a comunicação através de exemplos humanos.

As discussões oficiais são, infelizmente, demasiadamente economicistas e unilineares, presas a um utilitarismo frustrante, para levar qualquer dessas questões a sério.

3) No mês de junho, o Rio de Janeiro sediará a Rio+20, a conferência das Nações Unidas em torno do desenvolvimento sustentável, que articulará líderes mundiais em discussões que convidam à cooperação mundial para a melhoria de problemas sociais. Tendo em vista o cenário de mudanças climáticas, como abordar a participação social nestas discussões, face às diferenças culturais que estão em jogo?

As diferenças culturais não devem ser entendidas como obstáculo às ações relacionadas à crise ambiental. Pelo contrário, são recursos importantes. É interessante observar como a biodiversidade é hipervalorizada, ao ponto de ser fetichizada, e ao mesmo tempo a diversidade de formas humanas de ser e estar no mundo é desvalorizada – por exemplo, quando se acredita, com as melhores intenções, que é preciso “educar” as pessoas que praticam queimadas para plantio, por exemplo, para que “entendam” os efeitos deletérios de algumas de suas práticas cotidianas. Projetamos o problema sobre os outros, sem perceber que esse nosso foco em informação e no pensamento, ou seja, ao diagnosticar tudo como “falta de informação” ou diferentes “formas de pensar”, é parte fundamental do problema. Tudo ficou cibernético demais, de forma que as questões morais e éticas nos escapam muito facilmente.

A ideia de que diferenças culturais dificultam a construção de um entendimento mundial sobre as questões ambientais em geral, e sobre a questão climática, em particular, me assusta. A própria ideia de “entendimento mundial” em torno do meio ambiente evoca perigosamente um centralismo pouco democrático. Nunca na história da humanidade houve uma tentativa tão articulada para a criação de um discurso único sobre o meio ambiente. A polarização política que se vê nos Estados Unidos, em torno da questão climática, é uma farsa: o comportamento do partido republicano mostra com clareza que se trata de uma disputa pelo poder, onde os envolvidos se comportam estrategicamente e defendem qualquer posição que maximize suas chances de vitória. E, acima de tudo, apresentam o problema climático como se houvesse apenas duas alternativas – aceitar ou negar o efeito das ações humanas nas mudanças climáticas –, mas as duas são validadas dentro do mesmo paradigma ocidental, exacerbadamente materialista e utilitarista. E as outras formas de pensamento e de vida, outras epistemologias e ontologias? Como diz o antropólogo Eduardo Viveiros de Castro, é preciso aprender a pensar “com” os outros. Segundo o pensamento ameríndio, por exemplo, ao invés de tomar os humanos como excepcionais em sua humanidade, há a ideia de que a humanidade é a essência comum de todos os seres vivos. Que tipo de ética e moralidade decorre dai, na relação entre humanos e não humanos? Não se trata de romantizar as formas indígenas de vida, mas apenas de mostrar como outros pensamentos são extremamente interessantes na abordagem dos problemas ambientais.

No meu entender, o que sobressai nesta questão da participação social e da multiplicidade cultural é o fato de que é preciso que os ocidentais, e nós, ocidentalóides, entendamos que há dimensões do problema que transcendem a materialidade e o utilitarismo. A exaustão dos recursos naturais, por exemplo, não será resolvida enquanto os padrões de subjetividade ocidentais não forem incluídos como parte fundamental do problema. Não adianta criar esquemas institucionais para evitar a “tragédia dos comuns”, por exemplo, sem lidar com os temas da satisfação e da responsabilidade. A insatisfação crônica do cidadão ocidental, e a forma irresponsável com que se relaciona com as coisas (ao pagar os governos municipais para “sumir” com o nosso lixo, sem que nenhuma pergunta seja feita, de modo que não precisemos pensar mais nele, por exemplo), são coisas tão importantes quanto a discussão sobre matrizes energéticas.

4) Contraplanos – expresse em poucas palavras (ou apenas uma) sua sensação com relação aos sentidos e problemáticas evocadas pelas seguintes palavras:

– tempo e clima: clima é um ponto de vista[1]; tempo é a vista (a partir) de um ponto[2] (notas: [1] Clima é “ponto de vista” no sentido de que trata-se de uma construção abstrata, resultante de cálculos estatísticos sobre medições de indicadores atmosféricos em intervalos amplos de tempo, e onde as técnicas estatísticas, o termômetro e outros mediadores técnicos têm tanta importância quanto a vibração das partículas que o termômetro busca medir; [2] tempo, no sentido dado ao conceito pela meteorologia, é o fenômeno atmosférico que existe num prazo de tempo mais curto, e portanto tende a fazer referência ao fenômeno em si, enquanto singularidade experiencial, ou seja, coisas que vivemos e lembramos, porque nos afetam num tempo e espaço específicos, e desta forma são a experiência a partir de um ponto).

 – sustentabilidade: o que exatamente se está tentando sustentar? Precisamos pensar a “mutabilidade” tanto quanto sustentabilidade. É muito difícil mudar o (insustentável) sistema econômico em que nos encontramos, e é preciso atentar para o fato de que, sob a fachada de “sustentabilidade”, há um esforço imenso de mudar apenas o que é necessário para que nada mude no final. O mercado de carbono é o exemplo paradigmático disso. Ou seja, em geral os debates sobre sustentabilidade (e sobre adaptação, resiliência etc.) são conservadores e insuficientes.

– construção social: já não há mais muita clareza a respeito do que significa tal associação de termos (o que é bom). Se tudo é construção social, a ideia deixa de ser relevante, porque não explica muita coisa. Tudo está em fluxo; se é “construção”, e se é “social”, depende de qual jogo semântico se está jogando. A expressão diz mais a respeito de quem usa a expressão do que sobre o fenômeno em questão. Tenho a impressão que dizer que o clima, por exemplo, é uma “construção social” constitui uma forma de evitar levar o clima a sério – e aqui estou repetindo ideias de autores como Bruno Latour ou Roy Wagner, por exemplo.

– ciência e cultura: há muito menos clareza a respeito do que significam tais termos (o que é melhor ainda). Num sentido mais propriamente filosófico, são duas ideias que morreram no século XX. Ou seja, tanto a Ciência como a Cultura, assim com “c” maiúsculo, que constituíam o santo graal do pensamento acadêmico Europeu dos séculos XIX e grande parte do XX se mostraram quimeras, principalmente em função dos trabalhos de gente como Heidegger, Merleau-Ponty, Wittgenstein, Gadamer, dentre muitos outros. Sobraram “ciências” e “culturas” com “c” minúsculo, ou seja, tais conceitos se transformaram em problemas empíricos. Puxando a sardinha pro meu lado (risos), se tornaram problemas antropológicos.

5) Roteiros alternativos – espaço dedicado à sugestão de links, textos, vídeos, referências diversas de outros autores/pesquisadores que possam contribuir com a discussão. Para encerrar essa sessão, transcreva, se quiser, uma fala de um pensador que o inspire e/ou seu trabalho.

No meu blog Uma (In)certa Antropologia (http://umaincertaantropologia.org) mantenho um arquivo de notícias e materiais acadêmicos sobre as relações entre cultura, sociedade e o clima. Há lá uma gravação em áudio de uma apresentação do antropólogo Eduardo Viveiros de Castro que toca no tema das mudanças climáticas como crise do Ocidente, e como outros povos e outras culturas se relacionam com isso, que vale a pena ser ouvida. Ela está no link http://www.taddei.eco.ufrj.br/ViveirosdeCastro_IFCS_20111123.wav.

O livro Depois que a chuva não veio, mencionado acima, está disponível no link http://www.taddei.eco.ufrj.br/DQACNV.htm.

O documentário “10 tacticts for turning information into action”, também mencionado acima, está no site http://informationactivism.org/original_10_tactics_project#viewonline, com subtítulos em português – o exemplo de uso de animais como personagens está na tática número 3.

Há um vídeo provocativo do Slavok Žižek, cujo título éEcology as Religion, que evoca discussões importantes sobre como o meio ambiente existe no senso comum e nas discussões políticas. O video está reproduzido em https://umaincertaantropologia.org/2012/04/12/slavoj-zizek-on-ecology-as-religion-youtube/

6) Como conhecer mais de suas produções?

Há uma lista de artigos acadêmicos e também escritos para jornais e revistas em meu website, no link http://www.taddei.eco.ufrj.br/Textos.htm

Severe Nuclear Reactor Accidents Likely Every 10 to 20 Years, European Study Suggests (Science Daily)

ScienceDaily (May 22, 2012) — Western Europe has the worldwide highest risk of radioactive contamination caused by major reactor accidents.

Global risk of radioactive contamination. The map shows the annual probability in percent of radioactive contamination by more than 40 kilobecquerels per square meter. In Western Europe the risk is around two percent per year. (Credit: Daniel Kunkel, MPI for Chemistry, 2011)

Catastrophic nuclear accidents such as the core meltdowns in Chernobyl and Fukushima are more likely to happen than previously assumed. Based on the operating hours of all civil nuclear reactors and the number of nuclear meltdowns that have occurred, scientists at the Max Planck Institute for Chemistry in Mainz have calculated that such events may occur once every 10 to 20 years (based on the current number of reactors) — some 200 times more often than estimated in the past. The researchers also determined that, in the event of such a major accident, half of the radioactive caesium-137 would be spread over an area of more than 1,000 kilometres away from the nuclear reactor. Their results show that Western Europe is likely to be contaminated about once in 50 years by more than 40 kilobecquerel of caesium-137 per square meter. According to the International Atomic Energy Agency, an area is defined as being contaminated with radiation from this amount onwards. In view of their findings, the researchers call for an in-depth analysis and reassessment of the risks associated with nuclear power plants.

The reactor accident in Fukushima has fuelled the discussion about nuclear energy and triggered Germany’s exit from their nuclear power program. It appears that the global risk of such a catastrophe is higher than previously thought, a result of a study carried out by a research team led by Jos Lelieveld, Director of the Max Planck Institute for Chemistry in Mainz: “After Fukushima, the prospect of such an incident occurring again came into question, and whether we can actually calculate the radioactive fallout using our atmospheric models.” According to the results of the study, a nuclear meltdown in one of the reactors in operation worldwide is likely to occur once in 10 to 20 years. Currently, there are 440 nuclear reactors in operation, and 60 more are planned.

To determine the likelihood of a nuclear meltdown, the researchers applied a simple calculation. They divided the operating hours of all civilian nuclear reactors in the world, from the commissioning of the first up to the present, by the number of reactor meltdowns that have actually occurred. The total number of operating hours is 14,500 years, the number of reactor meltdowns comes to four — one in Chernobyl and three in Fukushima. This translates into one major accident, being defined according to the International Nuclear Event Scale (INES), every 3,625 years. Even if this result is conservatively rounded to one major accident every 5,000 reactor years, the risk is 200 times higher than the estimate for catastrophic, non-contained core meltdowns made by the U.S. Nuclear Regulatory Commission in 1990. The Mainz researchers did not distinguish ages and types of reactors, or whether they are located in regions of enhanced risks, for example by earthquakes. After all, nobody had anticipated the reactor catastrophe in Japan.

25 percent of the radioactive particles are transported further than 2,000 kilometres

Subsequently, the researchers determined the geographic distribution of radioactive gases and particles around a possible accident site using a computer model that describes Earth’s atmosphere. The model calculates meteorological conditions and flows, and also accounts for chemical reactions in the atmosphere. The model can compute the global distribution of trace gases, for example, and can also simulate the spreading of radioactive gases and particles. To approximate the radioactive contamination, the researchers calculated how the particles of radioactive caesium-137 (137Cs) disperse in the atmosphere, where they deposit on Earth’s surface and in what quantities. The 137Cs isotope is a product of the nuclear fission of uranium. It has a half-life of 30 years and was one of the key elements in the radioactive contamination following the disasters of Chernobyl and Fukushima.

The computer simulations revealed that, on average, only eight percent of the 137Cs particles are expected to deposit within an area of 50 kilometres around the nuclear accident site. Around 50 percent of the particles would be deposited outside a radius of 1,000 kilometres, and around 25 percent would spread even further than 2,000 kilometres. These results underscore that reactor accidents are likely to cause radioactive contamination well beyond national borders.

The results of the dispersion calculations were combined with the likelihood of a nuclear meltdown and the actual density of reactors worldwide to calculate the current risk of radioactive contamination around the world. According to the International Atomic Energy Agency (IAEA), an area with more than 40 kilobecquerels of radioactivity per square meter is defined as contaminated.

The team in Mainz found that in Western Europe, where the density of reactors is particularly high, the contamination by more than 40 kilobecquerels per square meter is expected to occur once in about every 50 years. It appears that citizens in the densely populated southwestern part of Germany run the worldwide highest risk of radioactive contamination, associated with the numerous nuclear power plants situated near the borders between France, Belgium and Germany, and the dominant westerly wind direction.

If a single nuclear meltdown were to occur in Western Europe, around 28 million people on average would be affected by contamination of more than 40 kilobecquerels per square meter. This figure is even higher in southern Asia, due to the dense populations. A major nuclear accident there would affect around 34 million people, while in the eastern USA and in East Asia this would be 14 to 21 million people.

“Germany’s exit from the nuclear energy program will reduce the national risk of radioactive contamination. However, an even stronger reduction would result if Germany’s neighbours were to switch off their reactors,” says Jos Lelieveld. “Not only do we need an in-depth and public analysis of the actual risks of nuclear accidents. In light of our findings I believe an internationally coordinated phasing out of nuclear energy should also be considered ,” adds the atmospheric chemist.

How Twitter Is Used to Share Information After a Disaster (Science Daily)

ScienceDaily (May 22, 2012) — A study from North Carolina State University shows how people used Twitter following the 2011 nuclear disaster in Japan, highlighting challenges for using the social media tool to share information. The study also indicates that social media haven’t changed what we communicate so much as how quickly we can disseminate it.

“I wanted to see if Twitter was an effective tool for sharing meaningful information about nuclear risk in the wake of the disaster at the Fukushima Daiichi nuclear plant,” says Dr. Andrew Binder, an assistant professor of communication at NC State and author of a paper describing the work. “I knew people would be sharing information, but I wanted to see whether it was anecdotal or substantive, and whether users were providing analysis and placing information in context.

“In the bigger picture, I wanted to see whether social media is changing the way we communicate, or if we are communicating the same way using different tools.”

Binder searched for Twitter posts, or “tweets,” originating in the United States that specifically referenced “Fukushima Daiichi” – which is the name of the nuclear plant – rather than searching for the term “Fukushima.” This allowed him to target tweets about the plant instead of general references to the tsunami and overarching disaster in the region. Using that as a base, Binder then selected every 20th tweet on each day over the two weeks following the onset of the Fukushima disaster – from March 11 to March 25, 2011 – to create a representative sample of these tweets.

Fifteen percent of the tweets in the sample contained some mention of risk-related terms, such as hazard or exposure, while 17.7 percent of the tweets included language that helped place the events at Fukushima Daiichi and their potential causes or consequences in context. For example, one tweet read “Most of the 100s of workers at Fukushima Daiichi live close to the plant so it’s their families and houses at risk.” Overall, 54 percent of the tweets included hyperlinks to external websites, of which 62.7 percent linked to traditional news sources.

“I found that, initially, tweets that mentioned risk were unlikely to include analysis or information on context,” Binder says. “Similarly, tweets that attempted to help understand events at Fukushima Daiichi rarely mentioned risk. By the time people began tweeting about risk issues in a meaningful way, the initial high level of interest had begun to wane significantly.”

Binder also found that people were more likely to include links to websites as time went on. And, as time passed, a higher percentage of those links were to traditional news sites.

“This highlights a significant problem,” Binder says. “People are clearly looking to news outlets for insight and analysis into disasters such as this one. But news organizations have fewer and fewer reporters who specialize in covering science and technology issues – and those are the very reporters who would be able to provide insight and analysis on these events.”

The study also seems to imply that social media have not significantly changed the content of our communications. “This case, at least, indicates that Twitter is allowing people to share news quickly and easily,” Binder says. “But the news they are sharing is not much different from that available to someone reading a print newspaper – they’re simply getting it sooner.”

Educational Games to Train Middle Schoolers’ Attention, Empathy (Science Daily)

ScienceDaily (May 21, 2012) — Two years ago, at a meeting on science and education, Richard Davidson challenged video game manufacturers to develop games that emphasize kindness and compassion instead of violence and aggression.

With a grant from the Bill & Melinda Gates Foundation, the University of Wisconsin-Madison professor is now answering his own call. With Kurt Squire, an associate professor in the School of Education and director of the Games Learning Society Initiative, Davidson received a $1.39 million grant this spring to design and rigorously test two educational games to help eighth graders develop beneficial social and emotional skills — empathy, cooperation, mental focus, and self-regulation.

“By the time they reach the eighth grade, virtually every middle-class child in the Western world is playing smartphone apps, video games, computer games,” says Davidson, the William James and Vilas Research Professor of Psychology and Psychiatry at UW-Madison. “Our hope is that we can use some of that time for constructive purposes and take advantage of the natural inclination of children of that age to want to spend time with this kind of technology.”

The project grew from the intersection of Davidson’s research on the brain bases of emotion, Squire’s expertise in educational game design, and the Gates Foundation’s interest in preparing U.S. students for college readiness-possessing the skills and knowledge to go on to post-secondary education without the need for remediation.

“Skills of mindfulness and kindness are very important for college readiness,” Davidson explains. “Mindfulness, because it cultivates the capacity to regulate attention, which is the building block for all kinds of learning; and kindness, because the ability to cooperate is important for everything that has to do with success in life, team-building, leadership, and so forth.”

He adds that social, emotional, and interpersonal factors influence how students use and apply their cognitive abilities.

Building on research from the Center for Investigating Healthy Minds at UW-Madison’s Waisman Center, the initial stage of the project will focus on designing prototypes of two games. The first game will focus on improving attention and mental focus, likely through breath awareness.

“Breathing has two important characteristics. One is that it’s very boring, so if you’re able to attend to that, you can attend to most other things,” Davidson says. “The second is that we’re always breathing as long as we’re alive, and so it’s an internal cue that we can learn to come back to. This is something a child can carry with him or her all the time.”

The second game will focus on social behaviors such as kindness, compassion, and altruism. One approach may be to help students detect and interpret emotions in others by reading non-verbal cues such as facial expressions, tone of voice, and body posture.

“We’ll use insights gleaned from our neuroscience research to design the games and will look at changes in the brain during the performance of these games to see how the brain is actually affected by them,” says Davidson. “Direct feedback from monitoring the brain while students are playing the games will help us iteratively adjust the game design as this work goes forward.”

Their analyses will include neural imaging and behavioral testing before, during, and after students play the games, as well as looking at general academic performance.

The results will help the researchers determine how the games impact students and whether educational games are a useful medium for teaching these behaviors and skills, as well as evaluate whether certain groups of kids benefit more than others.

“Our hope is that we can begin to address these questions with the use of digital games in a way that can be very easily scaled and, if we are successful, to potentially reach an extraordinarily large number of youth,” says Davidson.

Wrongful Convictions Can Be Reduced Through Science, but Tradeoffs Exist (Science Daily)

ScienceDaily (May 22, 2012) — Many of the wrongful convictions identified in a report this week hinged on a misidentified culprit — and a new report in a top journal on psychological science reveals the paradox of reforms in eyewitness identification procedure. In our efforts to make sure that good guys don’t get locked up, we could let more bad guys go.

In the May issue of Perspectives on Psychological Science, a journal of the Association for Psychological Science, leading scholars in psychology and the law explore and debate various aspects of eyewitness identification procedures, providing a scientific foundation for this important social issue.

In recent years, researchers and policymakers have called for specific reforms to eyewitness identification procedures that would help to reduce the rate of false identification. These reforms affect various aspects of identification procedure, including how lineups are constructed, what witnesses are told prior to the lineup, and how police officers should behave during the procedure.

Such procedural reforms are often viewed as having ‘no cost’ — they reduce the false identification rate without affecting the correct identification rate. But psychological scientist Steven Clark (University of California, Riverside) argues that ‘no cost’ view may not actually be true. After extensive review of the existing data, Clark points out the paradoxical tradeoffs to reforms in eyewitness identification procedure. Existing data suggest that when we choose to enact reforms that are designed to reduce false identifications, we may also reduce the number of correct identifications at the same time.

But this tradeoff does not tell the whole story, say Gary Wells (Iowa State University), Nancy Steblay (Augsburg College), and Jennifer Dysart (John Jay College of Criminal Justice). While reform procedures may reduce the number of ‘hits,’ they do so by minimizing the influence of suggestive and coercive practices, such as biased instructions and cues from lineup administrators. Wells and his co-authors argue that the so-called ‘lost’ hits aren’t actually relevant, because hits that result from suggestive practices are not legitimate identifications. Eryn Newman from Victoria University of Wellington and Elizabeth Loftus from the University of California, Irvine agree, arguing that eyewitness identification evidence should be based solely on the independent memory of the witness, not on the results of suggestive or coercive procedures.

There is, however, a scientifically valid way to compare witness-identification procedures, say John Wixted and Laura Mickes, both of the University of California, San Diego. If we identify the procedures that reliably differentiate between innocent and guilty suspects over time and across different situations, we will be able to determine which techniques are diagnostically superior to others.

Until we have such comprehensive data, the best way to protect innocent defendants, says Larry Laudan of the University of Texas, is by clearly communicating the fact that eyewitness identifications, regardless of their format, are fallible. According to Laudan, we now have enough empirical data to be able to inform jurors about the error profiles of various eyewitness identification procedures. Sharing this information, he argues, is more important than trying to arrive at “the one unique and definitive format for conducting identifications.”

In the end, Clark points out that the goal of his article is not to argue for or against any particular witness identification procedure. Rather, he hopes to create strong links between social science data and public policy. “To the extent that social science research has a useful role in shaping policy decisions,” says Clark, “social scientists must do for policymakers what they do best and what policymakers cannot do for themselves: conduct careful studies, and provide a clear and complete analysis of the empirical data.”

  • Steven E. Clark et al. “Costs and Benefits of Eyewitness Identification Reform: Psychological Science and Public Policy,” Perspectives on Psychological Science, May 2012
  • Nancy K. Steblay et al., “Eyewitness Identification Reforms: Are Suggestiveness-Induced Hits and Guesses True Hits?”Perspectives on Psychological Science, May 2012
  • Elizabeth F. Loftus et al., “Clarkian Logic on Trial,”Perspectives on Psychological Science, May 2012
  • John T. Wixted et al., “The Field of Eyewitness Memory Should Abandon Probative Value and Embrace Receiver Operating Characteristic Analysis,” Perspectives on Psychological Science, May 2012
  • Larry Laudan et al. “Eyewitness Identifications: One More Lesson on the Costs of Excluding Relevant Evidence,”Perspectives on Psychological Science, May 2012

Interview with Nobel prize winner Elinor Ostrom on climate change (Integrated Regional Information Networks)

Photo: Indiana University. Elinor Ostrom: A champion of people power

JOHANNESBURG, 25 April 2012 (IRIN) – The governance of natural resources like land, the oceans, rivers and the atmosphere, can affect the impact of some of the world’s biggest crises caused by natural events like droughts and floods. How best to manage those resources has been at the heart of the work by Nobel Prize winner (economics) Elinor Ostrom.

She has been looking at how communities across the world, from developing and rural economies like Nepal and Kenya to developed ones like the USA and Switzerland, manage their commonly shared resources such as fisheries, pasture land and water sustainably.

Ostrom’s faith in the ability of the individual and community to be able to trust each other, take the right course of action and not wait for governments to make the first move is pivotal to her thinking.

Ostrom works with the concept of “polycentrism”, which she developed with her husband Vincent Otsrom. She advocates vesting authority in individuals, communities, local governments, and local NGOs as opposed to concentrating power at global or national levels.

Ostrom recently suggested using this “polycentric approach” to address man-made climate change. She talked to IRIN by email about “polycentrism”, Rio+20, climate change, trust and the power of local action.

QYou have suggested a polycentric approach as opposed to single policies at a global level to reduce greenhouse gas emissions. Could you explain how that would work? Do you think a similar approach would work to get all countries and their people to believe in, and adopt, sustainable development?

A: We have modelled the impact of individual actions on climate change incorrectly and need to change the way we think about this problem. When individuals walk a distance rather than driving it, they produce better health for themselves. At the same time that they reduce the amount of greenhouse gas emissions that they are generating. There are benefits for the individual and small benefits for the globe. When a building owner re-does the way the building is insulated and the heating system, these actions can dramatically change the amount of greenhouse gas emissions made. This has an immediate impact on the neighbourhood of the building as well as on the globe.

When cities and counties decide to rehabilitate their energy systems so as to produce less greenhouse gas emissions, they are reducing the amount of pollution in the local region as well as greenhouse gas emissions on the globe. In other words, the key point is that there are multiple externalities involved for many actions related to greenhouse gas emissions. While in the past the literature has underplayed the importance of local effects, we need to recognize – as more and more individuals, families, communities, and states are seeing – that they will gain a benefit, as well as the globe, and that cumulatively a difference can be made at the global level if a number of small units start taking action. We have a much greater possibility of impacting global change problems if we start locally.

“the solutions that are evolved by local people have a chance of being more imaginative and better ways of solving these problems…”

Q: The earth is our common resource system – yet many countries including China and India feel they also have a right to grow, burn coal to get to where the developed world is – how do you get them out of that frame of mind without compromising the question of equity?

A: We may not be able to convince India and China of all of this. Part of my discouragement with the international negotiations is that we have gotten riveted into battles at the very big level over who caused global change in the first place and who is responsible for correcting [it]. It will take a long time to resolve some of these conflicts. Meanwhile, if we do not take action, the increase to greenhouse gas collection at a global level gets larger and larger. While we cannot solve all aspects of this problem by cumulatively taking action at local levels, we can make a difference, and we should.

Q: Do you think sustainable development did not gain much currency as it was directed at governments and a top-down approach? You think the world is about to repeat that mistake (if you would call it that?) at Rio+20? What would you do – would you ever call such a gathering of governments?

A: Yes, I do think that directing the question of climate change primarily at governments misses the point that actions that reduce greenhouse gas emissions must be taken by individuals, communities, cities, states, residents of entire nations, and the world. Yet, it is important that public officials recognize that there is a role for an international agreement and that they should be working very hard on getting an agreement that establishes international regimes that has a chance to reduce emissions across countries.

Q: You are a great believer in ordinary people’s ability to organize and use their commonly shared resources wisely, but I take it that does not work all the time? But ultimately collective action at the grassroots can force change at the top?

A: I am a believer of the capabilities of people to organize at a local level. That does not mean that they always do. There are a wide variety of collective action problems that exist at a small scale. The important thing is that people at a small scale, who know what the details of the problems are, organize, rather than calling on officials at a much larger scale.

Officials at a larger scale may have many collective-action problems of their own that they need to address. They do not have the detailed information about problems at a small scale that people who are confronting those every day do have. Thus, the solutions that are evolved by local people have a chance of being more imaginative and better ways of solving these problems than allowing them to go unsolved and eventually asking a much larger scale unit to solve it for them.

Q: This approach probably works better in a rural setting where there is a sense of community and of a shared responsibility to take care of their common resources. But how do you get that sense of ownership of the planet in an urban setting?

A: To solve these delicate problems at any scale requires individuals to trust that others are also going to contribute to their solution. Building trust is not something that can be done overnight. Thus, the crucial thing is that successful efforts at a local scale be advertised and well known throughout a developing country.

Developing associations of local communities, where very serious discussions can be held of the problems they are facing and creative ways that some communities, who have faced these problems, have adopted solutions that work. That does not mean that the solutions that work in one environment in a particular country will work in all others, but posing it as a solution that fits a local environment and that the challenge that everyone faces is to know enough about the social-ecological features of the problems they are facing that they can come up with good solutions that fit that local social-ecological system.

Q: I have been covering the recent drought in Niger – I came across people who were going to pack up and leave their village for good… Would that motivate people, countries, governments to take action to reduce emissions? But how do you make people in Europe, the US or Asia think about the people in Niger as their own?

A: There is no simple answer to this question. It is here that churches and NGOs can play a particular role in knowing about the problems being faced by villagers in Niger and other developing countries and trying to help. They can then also write stories about these problems in a way that people in Britain, Europe, and the US may understand better. It is a problem in some cases that officials in developing countries are corrupt, and direct aid to the country may only go into private bank accounts. We have to rethink how we organize governance at multiple scales so as to reduce the likelihood of some individuals having very strong powers and capability of using their public office primarily for private gain.

Q: Do you see the world moving in unison towards sustainability in the next five years? Do you think the world is prepared to take on this question and specially now when we are in a recession?

A: No, I do not see the world moving in unison. I do see some movements around the world that are very encouraging, but they are nowhere the same everywhere. We need to get out of thinking that we have to be moving the same everywhere. We need to be recognizing the complexity of the different problems being faced in a wide diversity of regions of the world. Thus, really great solutions that work in one environment do not work in others. We need to understand why, and figure out ways of helping to learn from good examples as well as bad examples of how to move ahead.

New Classroom Science Standards Up for Review (Dot Earth, N.Y.Times)

May 18, 2012, 11:46 AM

By ANDREW C. REVKIN

The first substantial update to national science teaching standards in roughly 15 years — and the first including the science of human-driven climate change — is open for public comment through this month. Here’s a short video description:

The effort has been directed by Achieve, an organization created by states and corporate backers eager to boost student performance and prospects as science and technology increasingly drive economies. The final (optional) standards will help guide states in shaping science curricula and requirements.

The foundation for the standards was laid in a National Academy of Sciences report. Other groups involved in the effort are the American Association for the Advancement of Science, the National Science Teachers Association and theCarnegie Corporation of New York, which has provided much of the money.

The standards were drafted by a team of 41 writers from 26 states, range from Bob Friend, a Boeing aerospace engineer, to Ramon Lopez, a physics professor at the University of Texas at Arlington to Rita Januszyk, an elementary school teacher from Willowbrook, Ill.

Click here for middle school standards on weather and climate and here for a section for high schools on managing human environmental impacts, including greenhouse-gas emissions. I like the way each such section links directly to the relevant section of the underlying National Academy of Sciences report — “A Framework for K-12 Science Education: Practices, Crosscutting Concepts, and Core Ideas.”

The National Science Teachers Association has posted heaps of valuable background and context.

Juanita Constible, a wildlife ecologist who’s spent time in Antarctica, has a piece summarizing the climate context at the Web site of the Climate Reality Project. Here’s an excerpt from Constible’s post:

The Next Generation Science Standards lay out core ideas K-12 students should understand about the basics of science – from biology, to physics and chemistry, to earth science. The last national standards were released back in 1996, and manmade climate change wasn’t mentioned. However, the new standards recognize that students need to know human activities are changing our climate. They also recognize that schools are training the next generation of engineers and scientists who can help solve the problem.

In the standards for middle school, for example, one of the core ideas is that “human activities, such as the release of greenhouse gases from burning fossil fuels, are major factors in the current rise in Earth’s mean surface temperature (‘global warming’).” The standards for high school note that “changes in the atmosphere due to human activity have increased carbon dioxide concentrations and thus affect climate.” [Read the rest.]

Explore the standards and weigh in with your reaction, both on the Nextgenscience.org site and here.